8.905 IT-Jobs

Snowflake Data Engineer (m/w/d)

Jobriver HR Service (8903 weitere Jobs)
Berlin
Vor Ort
Vollzeit
Mid-Level
vor 23 Tagen
Gehaltsrahmen wird im Prozess kommuniziert

Beschreibung

Unser Kunde ist ein innovatives Unternehmen, das sich auf IT-Exzellenz spezialisiert hat und hervorragende Entwicklungsmöglichkeiten für seine Mitarbeiter bietet. In der Rolle des Snowflake Data Engineers sind Sie verantwortlich für die Analyse und Umsetzung von Anforderungen in Zusammenarbeit mit verschiedenen Fachbereichen. Sie entwickeln Datenpipelines und beraten Kunden zu Best Practices und Funktionen des Snowflake Data Engineering, einschließlich OpenFlow, Snowpark und Snowpipe. Ihre Aufgaben umfassen die Entwicklung von Datenstrecken unter Verwendung moderner Tools wie Fivetran, dbt, Airflow und Matillion. Darüber hinaus analysieren Sie Daten mithilfe der Snowflake AI Suite und präsentieren Ihre Erkenntnisse verständlich. Sie arbeiten eng mit Data Scientists, Analysts, Architects und anderen Engineers zusammen, um optimale Lösungen für die Kunden zu realisieren. Ein weiterer wichtiger Aspekt Ihrer Arbeit ist das Data Management, bei dem Sie strukturierte Datenprozesse aufbauen und Datenschutzrichtlinien einhalten. Zudem sind Sie aktiv in Presales-Aktivitäten involviert, entwickeln technische Lösungskonzepte und führen Workshops durch. Das Unternehmen legt großen Wert auf eine positive Unternehmenskultur, in der Teamarbeit und persönliche Entwicklung gefördert werden. Sie haben die Möglichkeit, an über 400 Trainingsangeboten teilzunehmen und Ihre Fähigkeiten kontinuierlich auszubauen.

Anforderungen

Der ideale Kandidat für diese Position bringt umfassende Kenntnisse in Data Platform Projekten mit, vorzugsweise mit Snowflake, sowie Erfahrung in der Modellierung mit Data Vault 2.0 oder klassischen Modellierungsmustern wie Snowflake und Star. Sie sollten über Cloud-Expertise im Bereich Cloud Data Platforms und einem Cloud Hyperscaler wie AWS, GCP oder Azure verfügen. Grundlegende Kenntnisse in Cloudinfrastruktur (VPC, IAM, etc.) sowie Erfahrungen mit Infrastructure as Code (IaC), insbesondere mit Terraform, sind ebenfalls erforderlich. Sie sind in der Lage, robuste Batch- und Streaming-Datenpipelines zu entwickeln und haben einen umfassenden Überblick über gängige Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica. Zudem bringen Sie Kenntnisse in mindestens einer Programmiersprache wie SQL, Python, Java, Scala oder Spark mit. Berufserfahrung im Consultingbereich ist von Vorteil, ebenso wie die Fähigkeit, KI-Tools souverän einzusetzen und deren Ergebnisse kritisch zu bewerten. Sehr gute Deutschkenntnisse und gute Englischkenntnisse sind Voraussetzung.

Technologien

Python Java Terraform

Soft Skills

Teamfähigkeit Kommunikation Analytisches Denken

Erforderliche Sprachen

Deutsch Englisch

Jetzt bewerben

75.000 €
0 / 800 Zeichen

Lebenslauf, Zeugnisse, Anschreiben (PDF, max. 10MB pro Datei, max. 5 Dateien)

Dateien hier ablegen oder klicken
Weitere Informationen findest du in der Datenschutzerklärung. Du kannst deine Einwilligung jederzeit widerrufen.