8.784 IT-Jobs

Cloud Data Engineer (m/w/d)

Jobriver HR Service (8782 weitere Jobs)
Frankfurt am Main
Hybrid
Vollzeit
Mid-Level
vor 20 Tagen
48.000 € – 67.000 € / Jahr
Jobriver schätzt: 36.663 € – 92.858 € / Jahr Data Engineer

Beschreibung

Das Unternehmen ist seit über 35 Jahren ein zuverlässiger Partner für namhafte Kunden aus verschiedenen Branchen, darunter der Finanz- und Bankensektor sowie die Industrie und der Handel. Als Cloud Data Engineer sind Sie Teil eines dynamischen Teams, das sich der Analyse, Konzeption und Entwicklung von Datenlösungen widmet. Ihre Hauptaufgaben umfassen die Entwicklung von Data Pipelines auf Basis moderner Cloud-Architekturen wie Azure und Google Cloud Platform (GCP). Sie optimieren Dateninfrastrukturen und wenden DevOps-Prinzipien an, um den gesamten Datenlebenszyklus zu automatisieren. Zudem arbeiten Sie eng mit Fachabteilungen und Product Ownern zusammen, um anspruchsvolle Projekte im agilen Umfeld zu planen und umzusetzen. Das Unternehmen legt großen Wert auf Wissensaustausch und fördert die Weitergabe von Know-how an Kollegen sowie die Teilnahme an Fachkonferenzen und Seminaren. Darüber hinaus bieten sich Ihnen Entwicklungsmöglichkeiten in Führungspositionen oder als Tech Lead in neuen Technologien. Sie profitieren von einem modernen Arbeitsumfeld, das sowohl Remote-Arbeit als auch Präsenz im Büro ermöglicht, und erhalten zahlreiche Weiterbildungsmöglichkeiten, um Ihre Fähigkeiten kontinuierlich zu erweitern.

Anforderungen

Für die Position des Cloud Data Engineers sollten Sie einen (Fach-)Hochschulabschluss in Informatik oder eine vergleichbare Ausbildung vorweisen können, ergänzt durch mindestens zwei Jahre Berufserfahrung in der Datenverarbeitung. Wünschenswert sind Projekterfahrungen mit den Datenservices großer Public-Cloud-Provider wie Azure und GCP sowie relevante Zertifizierungen. Sie sollten solide Kenntnisse in Programmiersprachen wie Java, Scala oder Python mitbringen und grundlegende Erfahrungen mit CI/CD-Technologien wie Docker, Jenkins oder GitLab haben. Erste Erfahrungen im Aufbau von Data Pipelines auf Hadoop-Clustern (z.B. Spark, Kafka, NiFi) sind von Vorteil, ebenso wie Kenntnisse in Data-Orchestrierung-Frameworks wie Apache Airflow. Ein gutes Verständnis relationaler Datenbanken und ein starkes Interesse an IT-Trends und Technologieentwicklungen runden Ihr Profil ab. Sie sollten über sehr gute Deutschkenntnisse in Wort und Schrift sowie gute Englischkenntnisse verfügen.

Technologien

Python Java Docker Azure Jenkins Kafka

Soft Skills

Teamfähigkeit Kommunikation Analytisches Denken

Erforderliche Sprachen

Deutsch Englisch

Jetzt bewerben

57.500 €
0 / 800 Zeichen

Lebenslauf, Zeugnisse, Anschreiben (PDF, max. 10MB pro Datei, max. 5 Dateien)

Dateien hier ablegen oder klicken
Weitere Informationen findest du in der Datenschutzerklärung. Du kannst deine Einwilligung jederzeit widerrufen.