Sind stabile und hocheffiziente Daten-Pipelines, skalierbare Cloud-Infrastrukturen und die Automatisierung komplexer Datenflüsse Ihre wahre Leidenschaft? Dann werden Sie Teil eines wachsenden Teams! Unser Kunde ist eine dynamische, aufstrebende Data & Analytics- sowie ERP-Beratung. Die Mission des Unternehmens ist es, das Maximum aus den Daten und Systemen ihrer Kunden herauszuholen. Als Partner in der Datenverarbeitung bewegen sie sich an der Speerspitze technologischer Möglichkeiten. Die Projekte konzentrieren sich auf Data Engineering, Data Strategy Development sowie Science & AI. Zu den Aufgaben gehören die technische Aufnahme und Analyse komplexer Kundenanforderungen sowie deren Übersetzung in skalierbare Datenarchitekturen. Zudem sind Sie verantwortlich für die Konzeption und Implementierung von modernen Datenbankstrukturen und hochverfügbaren Daten-Pipelines. Die Automatisierung und Orchestrierung von Workflows zur Sicherstellung einer maximalen Datenqualität und Systemstabilität im Produktivbetrieb gehört ebenfalls zu Ihrem Tätigkeitsfeld. Sie werden aktiv in den Entwicklungszyklus eingebunden und arbeiten eng mit Kunden und Teamkollegen durch agile Methoden zusammen. Das Unternehmen bietet ein spannendes Projekt-Ökosystem, in dem Sie die technische Architektur für vielfältige Kunden aufbauen können. Sie haben die Möglichkeit, remote oder in einem modernen Büro zu arbeiten und Ihre Entwicklung vom Spezialisten zum Technical Lead oder Architect voranzutreiben.
Senior Data Engineer (m/w/d)
Beschreibung
Anforderungen
Der ideale Kandidat hat ein erfolgreich abgeschlossenes Studium im MINT-Bereich oder eine vergleichbare Qualifikation mit starkem technischem Fokus. Sie bringen mindestens 3 Jahre fundierte Berufserfahrung in der aktiven Umsetzung von Data Engineering Use Cases mit. Tiefgreifende Kenntnisse in der Datenbankmodellierung sowie in der Konzeption und Implementierung von ETL/ELT-Strecken und modernen Data Warehouse/Lake-Strukturen sind erforderlich. Sie beherrschen SQL auf Expertenniveau und sind sicher im Umgang mit mindestens einer weiteren Programmiersprache, idealerweise Python. Erfahrung mit modernen Data-Plattformen wie Databricks oder Snowflake sowie Cloud-Umgebungen (AWS, Azure oder GCP) sind von Vorteil. Kenntnisse in Big-Data-Frameworks wie Spark sind ein großes Plus. Sie sind vertraut mit agilen Arbeitsweisen und verstehen es, technische Anforderungen in iterativen Sprints umzusetzen. Persönlich zeichnen Sie sich durch eine analytische und strukturierte Arbeitsweise aus, gepaart mit Zuverlässigkeit und Eigenverantwortung.