Unser Kunde ist ein führender Lebensmittelhändler, der seit über 110 Jahren für das Discount-Prinzip steht. Die Mission des Unternehmens ist es, Menschen überall und jederzeit mit ihren täglichen Bedürfnissen zu versorgen: hochwertige Produkte zu niedrigen Preisen – einfach und schnell. Um dies zu erreichen, wird täglich das Beste gegeben und das Einkaufserlebnis für die Kunden kontinuierlich verbessert. In dieser Rolle als Data Engineer sind Sie verantwortlich für die Gestaltung, Entwicklung und den Betrieb von Reporting-Lösungen für den Einkauf auf unserem Data Lake. Sie übernehmen die End-to-End-Verantwortung für Ihre Reporting-Produkte, indem Sie Datenquellen anbinden, komplexe ETL-Pipelines entwickeln und optimieren sowie Daten gemäß einem Sternschema modellieren. Sie arbeiten eng mit BI-Ingenieuren zusammen, um Benutzeranforderungen zu optimieren und unsere Datenmodelle zu erweitern. Zudem stellen Sie den kontinuierlichen Betrieb unserer Lösungen sicher, indem Sie Benutzeranfragen bearbeiten und tägliche Betriebsprozesse unterstützen. Ihre Arbeit wird durch die Verwendung modernster Tools und Methoden wie DataOps, DevOps und Scrum unterstützt, wobei Sie Ihr Wissen kontinuierlich mit Kollegen teilen. Sie tragen zur strategischen Ausrichtung des Unternehmens bei, indem Sie unterschiedliche Geschäftsanforderungen zentral konsolidieren und Kosten sowie Wertschöpfung im Reporting-Kontext abstimmen.
Data Engineer (m/w/d) – Procurement Reporting
Beschreibung
Anforderungen
Der ideale Kandidat bringt mindestens 5 Jahre Berufserfahrung in den Bereichen Data Engineering, Business Intelligence oder Datenanalyse mit, vorzugsweise in der Einzelhandelsbranche. Eine abgeschlossene Ausbildung in Mathematik, Informatik, Naturwissenschaften oder Ingenieurwesen (STEM) oder eine vergleichbare Qualifikation ist erforderlich. Sie verfügen über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines, idealerweise mit Python, SQL oder Spark. Erfahrung mit Big Data-Technologien, insbesondere Databricks im Microsoft Azure-Ökosystem (z.B. Azure Data Lake, Azure Data Factory, Azure DevOps) sowie SQL Server und Git sind ebenfalls erforderlich. Optional, aber von Vorteil, sind Kenntnisse in Power BI, Tabular Editor, Terraform und ARM. Sie sollten in der Lage sein, komplexe Datenstrukturen zu verstehen, robuste architektonische Entscheidungen zu treffen und die langfristige Stabilität von Datenprodukten sicherzustellen. Praktische Erfahrung im Umgang mit großen und komplexen Datensätzen ist wünschenswert. Relevante Zertifizierungen wie AZ900 oder Databricks Certified Data Engineer Associate sind von Vorteil. Zudem sind Sie ein starker Teamplayer mit hohem Engagement, Selbstständigkeit und kreativer Problemlösungsfähigkeit. Gute Englischkenntnisse in Wort und Schrift sind ebenfalls erforderlich.