Deine Aufgaben
- Architekt moderner Datenwelten: Entwickle und implementiere fortschrittliche Data-Engineering-Lösungen auf der Databricks-Plattform.
- Innovative Datenarchitekturen: Gestalte und optimiere Data-Warehouse- und Data-Lake-Strukturen unter Einsatz der Databricks Lakehouse Platform.
- Mehrschichtige Datenmodelle: Erschaffe und implementiere komplexe Datenarchitekturen (Bronze, Silver, Gold Layer) mit Delta Lake.
- Effiziente Datenpipelines: Entwickle ETL/ELT-Prozesse sowie Datenverarbeitungs-Pipelines mit Hilfe von Apache Spark.
- Dokumentation: Erstelle und pflege technische Spezifikationen und Dokumentationen, um nachhaltige Lösungen zu gewährleisten.
- Kollaboration: Arbeite eng mit verschiedenen Fachabteilungen zusammen, um Datenprozesse zu optimieren und effizienter zu gestalten.