Deine PowerKollegen
Unsere Mission ist gestartet. Wir beginnen im Battery Valley in Salzgitter mit unserer eigenen Batteriezellproduktion und dem Ramp-up unseres weltweiten Headquarters für die weltweiten Zellfertigungen. Dabei sind die Aufgaben und Anforderungen des Bereiches Informationstechnologie vielfältig. Die IT kümmert sich um alle Fragen der Informationstechnologie, d.h. der elektronischen Datenverarbeitung. Die Verantwortlichkeiten variieren von der Verantwortung der IT-Infrastruktur über die Digitalisierung der Organisation bis hin zur operativen Nutzung der elektronischen Datenverarbeitung in der gesamten Organisation.
Wo du deine Power bei uns einbringst
* Verantwortung für die Realisierung von Data Products, in Zusammenarbeit mit dem Product Owner und Cloud Data Architect
* Abstimmung mit den Datenproduzenten und Bereitstellung von Datenzugriff für die Datenkonsumenten
* Entwurf und Implementierung von Datenpipelines, Datenspeicherung und Datenverarbeitungslösungen
* Sicherstellung der Skalierbarkeit, Sicherheit und Verfügbarkeit der Dateninfrastruktur
* Zusammenarbeit mit Datenarchitekten und funktionsübergreifenden Teams, um Geschäftsanforderungen zu verstehen und datengesteuerte Lösungen zu entwickeln
* Zusammenarbeit mit Softwareentwicklern, Datenanalysten und Power-BI-Entwicklern, um geeignete Datenprodukte zu implementieren
* Optimierung von Leistung und Skalierbarkeit der Dateninfrastruktur
Dann passen wir zusammen
* Bachelor- oder Masterabschluss in Informatik, Wirtschaftsinformatik oder einem verwandten Bereich
* Sehr gute Kenntnisse in Programmiersprachen wie Python oder Java sowie Kenntnisse von Datenabfragesprachen wie SQL und Erfahrung mit ETL- und ELT-Prozessen
* Ausgezeichnete Kenntnisse in den Bereichen Data Warehousing, Data Pipeline und Datenverarbeitungstechnologien
* Ausgezeichnete Problemlösungs- und Analysefähigkeiten
* Mindestens 2 Jahre Erfahrung mit Cloud-Plattformen, z.B. Azure
* Erfahrung in der Verbindung der Metadaten z.B. Informatica MDM mit den Daten in Azure
* Erfahrung mit Big Data Technologien wie Hadoop, Spark sowie Kenntnisse über DevOps-Methoden und -Tools
* Erfahrung in der Arbeit in einem agilen Umfeld (Scrum/ KANBAN/ SAFe)
* Fließende Deutsch- und Englischkenntnisse
Damit punktest du bei uns
* Erfahrung mit Containerisierungs- und Container-Orchestrierungstechnologien wie Docker und Kubernetes ist von Vorteil
* Zertifizierungen wie AWS Data Engineering, Azure Data Engineering oder GCP Data Engineering sind von Vorteil
Damit punkten wir bei dir
* Flexible Arbeitszeiten von 28 bis 40 Stunden pro Woche
* Möglichkeit einer 4-Tage-Woche (bis zu 35 Stunden pro Woche)
* 30 Tage bezahlter + 10 Tage unbezahlter Urlaub
* Möglichkeiten des mobilen Arbeitens
* Unterstützung bei Umzügen
* Weitere Vorteile folgen