Ihre Aufgaben:
* Unsere große Datenplattform ist dafür ausgelegt verschiedenen Lösungen hoch qualitative Daten zur Verfügung zu stellen. Es handelt sich um technische Daten im Bereich Strom und Gas Netzbetrieb. des Weiteren werden Zeitreihen integriert. Zuletzt werden neue Datenquellen mit Planungsdaten eingebunden. Um die verschiedenen Datenlösungen auf der Plattform an die neuen Anforderungen anzupassen, müssen neue Daten integriert und per API ausgeliefert werden
* Kommunale Wärmeplanung: Dort müssen Stamm- und Bewegungsdaten im Bereich Zählerwesen bereitgestellt werden. Außerdem werden wir einen Umzug auf eine neue Infrastruktur mit Data Bricks und Unity Catalogue vornehmen. Dafür muss der Code und alle Pipeline umgezogen und mit anderen Codeteilen synchronisiert werden
* Planung: Planung von Strom und Gasassets muss gegenüber der Bundes Netzagentur erweitert werden. Dafür muss eine neue Datenquelle in eine bestehende Datenlösung integriert werden. Erneut bedarf es der Einbindung von neuen Datenstrukturen in bestehende Datenbanken und die Auslieferung der Daten per API
* Reporting: Es müssen verschiedene Reportings von Asset Stammdaten an verschiedene Stakeholder erstellt werden. Sowohl für kommunal als auch überregional müssen Aggregationen aus den Daten erstellt werden, die den Anforderungen der jeweiligen Stakeholder genügen
* Datenqualität: Zuletzt werden in den beschriebenen Anwendungsfällen auf Datenebene Datenfehler auftreten. Deren systematische Ausspielung innerhalb einer databricks Umgebung wird ebenfalls von Nöten sein
Ihre Qualifikationen:
* Sicherer Umgang mit Python
* Sicherer Umgang im Bereich Data Engineering und Bibliotheken wie Spark und Pandas
* Kenntnisse mit SQL
* Erfahrung in der Nutzung und im Aufbau von APIs
* Erfahrung im Umgang mit Gitlab
* Erfahrung in der Arbeit mit Data Services in der Cloud (vorzugsweise Azure)
* Sicherer Kenntnisse von deutsch und englisch
Ihre Vorteile:
* Homeoffice-Möglichkeit