Zum nächstmöglichen Zeitpunkt suchen wir Sie als MLOps Platform Engineer für den Standort Berlin. Weiterentwicklung und Betrieb unserer MLOps Plattform, einschließlich Cloud-Ressourcen und lokaler Server Implementierung von Monitoring-Lösungen zur Überwachung von Performance und Status der bereitgestellten Modelle Optimierung der ML-Infrastruktur im Hinblick auf Skalierbarkeit und Kosteneffizienz Entwicklung und Pflege von CI/CD-Pipelines zur Automatisierung von Test, Integration und Bereitstellung von ML-Modellen Anwendung bewährter Sicherheitspraktiken, um sowohl die Modelle als auch die von ihnen verarbeiteten Daten zu schützen Enge Zusammenarbeit mit Data Scientists, Software Engineers und anderen Stakeholdern, um Modellanforderungen und Systembeschränkungen zu verstehen Umfassende Dokumentation von Bereitstellungsprozessen, Konfigurationen und Systemarchitekturen Erfolgreich abgeschlossenes Studium der Informatik bzw. einer vergleichbaren Studienrichtung alternativ eine IT-technische Berufsausbildung mit einschlägiger Berufserfahrung Expertise im Umgang mit Docker/Kubernetes; idealerweise Erfahrung mit Red Hat Openshift Erfahrung mit MLOps-Paradigmen und MLOps-Tools wie Airflow, Kubeflow, MLFlow etc. Praktische Erfahrung mit KI-Frameworks wie (TensorFlow, PyTorch) und Libraries (Transformers, DeepSpeed, etc.) Solide Kenntnisse in Python, SQL, Bash und anderen Skriptsprachen, die für die Arbeit mit KI und Sprachmodellen unerlässlich sind Selbstmotiviert, multitaskingfähig und ein ausgewiesener Teamplayer Hervorragende Kommunikationsfähigkeiten