Deine Aufgaben bei uns:
* Du containerisierst Anwendungen mit Docker/Podman, baust und wartest CI/CD-Pipelines und implementierst Monitoring-Lösungen
* Du betreibst, skalierst und sicherst Linux-Produktionsumgebungen und optimierst die Performance sowie das Ressourcenmanagement auf Betriebssystemebene
* Du implementierst KI/ML-Workflows, entwickelst Microservice-Architekturen für verteilte ML-Anwendungen und setzt RAG- sowie Agentsysteme codenah um
* Du automatisierst die Bereitstellung von Infrastrukturen mit DevOps-Tools, unterstützt bei der Migration zu Kubernetes und planst effiziente KI-Plattformen
Was wir von Dir erwarten:
* Du weist solide Python-Kenntnisse zur Entwicklung von Pipelines, Skripts und ML-Anwendungen auf
* Erste Praxiserfahrung mit Docker/Podman sowie CI/CD-Tools sind für Dich selbstverständlich
* Du hast Erfahrung in der Linux-Systemadministration, insbesondere in produktiven Umgebungen mit Fokus auf Performance und Sicherheit
* Idealerweise hast Du bereits Erfahrung mit Kubernetes, um skalierbare MLOps-Umgebungen aufzubauen
* Kenntnisse in RAG-Systemen, Agentenarchitekturen oder Similarity Search wären wünschenswert
* Erfahrungen mit Embedding-Technologien und Vektor-Datenbanken sind von Vorteil für Dich