Steigen Sie ein in die faszinierende Welt des Deutschen Zentrums für Luft und Raumfahrt (DLR), um mit Forschung und Innovation die Zukunft mitzugestalten! Mit dem Know how und der Neugier unserer 11.000 Mitarbeitenden aus 100 Nationen sowie unserer einzigartigen Infrastruktur, bieten wir ein spannendes und inspirierendes Arbeitsumfeld. Gemeinsam entwickeln wir nachhaltige Technologien und tragen so zur Lösung globaler Herausforderungen bei. Möchten Sie diese große Zukunftsaufgabe mit uns zusammen angehen? Dann ist Ihr Platz bei uns! Für unser Institut KI Sicherheit in Sankt Augustin suchen wir eine/n Informatiker/in, Mathematiker/in, Physiker/in o. ä. (w/m/d), Fachliche Leitung für den Bereich „AI Security and Trust“ Das erwartet Sie: Das Institut für KI Sicherheit erbringt Forschungs und Entwicklungsleistung im Bereich KI bezogener Methoden, Prozesse, Algorithmen und Ausführungsumgebungen. Schwerpunkt ist die Gewährleistung von Betriebs und Angriffssicherheit KI basierter Lösungen in ambitionierten Anwendungsklassen. „Safety and Security by Design” ist dabei ein zentraler Aspekt, über welchen auch die Anforderungen sicherheitskritischer Anwendungen erfüllt werden können, die zukünftig auf KI fußen bzw. KI basierte Komponenten als Lösungsbausteine aufgreifen. Die Arbeitsschwerpunkte des Instituts liegen in den folgenden Bereichen: Entwicklungsprozesse und Methoden für sicherheitskritische KI Anwendungen robuste und zuverlässig absicherbare KI Methoden und Algorithmen Betriebs und Angriffssicherheit für KI basierte Anwendungen Absicherung und Nutzung sensibler Datenbestände Ausführungsumgebungen für KI Anwendungen innovative Rechenmethoden Die Abteilung KI SCD (Sicherheitskritische Dateninfrastrukturen) des DLR Institut für KI Sicherheit arbeitet u.a. an der Erforschung und Weiterentwicklung von (de )zentralen Datenräumen für hochkritische Anwendungsbereiche. Dabei geht es um die sichere Einbettung von Dateninstanzen in KI Anwendungslandschaften, d. h. es werden sowohl Angriffsmöglichkeiten und deren Verhinderung/Abschwächung betrachtet, als auch die Sicherheit während des Betriebs der Anwendung, um ungewünschte Systemzustände möglichst zu vermeiden. Kernaspekte sind hierbei die Themen Datenprovenienz, Datenqualität, Semantische Integration und die fachlich wissenschaftliche Erweiterung von dezentralen Daten und Diensteökosystemen. Im Rahmen der Aktivitäten rund um das Thema AI Security and Trust sind die fachliche Leitung des Teams KI SCD SEC und die wissenschaftliche Leitung (und Weiterentwicklung) von Forschungsaufgaben auf dem Gebiet der Sicherheit für KI Systeme zu übernehmen. Dies umfasst insbesondere die Themengebiete AI Security und AI Trust. Die ausgeschriebene Stelle beinhaltet die folgenden Leitungsaufgaben und wissenschaf