Wir freuen uns sehr, bekanntzugeben, dass drei herausragende Principal Investigators (PIs) das ELLIS Institute Tübingen verstärken werden.
Ihre neuen Perspektiven und ihre außergewöhnliche Forschungsexpertise werden die Mission des Instituts maßgeblich voranbringen und spannende neue Möglichkeiten für zukünftige Kooperationen eröffnen.
Dr. Maksym Andriushchenko und Dr. Maximilian Dax werden im September starten, gefolgt von Dr. Sahar Abdelnabi im Oktober. Alle drei werden als unabhängige Forschungsgruppenleiter auch mit dem Max-Planck-Institut für Intelligente Systeme (MPI-IS) und dem Tübingen AI Center affiliiert sein.
Nachfolgend finden Sie ihre Forschungsschwerpunkte und Kurzbiografien:
Dr. Maksym Andriushchenko
Forschungsgruppe: AI Safety and Alignment
Startdatum: 1. September 2025
Die neue Forschungsgruppe AI Safety and Alignment entwickelt technische Lösungen zur Reduzierung von Risiken, die von generischen KI-Modellen ausgehen. Im Zentrum steht die Ausrichtung autonomer LLM-Agenten, die immer leistungsfähiger werden und neuartige Risiken mit sich bringen. Darüber hinaus beschäftigen wir uns mit strengen Evaluierungen von KI-Systemen sowie der Aufklärung der Öffentlichkeit über die Risiken und Fähigkeiten von Frontier-KI-Modellen. Schließlich wollen wir besser verstehen, wie KI-Modelle aus Trainingsdaten generalisieren – ein entscheidender Faktor, um ihre Steuerbarkeit und Ausrichtung an gesellschaftliche Werte zu gewährleisten.
Maksym Andriushchenko ist Postdoktorand an der EPFL und ELLIS-Mitglied. Er arbeitete zu Fragen der KI-Sicherheit bei führenden Organisationen des Feldes (OpenAI, Anthropic, UK AI Safety Institute, Center for AI Safety, Gray Swan AI). 2024 promovierte er im Fach Maschinelles Lernen an der EPFL bei Prof. Nicolas Flammarion. Seine Dissertation wurde mit dem Patrick Denantes Memorial Prize für die beste Arbeit im Fachbereich Informatik ausgezeichnet und erhielt Förderung durch die Google und Open Phil AI PhD Fellowships. Seinen Master absolvierte er an der Universität des Saarlandes und der Universität Tübingen; außerdem war er Praktikant bei Adobe Research.
Dr. Maximilian Dax
Forschungsgruppe: Science and Probabilistic Intelligence (SPIN)
Startdatum: 1. September 2025
Die Forschungsgruppe Science and Probabilistic Intelligence (SPIN) verbindet Grundlagenforschung im Bereich probabilistische KI mit angewandter Forschung in den Naturwissenschaften. Wir arbeiten in verschiedenen wissenschaftlichen Domänen und möchten mithilfe von Maschinellem Lernen neue Entdeckungen ermöglichen. Neben Anwendungen liegt der Fokus unserer KI-Forschung auf generativem Modellieren, inversen Problemen und simulationsbasierter Inferenz mit dem Ziel, effiziente, präzise und zuverlässige Methoden zu entwickeln.
Maximilian Dax ist Postdoktorand an der ETH Zürich und am ELLIS Institute Tübingen sowie Mitglied der LIGO Scientific Collaboration. Seine Promotion absolvierte er am Max-Planck-Institut für Intelligente Systeme in Tübingen unter der Betreuung von Bernhard Schölkopf; zudem war er Praktikant bei Google Research. Sein Forschungsschwerpunkt liegt auf probabilistischer Inferenz, generativem Modellieren und Dichteschätzung, mit besonderem Fokus auf wissenschaftliche Anwendungen. Gemeinsam mit Kollegen entwickelte er DINGO, einen führenden Machine-Learning-Ansatz zur Analyse von Gravitationswellen-Daten.
Dr. Sahar Abdelnabi
Forschungsgruppe: COMPASS (Cooperative Machine intelligence for People-Aligned Safe Systems)
Startdatum: 1. Oktober 2025
Die neue Forschungsgruppe COMPASS konzentriert sich auf die Entwicklung sicherer, ausgerichteter, interpretierbarer und steuerbarer KI-Agenten – mit besonderem Fokus auf Sicherheit, menschliche Aspekte und kooperative Multi-Agenten-Systeme.
Sahar Abdelnabi ist AI Security Researcher bei Microsoft Research Cambridge, UK. Ihre Forschungsinteressen liegen an der Schnittstelle von KI mit Sicherheit, Vertrauenswürdigkeit und soziopolitischen Fragestellungen. Sie erhielt ihren Masterabschluss an der Universität des Saarlandes und promovierte summa cum laude am CISPA Helmholtz Center for Information Security. Eine ihrer Publikationen war die erste, die das Problem der Indirect Prompt Injection in LLM-integrierten Anwendungen aufzeigte – eine grundlegende Schwachstelle in allen existierenden LLMs.
