14 November 2025

San Diego oder Kopenhagen: Meet us at NeurIPS and EurIPS 2025

Thumb ticker xxl cover for neuripseurips article   2025

Das ELLIS Institute Tübingen ist im Dezember auf zwei Top-Konferenzen vertreten: der NeurIPS in San Diego und der EurIPS in Kopenhagen! Wir freuen uns, Teil beider Veranstaltungen zu sein und Wissenschaftler aus aller Welt durch herausragende Forschung vom 2.–7. Dezember 2025 zu vernetzen.

In diesem Jahr unterstützt die 39. jährliche Neural Information Processing Systems (NeurIPS) Konferenz – eine der weltweit führenden Veranstaltungen im Bereich künstliche Intelligenz und maschinelles Lernen – erstmals ein neues, unabhängiges, von NeurIPS unterstütztes Event in Kopenhagen namens EurIPS. Diese Zusammenarbeit bietet Forschenden die spannende Möglichkeit, ihre Arbeiten entweder auf der NeurIPS oder der EurIPS zu präsentieren; zudem können auf der NeurIPS angenommene Beiträge optional auch auf der EurIPS vorgestellt werden.

Auf der NeurIPS 2025 sind unsere Principal Investigators mit 26 Beiträgen vertreten, darunter 2 Talks und 6 Spotlights. Wenn Sie dieses Jahr in San Diego sind, schauen Sie gerne vorbei und treffen Sie einige unserer PIs, während sie ihre Forschung präsentieren (die vollständige Liste der Beiträge finden Sie unten).

Wir freuen uns außerdem, als stolzer Sponsor der EurIPS 2025 vertreten zu sein – Sie finden uns am Stand D03-08. Kommen Sie vorbei, um Hallo zu sagen, mehr über die Mission und Forschung unseres Instituts zu erfahren und einen Blick auf unsere aktuellen offenen Stellen zu werfen.

Wir freuen uns darauf, Sie auf beiden Veranstaltungen zu treffen!

Talks
Generalized Linear Mode Connectivity for Transformers Alexander Theus · Alessandro Cabodi · Sotiris Anagnostidis · Antonio Orvieto · Sidak Pal Singh · Valentina Boeva
In Search of Adam’s Secret Sauce Antonio Orvieto · Robert Gower
Spotlights
The Hawthorne Effect in Reasoning Models: Evaluating and Steering Test Awareness Sahar Abdelnabi · Ahmed Salem
OS-Harm: A Benchmark for Measuring Safety of Computer Use Agents Thomas Kuntz · Agatha Duzan · Hao Zhao · Francesco Croce · J. Zico Kolter · Nicolas Flammarion · Maksym Andriushchenko
Scaling up Test-Time Compute with Latent Reasoning: A Recurrent Depth Approach Jonas Geiping · Sean McLeish · Neel Jain · John Kirchenbauer · Siddharth Singh · Brian Bartoldson · Bhavya Kailkhura · Abhinav Bhatele · Tom Goldstein
TabArena: A Living Benchmark for Machine Learning on Tabular Data Nick Erickson · Lennart Purucker · Andrej Tschalzev · David Holzmüller · Prateek Desai · David Salinas · Frank Hutter
Do-PFN: In-context Learning for Causal Effect Estimation Jake Robertson · Arik Reuter · Siyuan Guo · Noah Hollmann · Frank Hutter · Bernhard Schölkopf
Fixed-Point RNNs: Interpolating from Diagonal to Dense Sajad Movahedi · Felix Sarnthein · Nicola Muca Cirone · Antonio Orvieto
Posters
Contextual Integrity in LLMs via Reasoning and Reinforcement Learning Guangchen (Eric) Lan · Huseyin A. Inan · Sahar Abdelnabi · Janardhan Kulkarni · Lukas Wutschitz · Reza Shokri · Christopher Brinton · Robert Sim
Direct Alignment with Heterogeneous Preferences Ali Shirali · Arash Nasr-Esfahany · Abdullah Alomar · Parsa Mirtaheri · Rediet Abebe · Ariel Procaccia
Quantifying Uncertainty in Error Consistency: Towards Reliable Behavioral Comparison of Classifiers Thomas Klein · Sascha Meyen · Wieland Brendel · Felix A. Wichmann · Kristof Meding
Reparameterized LLM Training via Orthogonal Equivalence Transformation Zeju Qiu · Simon Buchholz · Tim Xiao · Maximilian Dax · Bernhard Schölkopf · Weiyang Liu
EquiTabPFN: A Target-Permutation Equivariant Prior Fitted Network Michael Arbel · David Salinas · Frank Hutter
Gompertz Linear Units: Leveraging Asymmetry for Enhanced Learning Dynamics Indrashis Das · Mahmoud Safari · Steven Adriaensen · Frank Hutter
Learning in Compact Spaces with Approximately Normalized Transformer Jörg Franke · Urs Spiegelhalter · Marianna Nezhurina · Jenia Jitsev · Frank Hutter · Michael Hefenbrock
DeltaProduct: Improving State-Tracking in Linear RNNs via Householder Products Julien Siems · Timur Carstensen · Arber Zela · Frank Hutter · Massimiliano Pontil · Riccardo Grazzi
GPAS: Accelerating Convergence of LLM Pretraining via Gradient-Preserving Activation Scaling Tianhao Chen · Xin Xu · Zijing Liu · Pengxiang Li · Xinyuan Song · Ajay Jaiswal · Fan Zhang · Jishan Hu · Yang Wang · Hao Chen · Shizhe Diao · Shiwei Liu · Yu Li · Lu Yin · Can Yang
The Curse of Depth in Large Language Models Wenfang Sun · Xinyuan Song · Pengxiang Li · Lu Yin · Yefeng Zheng · Shiwei Liu
AlphaDecay: Module-wise Weight Decay for Heavy-Tailed Balancing in LLMs Di He · Ajay Jaiswal · Songjun Tu · Li Shen · Ganzhao Yuan · Shiwei Liu · Lu Yin
Collective Reasoning in Performative Prediction Haiqing Zhu · Tijana Zrnic · Celestine Mendler-Dünner
Performative Validity of Recourse Explanations Gunnar König · Hidde Fokkema · Timo Freiesleben · Celestine Mendler-Dünner · Ulrike Luxburg
Enhancing Optimizer Stability: Momentum Adaptation of The NGN Step-size Rustem Islamov · Niccolò Ajroldi · Antonio Orvieto · Aurelien Lucchi
Counterfactual reasoning: an analysis of in-context emergence Moritz Miller · Bernhard Schölkopf · Siyuan Guo
Language Models Are Inefficient Reasoners: An Analysis on Arithmetic Proof Search Andreas Opedal · Yanick Zengaffinen · Haruki Shirakami · Clemente Pasti · Mrinmaya Sachan · Abulhair Saparov · Ryan Cotterell · Bernhard Schölkopf
SPARTAN: A Sparse Transformer World Model Attending to What Matters Anson Lei · Bernhard Schölkopf · Ingmar Posner
Cultural Alien Sampler: Open-ended Art Generation Balancing Originality and Coherence Alejandro Hernandez · Hiromu Yakura · Levin Brinkmann · Mar Canet Solal · Hassan Abu Alhaija · Ignacio Serna · Nasim Rahaman · Bernhard Schölkopf · Iyad Rahwan