Home  | News

08.04.2024

Teaser image to Get to know MCML Junior Member Lukas Gosch

Get to Know MCML Junior Member Lukas Gosch

Created During the First MCMLxDJS-Workshop

MCML Junior Member Lukas Gosch conducts research on how quickly - or slowly - AI algorithms react to changes. His field of work is the reliability of artificial intelligence, or more precisely, of machine learning algorithms. As these algorithms are playing an increasingly important role in our lives, he finds the sociological, political and ethical aspects exciting. In his research, he takes a look on what kinds of misbehavior of artificial intelligence exist.

This article was written by Jonas Grimm, from the Deutsche Journalistenschule (DJS). It was created in a workshop about AI and journalism together with DJS. Talented journalism students met some of MCML`s Junior Researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. This was the last article from our small introduction to some of MCML’s junior members.


Wenn Algorithmen Sich Wehren

Lukas Gosch beschäftigt sich mit Künstlicher Intelligenz und forscht daran, wie schnell - oder langsam - KI-Algorithmen auf Veränderungen reagieren.

Im Jahr 2050 könnte es sein, dass die meisten von uns nicht mehr selbst lenken, wenn sie Auto fahren - eine Prognos-Studie geht davon aus, dass bis zu 70% der dann neu zugelassenen Kfz autonom fahren. Autonomes Fahren ist ein wichtiges Anwendungsgebiet von KI - hier ist es zum Beispiel wichtig, dass ein Stoppschild vom steuernden Algorithmus auch als solches erkannt wird, selbst wenn es verschneit oder bemalt ist. Mit dieser Art von Zuverlässigkeit beschäftigt sich meine Forschung.

Mein Arbeitsfeld ist also die Zuverlässigkeit von künstlicher Intelligenz, oder genauer, von Algorithmen des maschinellen Lernens. Da diese Algorithmen in unserem Leben eine immer wichtigere Rolle spielen, finde ich neben der technischen Sicht auch die soziologische, politische und ethische Ebene davon spannend. Ich möchte mir anschauen: Was für Fehlverhalten der künstlichen Intelligenz gibt es eigentlich?

Wir haben das bei KI-Algorithmen für Graphen untersucht. Graphen sind Daten, wo einzelne Punkte Verbindungen aufweisen - zum Beispiel bei einem Sozialen Netzwerk, in dem Personen die Punkte darstellen, und eine Verbindung existiert, wenn sie befreundet sind. Wenn ich die Verbindung zwischen zwei Personen entferne, ändere ich vielleicht eine gravierende Information im Graphen. In unserer Forschung konnten wir zeigen, dass die “Anfälligkeit” von KI-Algorithmen bei kleinen Änderungen andere Entscheidungen zu treffen, auch ein erwünschtes Verhalten sein kann - eben dann, wenn sich der Sinngehalt der Daten durch die “kleine” Änderung verändert hat. Hier haben wir entdeckt, dass in solchen Fällen Algorithmen oft nicht schnell genug ihre Entscheidungen an den veränderten Inhalt der Daten anpassen. Diese Entdeckung haben wir als Über-Robustheit bezeichnet - der Algorithmus ändert sich nicht, obwohl er es sollte.

Wann diese Machine Learning-Algorithmen sich in ihren Entscheidungen zu schnell oder zu langsam anpassen, konnte man vorher nur schwer charakterisieren. Wir konnten das durch eine bessere theoretische Beschreibung verbessern und dadurch beweisen, dass optimale Robustheit und Genauigkeit sich für Graphdaten nicht ausschließen. Man könnte in diese Richtung noch viel weiterforschen, um Algorithmen zu schaffen, die gleichzeitig sehr akkurat und sinnvoll robust sind.

Von unseren Forschungsergebnissen kann praktisch jede Anwendung profitieren, die Graphdaten verwendet, damit der Algorithmus nicht hinters Licht geführt werden kann. Das können Algorithmen sein, die zum Beispiel Falschinformationen im Internet klassifizieren, wenn Betrugsfälle bei Kreditkarten-Transaktionen gesucht werden - oder natürlich auch Algorithmen in Sozialen Netzwerken.

#blog #guennemann

Related

Link to Björn Ommer: How AI can transform society if we use it responsibly

28.04.2026

Björn Ommer: How AI Can Transform Society if We Use It Responsibly

MCML PI Björn Ommer explains the philosophy behind Stable Diffusion and why his team focuses on efficiency.

Read more
Link to When Vision AI Hallucinates Details

23.04.2026

When Vision AI Hallucinates Details

Why do vision-language models invent details? Our PI Zeynep Akata and her team present a fix for AI hallucinations at CVPR 2026.

Read more
Link to Research Stay at École Polytechnique

20.04.2026

Research Stay at École Polytechnique

Viktoria Ehm joined a research stay at École Polytechnique via MCML AI X-Change, working on 3D shape analysis and LLM-based methods.

Read more
Link to Do Language Models Reason Like Humans?

16.04.2026

Do Language Models Reason Like Humans?

How do LLMs judge “if–then” statements? The paper accepted at EACL 2026 analyzes how probability and meaning shape LLM reasoning.

Read more
Link to How AI Avatars Shape Perceived Fairness

02.04.2026

How AI Avatars Shape Perceived Fairness

Accepted at CHI 2026, this study shows how the race and gender of AI interview avatars shape perceptions of fairness and bias in automated hiring.

Read more
Back to Top