08.04.2024

©MCML & Lukas Gosch - TUM
Get to Know MCML Junior Member Lukas Gosch
Created During the First MCMLxDJS-Workshop
MCML Junior Member Lukas Gosch conducts research on how quickly - or slowly - AI algorithms react to changes. His field of work is the reliability of artificial intelligence, or more precisely, of machine learning algorithms. As these algorithms are playing an increasingly important role in our lives, he finds the sociological, political and ethical aspects exciting. In his research, he takes a look on what kinds of misbehavior of artificial intelligence exist.
This article was written by Jonas Grimm, from the Deutsche Journalistenschule (DJS). It was created in a workshop about AI and journalism together with DJS. Talented journalism students met some of MCML`s Junior Researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. This was the last article from our small introduction to some of MCML’s junior members.
Wenn Algorithmen sich wehren
Lukas Gosch beschäftigt sich mit Künstlicher Intelligenz und forscht daran, wie schnell - oder langsam - KI-Algorithmen auf Veränderungen reagieren.
Im Jahr 2050 könnte es sein, dass die meisten von uns nicht mehr selbst lenken, wenn sie Auto fahren - eine Prognos-Studie geht davon aus, dass bis zu 70% der dann neu zugelassenen Kfz autonom fahren. Autonomes Fahren ist ein wichtiges Anwendungsgebiet von KI - hier ist es zum Beispiel wichtig, dass ein Stoppschild vom steuernden Algorithmus auch als solches erkannt wird, selbst wenn es verschneit oder bemalt ist. Mit dieser Art von Zuverlässigkeit beschäftigt sich meine Forschung.
Mein Arbeitsfeld ist also die Zuverlässigkeit von künstlicher Intelligenz, oder genauer, von Algorithmen des maschinellen Lernens. Da diese Algorithmen in unserem Leben eine immer wichtigere Rolle spielen, finde ich neben der technischen Sicht auch die soziologische, politische und ethische Ebene davon spannend. Ich möchte mir anschauen: Was für Fehlverhalten der künstlichen Intelligenz gibt es eigentlich?
Wir haben das bei KI-Algorithmen für Graphen untersucht. Graphen sind Daten, wo einzelne Punkte Verbindungen aufweisen - zum Beispiel bei einem Sozialen Netzwerk, in dem Personen die Punkte darstellen, und eine Verbindung existiert, wenn sie befreundet sind. Wenn ich die Verbindung zwischen zwei Personen entferne, ändere ich vielleicht eine gravierende Information im Graphen. In unserer Forschung konnten wir zeigen, dass die “Anfälligkeit” von KI-Algorithmen bei kleinen Änderungen andere Entscheidungen zu treffen, auch ein erwünschtes Verhalten sein kann - eben dann, wenn sich der Sinngehalt der Daten durch die “kleine” Änderung verändert hat. Hier haben wir entdeckt, dass in solchen Fällen Algorithmen oft nicht schnell genug ihre Entscheidungen an den veränderten Inhalt der Daten anpassen. Diese Entdeckung haben wir als Über-Robustheit bezeichnet - der Algorithmus ändert sich nicht, obwohl er es sollte.
Wann diese Machine Learning-Algorithmen sich in ihren Entscheidungen zu schnell oder zu langsam anpassen, konnte man vorher nur schwer charakterisieren. Wir konnten das durch eine bessere theoretische Beschreibung verbessern und dadurch beweisen, dass optimale Robustheit und Genauigkeit sich für Graphdaten nicht ausschließen. Man könnte in diese Richtung noch viel weiterforschen, um Algorithmen zu schaffen, die gleichzeitig sehr akkurat und sinnvoll robust sind.
Von unseren Forschungsergebnissen kann praktisch jede Anwendung profitieren, die Graphdaten verwendet, damit der Algorithmus nicht hinters Licht geführt werden kann. Das können Algorithmen sein, die zum Beispiel Falschinformationen im Internet klassifizieren, wenn Betrugsfälle bei Kreditkarten-Transaktionen gesucht werden - oder natürlich auch Algorithmen in Sozialen Netzwerken.
08.04.2024
Related

27.03.2025
Beyond the Black Box: Choosing the Right Feature Importance Method
The team of Bernd Bischl created a clear guide to feature importance methods, helping researchers and practitioners interpret AI models effectively.

13.03.2025
ReNO: A Smarter Way to Enhance AI-Generated Images
The team of MCML PI Zeynep Akata developed ReNO that enhances image generation without requiring expensive model retraining.

©MCML
04.03.2025
Research at EWCS at the Broad Institute of MIT and Harvard
Research stay at Broad Institute: Exploring causality in biology, microbial interactions, and ML applications through MCML AI X-change program.

23.02.2025
ChatGPT in Radiology: Making Medical Reports Patient-Friendly?
The team of MCML PI Michael Ingrisch explored whether ChatGPT could effectively simplify radiology reports while preserving factual accuracy.