08.04.2024
©MCML & Lukas Gosch - TUM
Get to Know MCML Junior Member Lukas Gosch
Created During the First MCMLxDJS-Workshop
MCML Junior Member Lukas Gosch conducts research on how quickly - or slowly - AI algorithms react to changes. His field of work is the reliability of artificial intelligence, or more precisely, of machine learning algorithms. As these algorithms are playing an increasingly important role in our lives, he finds the sociological, political and ethical aspects exciting. In his research, he takes a look on what kinds of misbehavior of artificial intelligence exist.
This article was written by Jonas Grimm, from the Deutsche Journalistenschule (DJS). It was created in a workshop about AI and journalism together with DJS. Talented journalism students met some of MCML`s Junior Researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. This was the last article from our small introduction to some of MCML’s junior members.
Wenn Algorithmen Sich Wehren
Lukas Gosch beschäftigt sich mit Künstlicher Intelligenz und forscht daran, wie schnell - oder langsam - KI-Algorithmen auf Veränderungen reagieren.
Im Jahr 2050 könnte es sein, dass die meisten von uns nicht mehr selbst lenken, wenn sie Auto fahren - eine Prognos-Studie geht davon aus, dass bis zu 70% der dann neu zugelassenen Kfz autonom fahren. Autonomes Fahren ist ein wichtiges Anwendungsgebiet von KI - hier ist es zum Beispiel wichtig, dass ein Stoppschild vom steuernden Algorithmus auch als solches erkannt wird, selbst wenn es verschneit oder bemalt ist. Mit dieser Art von Zuverlässigkeit beschäftigt sich meine Forschung.
Mein Arbeitsfeld ist also die Zuverlässigkeit von künstlicher Intelligenz, oder genauer, von Algorithmen des maschinellen Lernens. Da diese Algorithmen in unserem Leben eine immer wichtigere Rolle spielen, finde ich neben der technischen Sicht auch die soziologische, politische und ethische Ebene davon spannend. Ich möchte mir anschauen: Was für Fehlverhalten der künstlichen Intelligenz gibt es eigentlich?
Wir haben das bei KI-Algorithmen für Graphen untersucht. Graphen sind Daten, wo einzelne Punkte Verbindungen aufweisen - zum Beispiel bei einem Sozialen Netzwerk, in dem Personen die Punkte darstellen, und eine Verbindung existiert, wenn sie befreundet sind. Wenn ich die Verbindung zwischen zwei Personen entferne, ändere ich vielleicht eine gravierende Information im Graphen. In unserer Forschung konnten wir zeigen, dass die “Anfälligkeit” von KI-Algorithmen bei kleinen Änderungen andere Entscheidungen zu treffen, auch ein erwünschtes Verhalten sein kann - eben dann, wenn sich der Sinngehalt der Daten durch die “kleine” Änderung verändert hat. Hier haben wir entdeckt, dass in solchen Fällen Algorithmen oft nicht schnell genug ihre Entscheidungen an den veränderten Inhalt der Daten anpassen. Diese Entdeckung haben wir als Über-Robustheit bezeichnet - der Algorithmus ändert sich nicht, obwohl er es sollte.
Wann diese Machine Learning-Algorithmen sich in ihren Entscheidungen zu schnell oder zu langsam anpassen, konnte man vorher nur schwer charakterisieren. Wir konnten das durch eine bessere theoretische Beschreibung verbessern und dadurch beweisen, dass optimale Robustheit und Genauigkeit sich für Graphdaten nicht ausschließen. Man könnte in diese Richtung noch viel weiterforschen, um Algorithmen zu schaffen, die gleichzeitig sehr akkurat und sinnvoll robust sind.
Von unseren Forschungsergebnissen kann praktisch jede Anwendung profitieren, die Graphdaten verwendet, damit der Algorithmus nicht hinters Licht geführt werden kann. Das können Algorithmen sein, die zum Beispiel Falschinformationen im Internet klassifizieren, wenn Betrugsfälle bei Kreditkarten-Transaktionen gesucht werden - oder natürlich auch Algorithmen in Sozialen Netzwerken.
Related
05.02.2026
Needle in a Haystack: Finding Exact Moments in Long Videos
ECCV 2024 research introduces RGNet, an AI model that finds exact moments in long videos using unified retrieval and grounding.
29.01.2026
How Machines Can Discover Hidden Rules Without Supervision
ICLR 2025 research shows how self-supervised learning uncovers hidden system dynamics from unlabeled, high-dimensional data.
22.01.2026
From Global to Regional Explanations: Understanding Models More Locally
JMLR research shows how subgroup-specific explanations reveal hidden patterns that global model explanations often miss.