08.04.2024

©MCML & Lukas Gosch - TUM
Get to Know MCML Junior Member Lukas Gosch
Created During the First MCMLxDJS-Workshop
MCML Junior Member Lukas Gosch conducts research on how quickly - or slowly - AI algorithms react to changes. His field of work is the reliability of artificial intelligence, or more precisely, of machine learning algorithms. As these algorithms are playing an increasingly important role in our lives, he finds the sociological, political and ethical aspects exciting. In his research, he takes a look on what kinds of misbehavior of artificial intelligence exist.
This article was written by Jonas Grimm, from the Deutsche Journalistenschule (DJS). It was created in a workshop about AI and journalism together with DJS. Talented journalism students met some of MCML`s Junior Researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. This was the last article from our small introduction to some of MCML’s junior members.
Wenn Algorithmen sich wehren
Lukas Gosch beschäftigt sich mit Künstlicher Intelligenz und forscht daran, wie schnell - oder langsam - KI-Algorithmen auf Veränderungen reagieren.
Im Jahr 2050 könnte es sein, dass die meisten von uns nicht mehr selbst lenken, wenn sie Auto fahren - eine Prognos-Studie geht davon aus, dass bis zu 70% der dann neu zugelassenen Kfz autonom fahren. Autonomes Fahren ist ein wichtiges Anwendungsgebiet von KI - hier ist es zum Beispiel wichtig, dass ein Stoppschild vom steuernden Algorithmus auch als solches erkannt wird, selbst wenn es verschneit oder bemalt ist. Mit dieser Art von Zuverlässigkeit beschäftigt sich meine Forschung.
Mein Arbeitsfeld ist also die Zuverlässigkeit von künstlicher Intelligenz, oder genauer, von Algorithmen des maschinellen Lernens. Da diese Algorithmen in unserem Leben eine immer wichtigere Rolle spielen, finde ich neben der technischen Sicht auch die soziologische, politische und ethische Ebene davon spannend. Ich möchte mir anschauen: Was für Fehlverhalten der künstlichen Intelligenz gibt es eigentlich?
Wir haben das bei KI-Algorithmen für Graphen untersucht. Graphen sind Daten, wo einzelne Punkte Verbindungen aufweisen - zum Beispiel bei einem Sozialen Netzwerk, in dem Personen die Punkte darstellen, und eine Verbindung existiert, wenn sie befreundet sind. Wenn ich die Verbindung zwischen zwei Personen entferne, ändere ich vielleicht eine gravierende Information im Graphen. In unserer Forschung konnten wir zeigen, dass die “Anfälligkeit” von KI-Algorithmen bei kleinen Änderungen andere Entscheidungen zu treffen, auch ein erwünschtes Verhalten sein kann - eben dann, wenn sich der Sinngehalt der Daten durch die “kleine” Änderung verändert hat. Hier haben wir entdeckt, dass in solchen Fällen Algorithmen oft nicht schnell genug ihre Entscheidungen an den veränderten Inhalt der Daten anpassen. Diese Entdeckung haben wir als Über-Robustheit bezeichnet - der Algorithmus ändert sich nicht, obwohl er es sollte.
Wann diese Machine Learning-Algorithmen sich in ihren Entscheidungen zu schnell oder zu langsam anpassen, konnte man vorher nur schwer charakterisieren. Wir konnten das durch eine bessere theoretische Beschreibung verbessern und dadurch beweisen, dass optimale Robustheit und Genauigkeit sich für Graphdaten nicht ausschließen. Man könnte in diese Richtung noch viel weiterforschen, um Algorithmen zu schaffen, die gleichzeitig sehr akkurat und sinnvoll robust sind.
Von unseren Forschungsergebnissen kann praktisch jede Anwendung profitieren, die Graphdaten verwendet, damit der Algorithmus nicht hinters Licht geführt werden kann. Das können Algorithmen sein, die zum Beispiel Falschinformationen im Internet klassifizieren, wenn Betrugsfälle bei Kreditkarten-Transaktionen gesucht werden - oder natürlich auch Algorithmen in Sozialen Netzwerken.
08.04.2024
Related

19.02.2025
Angela Schoellig on the BR Podcast
Our PI, Angela Schoellig, discussed the vital role of mathematics in robotics and everyday life on the Blaue Couch podcast.

14.02.2025
Reinhard Heckel on Bayerischer Rundfunk
Reinhard Heckel spoke on BR24 about OpenAI's new Munich office, highlighting the city's deeptech scene, talent, and innovation potential.

14.02.2025
Benjamin Lange on ZDF Heute Journal
Benjamin Lange was on heute journal discussing AI in universities. He highlighted that writing is key to thinking and shouldn’t be fully automated.

©greenbutterfly - stock-adobe.com
14.02.2025
Gitta Kutyniok on Supporting Companies With the EU’s AI Act
Gitta Kutyniok and her team at LMU are helping companies navigate the challenges of the EU’s AI Act, focusing on practical solutions and innovation.

06.02.2025
Improving Business Processes
Gabriel Marques Tavares, MCML Junior Member and LMU PostDoc, explores Process Mining to optimize workflows and promote data-driven decisions.