18.03.2024

Teaser image to Get to know MCML Junior Member Lisa Wimmer

Get to Know MCML Junior Member Lisa Wimmer

Created During the First MCMLxDJS-Workshop

MCML Junior Member Lisa Wimmer researches the practicability of model predictions. By supplementing them with a reliable statement about their statistical certainty or uncertainty, she aims for improving the underlying models.

This article was written by Celine Schuster from the Deutsche Journalistenschule (DJS). It was created in a workshop together with DJS. Talented journalism students met some of MCML`s junior researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. We will upload one article each Tuesday. Stay tuned for some more insights.


Sicherheit im Verkehr durch Sicherheit in den Zahlen

Die Statistikerin Lisa Wimmer beschäftigt sich im Bereich Maschinelles Lernen mit Modellvorhersagen und wie man diese nützlicher machen kann. Dafür ergänzt sie diese mit einer verlässlichen Aussage über deren statistische Sicherheit oder Unsicherheit.

Ein Computer auf vier Rädern mit viel Software: Selbstfahrende Autos bedienen sich Künstlicher Intelligenz, um beispielsweise Bewegungen von außen erkennen und rechtzeitig anhalten zu können. Dafür braucht die Software ein mathematisches Modell, das Vorhersagen treffen kann. Diese stimmen nicht immer, sie sind also mit Unsicherheit behaftet. Das Ziel ist eine möglichst verlässliche Aussage des Autos darüber, was eine Gefahr darstellt und was nicht. Denn wäre die Software übervorsichtig, würde man nie vom Fleck kommen. Gleichzeitig soll das Auto bei einem Kind abbremsen. Die Unsicherheit der Vorhersage führt schließlich zu der Entscheidung, ob das Auto bremst oder nicht. Daran forsche ich.

Unsicherheitsaussagen bekomme ich von der Posteriori-Verteilung. Das ist eine mathematische Funktion, die jeder möglichen Lösung ihre Auftrittswahrscheinlichkeit zuordnet. Diese Funktion kann man auch graphisch darstellen: In 2D sieht sie wie eine Kurve und in 3D wie eine Oberfläche aus. Wenn sich die Posteriori-Verteilung breit über den gesamten Raum erstreckt und viele kleine Hügel bildet, ist die Unsicherheit groß – viele Lösungen erscheinen wahrscheinlich. Wenn sie nur in einem kleinen Bereich einen schmalen, spitzen Hügel hat, ist die Unsicherheit klein – wenige Lösungen erscheinen wahrscheinlich.

Das Problem ist, dass ich die Posteriori-Verteilung normalerweise nicht ausrechnen und deshalb nur schwer erfassen kann. Auch ihre graphische Erscheinungsform kann sehr komplex werden und Millionen von Dimensionen mit Abermillionen von Hügeln und Tälern umfassen.

Trotzdem versuche ich als Machine Learning Data Scientist, Vorhersagen zu treffen. Das mache ich, indem ich einen funktionalen mathematischen Zusammenhang zwischen Einflussvariablen und einer Zielvariable, für die ich mich interessiere, finde. Diesen kann ich quantifizieren, also beziffern. Zum Beispiel: Wie hoch ist das erwartete Sterbealter für eine Person, die an ihrem Wohnort einer bestimmten Schadstoffbelastung ausgesetzt ist? Die Vorhersage ist hier das Sterbealter. Nehmen wir mal an, das Modell würde ein Sterbealter von 65 Jahren schätzen. Dazu möchte ich mit Hilfe der Posteriori-Verteilung auch eine Unsicherheitsaussage machen. Diese Unsicherheitsaussage wäre das Intervall, in dem sich die berechnete Sterbewahrscheinlichkeit bewegt. Dabei stellt man sich das Intervall als Bereich um den geschätzten Wert vor, beispielsweise plus/minus drei Jahre. Wenn das Intervall plus/minus zwei Jahre umfasst, dann liegt das tatsächliche Sterbealter laut dem Modell in einem engeren Wertebereich um die 65. Das bedeutet weniger Unsicherheit. Ich kann also relativ sicher sagen, dass die Person in einem Alter zwischen 63 und 67 Jahren stirbt, wenn sie an ihrem Wohnort einer bestimmten Schadstoffbelastung ausgesetzt ist.

Der Hersteller der selbstfahrenden Autos bekommt das ganze Modell, das Forschende wie ich dafür auf Basis großer Datenmengen entworfen haben. Es sieht ähnlich aus wie das menschliche Gehirn. Da kann er eine Information reinstecken. Diese wandert durch das Netz aus Neuronen und wird mit Zahlen verarbeitet, die sagen, wie diese Neuronen miteinander verbunden sind. Am Ende kommt dann eine Vorhersage mit Unsicherheitsangabe heraus.

Damit kann der Hersteller eine Software entwickeln. Diese bestimmt, wie das autonome Auto handelt. Mit der Software kann das autonome Auto besser einschätzen, ob es sich bei der Bewegung von außen um einen Menschen oder ein Blatt im Wind handelt. Daraufhin kann es entscheiden, ob es bremst oder nicht.

Lisa Wimmer promoviert am Lehrstuhl für Statistical Learning and Data Science der Ludwig-Maximilians-Universität München. Dort forscht sie im Bereich Quantifizierung von Unsicherheit bei maschinellem Lernen.

18.03.2024


Subscribe to RSS News feed

Related

Link to Angela Schoellig on the BR Podcast

19.02.2025

Angela Schoellig on the BR Podcast

Our PI, Angela Schoellig, discussed the vital role of mathematics in robotics and everyday life on the Blaue Couch podcast.


Link to Reinhard Heckel on Bayerischer Rundfunk

14.02.2025

Reinhard Heckel on Bayerischer Rundfunk

Reinhard Heckel spoke on BR24 about OpenAI's new Munich office, highlighting the city's deeptech scene, talent, and innovation potential.


Link to Benjamin Lange on ZDF heute journal

14.02.2025

Benjamin Lange on ZDF Heute Journal

Benjamin Lange was on heute journal discussing AI in universities. He highlighted that writing is key to thinking and shouldn’t be fully automated.


Link to Gitta Kutyniok on Supporting Companies with the EU’s AI Act

14.02.2025

Gitta Kutyniok on Supporting Companies With the EU’s AI Act

Gitta Kutyniok and her team at LMU are helping companies navigate the challenges of the EU’s AI Act, focusing on practical solutions and innovation.


Link to Improving Business Processes

06.02.2025

Improving Business Processes

Gabriel Marques Tavares, MCML Junior Member and LMU PostDoc, explores Process Mining to optimize workflows and promote data-driven decisions.