18.03.2024

Teaser image to Get to know MCML Junior Member Lisa Wimmer

Get to Know MCML Junior Member Lisa Wimmer

Created During the First MCMLxDJS-Workshop

MCML Junior Member Lisa Wimmer researches the practicability of model predictions. By supplementing them with a reliable statement about their statistical certainty or uncertainty, she aims for improving the underlying models.

This article was written by Celine Schuster from the Deutsche Journalistenschule (DJS). It was created in a workshop together with DJS. Talented journalism students met some of MCML`s junior researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. We will upload one article each Tuesday. Stay tuned for some more insights.


Sicherheit im Verkehr durch Sicherheit in den Zahlen

Die Statistikerin Lisa Wimmer beschäftigt sich im Bereich Maschinelles Lernen mit Modellvorhersagen und wie man diese nützlicher machen kann. Dafür ergänzt sie diese mit einer verlässlichen Aussage über deren statistische Sicherheit oder Unsicherheit.

Ein Computer auf vier Rädern mit viel Software: Selbstfahrende Autos bedienen sich Künstlicher Intelligenz, um beispielsweise Bewegungen von außen erkennen und rechtzeitig anhalten zu können. Dafür braucht die Software ein mathematisches Modell, das Vorhersagen treffen kann. Diese stimmen nicht immer, sie sind also mit Unsicherheit behaftet. Das Ziel ist eine möglichst verlässliche Aussage des Autos darüber, was eine Gefahr darstellt und was nicht. Denn wäre die Software übervorsichtig, würde man nie vom Fleck kommen. Gleichzeitig soll das Auto bei einem Kind abbremsen. Die Unsicherheit der Vorhersage führt schließlich zu der Entscheidung, ob das Auto bremst oder nicht. Daran forsche ich.

Unsicherheitsaussagen bekomme ich von der Posteriori-Verteilung. Das ist eine mathematische Funktion, die jeder möglichen Lösung ihre Auftrittswahrscheinlichkeit zuordnet. Diese Funktion kann man auch graphisch darstellen: In 2D sieht sie wie eine Kurve und in 3D wie eine Oberfläche aus. Wenn sich die Posteriori-Verteilung breit über den gesamten Raum erstreckt und viele kleine Hügel bildet, ist die Unsicherheit groß – viele Lösungen erscheinen wahrscheinlich. Wenn sie nur in einem kleinen Bereich einen schmalen, spitzen Hügel hat, ist die Unsicherheit klein – wenige Lösungen erscheinen wahrscheinlich.

Das Problem ist, dass ich die Posteriori-Verteilung normalerweise nicht ausrechnen und deshalb nur schwer erfassen kann. Auch ihre graphische Erscheinungsform kann sehr komplex werden und Millionen von Dimensionen mit Abermillionen von Hügeln und Tälern umfassen.

Trotzdem versuche ich als Machine Learning Data Scientist, Vorhersagen zu treffen. Das mache ich, indem ich einen funktionalen mathematischen Zusammenhang zwischen Einflussvariablen und einer Zielvariable, für die ich mich interessiere, finde. Diesen kann ich quantifizieren, also beziffern. Zum Beispiel: Wie hoch ist das erwartete Sterbealter für eine Person, die an ihrem Wohnort einer bestimmten Schadstoffbelastung ausgesetzt ist? Die Vorhersage ist hier das Sterbealter. Nehmen wir mal an, das Modell würde ein Sterbealter von 65 Jahren schätzen. Dazu möchte ich mit Hilfe der Posteriori-Verteilung auch eine Unsicherheitsaussage machen. Diese Unsicherheitsaussage wäre das Intervall, in dem sich die berechnete Sterbewahrscheinlichkeit bewegt. Dabei stellt man sich das Intervall als Bereich um den geschätzten Wert vor, beispielsweise plus/minus drei Jahre. Wenn das Intervall plus/minus zwei Jahre umfasst, dann liegt das tatsächliche Sterbealter laut dem Modell in einem engeren Wertebereich um die 65. Das bedeutet weniger Unsicherheit. Ich kann also relativ sicher sagen, dass die Person in einem Alter zwischen 63 und 67 Jahren stirbt, wenn sie an ihrem Wohnort einer bestimmten Schadstoffbelastung ausgesetzt ist.

Der Hersteller der selbstfahrenden Autos bekommt das ganze Modell, das Forschende wie ich dafür auf Basis großer Datenmengen entworfen haben. Es sieht ähnlich aus wie das menschliche Gehirn. Da kann er eine Information reinstecken. Diese wandert durch das Netz aus Neuronen und wird mit Zahlen verarbeitet, die sagen, wie diese Neuronen miteinander verbunden sind. Am Ende kommt dann eine Vorhersage mit Unsicherheitsangabe heraus.

Damit kann der Hersteller eine Software entwickeln. Diese bestimmt, wie das autonome Auto handelt. Mit der Software kann das autonome Auto besser einschätzen, ob es sich bei der Bewegung von außen um einen Menschen oder ein Blatt im Wind handelt. Daraufhin kann es entscheiden, ob es bremst oder nicht.

Lisa Wimmer promoviert am Lehrstuhl für Statistical Learning and Data Science der Ludwig-Maximilians-Universität München. Dort forscht sie im Bereich Quantifizierung von Unsicherheit bei maschinellem Lernen.

18.03.2024


Subscribe to RSS News feed

Related

Link to  AI-Powered Cortical Mapping for Neurodegenerative Disease Diagnoses - with Christian Wachinger

16.07.2025

AI-Powered Cortical Mapping for Neurodegenerative Disease Diagnoses - With Christian Wachinger

Research film with Christian Wachinger shows how AI maps the brain’s cortex to support diagnoses of neurodegenerative diseases.

Link to Beyond Prediction: How Causal AI Enables Better Decision-Making - With Stefan Feuerriegel

10.07.2025

Beyond Prediction: How Causal AI Enables Better Decision-Making - With Stefan Feuerriegel

Stefan Feuerriegel in our new film shows how Causal AI helps pick better actions by predicting outcomes for each possible decision.

Link to Capturing Complexity in Surgical Environments

09.07.2025

Capturing Complexity in Surgical Environments

Published at CVPR 2025, MM-OR is a multimodal dataset of robotic knee surgeries, capturing OR dynamics via video, audio, tracking, and robot logs.

Link to How Neural Networks Are Changing Medical Imaging – with Reinhard Heckel

06.07.2025

How Neural Networks Are Changing Medical Imaging – With Reinhard Heckel

In the new research film, Reinhard Heckel shows how AI enables sharper heart imaging from limited or noisy data.

Link to What Words Reveal: Analyzing Language in the Trump–Harris 2024 Debate

26.06.2025

What Words Reveal: Analyzing Language in the Trump–Harris 2024 Debate

Philipp Wicke's study analyzes Sept 10, 2024 Trump-Harris debate, exploring how party lines shape differing linguistic strategies to sway voters.