13.02.2024

Teaser image to Get to know MCML Junior Member Julian Rasch

Get to know MCML Junior Member Julian Rasch

Created during the first MCMLxDJS-Workshop

Julian Rasch is an electrical engineer and computer science PhD. He is conducting research about the interaction of humans and machines in virtual space. His current work is about how to better communicate virtual movement intentions.

This article was written by Tanja Munsch (tanja.munsch@campus.djs-online.de), from the Deutsche Journalistenschule (DJS). It was created in a workshop together with DJS. Talented journalism students met some of MCML`s junior researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. We will upload one article each Tuesday. Stay tuned for some more insights.


„In der physischen Welt verschwinden wir nicht einfach“

Der Elektroingenieur und Informatik-Doktorand Julian Rasch erforscht die Interaktion von Mensch und Maschine im virtuellen Raum. In seiner aktuellen Arbeit geht es darum, wie man virtuelle Bewegungsabsichten besser kommunizieren kann.

Das Problem, das ich erforsche, habe ich selbst erlebt. Mein Kollege und ich befanden uns in einem virtuellen Raum mit VR-Brillen. Uns ist aufgefallen, dass der physische und der virtuelle Raum nicht synchron sind. In der virtuellen Welt hat sich mein Kollege teleportiert, also ist von einem Startpunkt zu einem Ziel gesprungen. Im physischen Raum konnte ich wahrnehmen, dass er auf meiner rechten Seite stand. Virtuell habe ich ihn aber an einer ganz anderen Stelle gesehen, dann gar nicht mehr. Ich habe ihn an einem anderen Ort erwartet, als er tatsächlich war. Er hatte seine Position sehr plötzlich geändert, ohne dass ich es mitbekommen habe. Für mich war das der Startpunkt, um mir das Problem genauer anzuschauen.

Bewegungsintentionen sind im virtuellen Raum nicht klar. Das heißt, bei mehreren Spielern erkenne ich nur schwer, in welche Richtung sich jemand bewegen will. Bewegungen unterscheiden sich in der virtuellen Welt von denen in der Realität. In der physischen Welt verschwinden wir nicht einfach und tauchen woanders wieder auf. Außerdem kommunizieren unsere Körper mit kleinen Bewegungen, wohin wir uns bewegen wollen. Diese Intentionen können andere Menschen lesen und verstehen. In der virtuellen Welt geht das verloren, weil die Avatare meistens nicht so realistisch sind. Die kleinen Bewegungen unserer Körper können sie noch nicht imitieren. Also muss man Bewegungsabsichten anders darstellen.

Für mögliche Lösungen haben wir zuerst geschaut, was bei der Kommunikation zwischen einer Person und dem Computersystem passiert. Wie vermittle ich dem System, wo ich mich hinbewegen möchte? Die Standard-Technik für die Fortbewegung einzelner Spieler heißt in der Virtual Reality Point&Teleport. Mit einer Art Laserpointer, den man vor dem Teleportieren sieht, kann man sein Ziel festlegen. Für einzelne Spieler ist diese Fortbewegungsmethode gut geeignet, da sie schnell und effizient ist. Für mehrere Spieler hat sie aber Schwächen, weil man sich zum Beispiel wegen plötzlicher Sprünge leicht verliert. Den Laserpointer und damit die Bewegungsrichtung des Mitspielers kann man nämlich nicht sehen.

Wir haben uns gefragt, warum mein Mitspieler nicht zumindest Teile der Informationen sehen kann, die ich sehe, wenn ich mich bewege. Das ist zum einem der Zielpunkt, an dem ich wieder auftauchen werde. Zum anderen ist es die Richtung, in die ich mich bewege. Unsere Idee war es, diese Informationen teilweise oder ganz mit anderen Nutzern zu teilen. Damit sollte es verständlicher werden, wo ich mich hinbewegen werde. Um das zu untersuchen, haben wir in einer Studie verschiedene Szenarien mit den Probanden durchgespielt.

Wir haben die Teilnehmenden in ein virtuelles Labyrinth geschickt und ihnen entweder die Rolle des Anführers oder des Mitläufers zugewiesen. Ihre Aufgabe war es, sich gemeinsam auf die andere Seite des Labyrinths zu bewegen. Um ihre Bewegungsintention zu kommunizieren, gab es verschiedene Möglichkeiten. Die Teilnehmenden konnten entweder die Richtung, das Ziel oder beides sehen. Außerdem gab es die Möglichkeit der Standardteleportation, bei der der Mitspieler die Bewegungsintention nicht vorhersehen kann. Diese Fortbewegungsmethode gibt es aktuell bei den meisten Anwendungen. Zusätzlich gab es eine Gruppenteleportation, bei der der Anführer für die gesamte Gruppe über Richtung und Ziel entscheidet. Der Mitläufer verliert dabei die Kontrolle über die eigene Bewegung. Danach befragten wir sie dazu, wie sie ihre Bewegungsfreiheit und das Gruppengefühl wahrgenommen hatten. Das Ziel oder die Richtung anzuzeigen, half den Teilnehmenden dabei, die Bewegungsintentionen ihres Mitspielers besser zu verstehen. Am meisten bevorzugten die Teilnehmenden, sowohl das Ziel als auch die Richtung zu sehen.

In einer weiteren, aktuellen Studie haben wir uns nur Bewegungsszenarien mit zwei Leuten angeschaut. Zukünftige Forschung könnte die Versuche mit zehn oder 50 Leuten durchführen. Das ist ein realeres Szenario. Da werden andere Ergebnisse rauskommen, da es mit den zusätzlichen Visualisierungen schnell unübersichtlich wird. Es gibt bereits Social VR Plattformen wie VRChat, wo User gemeinsam in einem virtuellen Raum miteinander agieren können. Da sehen wir den Hauptanwendungszweck. Möglich sind aber auch kommerzielle Anwendungen. Ein Beispiel dafür sind Trainingsszenarien. Viele Firmen stellen für die Mitarbeiterqualifizierung auf VR um, weil es günstiger ist und viele Szenarien geprobt werden können. Ob unsere Ansätze hier eingesetzt werden, hängt jedoch stark davon ab, wie realistisch die Trainingsszenarien sein sollen. In der physischen Welt gibt es die Visualisierung von Bewegungsabsichten natürlich nicht.

Ich komme eigentlich aus der Elektro- und Informationstechnik. Während meines Masters habe ich mich dann zunehmend für die Interaktion von Mensch und Computersystemen interessiert. In meiner Masterarbeit habe ich untersucht wie die Wahrnehmung von Berührungen in der physischen Welt durch das, was Personen in der VR sehen, beeinflusst werden kann. Das war mein Einstieg in die virtuelle Welt. Zuhause habe ich aber keine VR-Brille.

Julian Rasch ist Elektroingenieur und Doktorand an der Ludwig-Maximilians-Universität in München. Er forscht in der Arbeitsgruppe “Human-Centered Ubiquitous Media” insbesondere zu den Themen Extended Reality und der Interaktion von Mensch und Maschine. In seinem aktuellen Paper geht es um die Darstellung von Bewegungsintentionen im virtuellen Raum.

13.02.2024


Related

Link to Causal AI in the field of diagnosis and therapy

22.04.2024

Causal AI in the field of diagnosis and therapy

LMU Newsroom article about the research of our PI Stefan Feuerriegel in the field of AI in diagnosis and therapy


Link to Get to know MCML Junior Member Lukas Gosch

08.04.2024

Get to know MCML Junior Member Lukas Gosch

Article by Jonas Grimm (DJS) about MCML Junior Member Lukas Gosch who conducts research on how quickly - or slowly - AI algorithms react to changes.


Link to Get to know MCML Junior Member Maximiliane Windl

02.04.2024

Get to know MCML Junior Member Maximiliane Windl

Article by Lennart Glaser (DJS) about MCML Junior Member Maximiliane Windl, who Maximiliane Windl researches data privacy in ubiquitous computing systems.


Link to Get to know MCML Junior Member Leon Hetzel

26.03.2024

Get to know MCML Junior Member Leon Hetzel

Article by Leonie Fischer (DJS) about MCML Junior Member Leon Hetzel, who developed an algorithm to significantly increase the efficiency of drug production


Link to Get to know MCML Junior Member Lisa Wimmer

18.03.2024

Get to know MCML Junior Member Lisa Wimmer

Article by Celine Schuster (DJS) about MCML Junior Member Lisa Wimmer, who improves model predictions by supplementing them with a reliable statement about their …