13.02.2024
©MCML & J. Rasch - LMU
Get to know MCML Junior Member Julian Rasch
Created during the first MCMLxDJS-Workshop
Julian Rasch is an electrical engineer and computer science PhD. He is conducting research about the interaction of humans and machines in virtual space. His current work is about how to better communicate virtual movement intentions.
This article was written by Tanja Munsch (tanja.munsch@campus.djs-online.de), from the Deutsche Journalistenschule (DJS). It was created in a workshop together with DJS. Talented journalism students met some of MCML`s junior researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. We will upload one article each Tuesday. Stay tuned for some more insights.
„In der physischen Welt verschwinden wir nicht einfach“
Der Elektroingenieur und Informatik-Doktorand Julian Rasch erforscht die Interaktion von Mensch und Maschine im virtuellen Raum. In seiner aktuellen Arbeit geht es darum, wie man virtuelle Bewegungsabsichten besser kommunizieren kann.
Das Problem, das ich erforsche, habe ich selbst erlebt. Mein Kollege und ich befanden uns in einem virtuellen Raum mit VR-Brillen. Uns ist aufgefallen, dass der physische und der virtuelle Raum nicht synchron sind. In der virtuellen Welt hat sich mein Kollege teleportiert, also ist von einem Startpunkt zu einem Ziel gesprungen. Im physischen Raum konnte ich wahrnehmen, dass er auf meiner rechten Seite stand. Virtuell habe ich ihn aber an einer ganz anderen Stelle gesehen, dann gar nicht mehr. Ich habe ihn an einem anderen Ort erwartet, als er tatsächlich war. Er hatte seine Position sehr plötzlich geändert, ohne dass ich es mitbekommen habe. Für mich war das der Startpunkt, um mir das Problem genauer anzuschauen.
Bewegungsintentionen sind im virtuellen Raum nicht klar. Das heißt, bei mehreren Spielern erkenne ich nur schwer, in welche Richtung sich jemand bewegen will. Bewegungen unterscheiden sich in der virtuellen Welt von denen in der Realität. In der physischen Welt verschwinden wir nicht einfach und tauchen woanders wieder auf. Außerdem kommunizieren unsere Körper mit kleinen Bewegungen, wohin wir uns bewegen wollen. Diese Intentionen können andere Menschen lesen und verstehen. In der virtuellen Welt geht das verloren, weil die Avatare meistens nicht so realistisch sind. Die kleinen Bewegungen unserer Körper können sie noch nicht imitieren. Also muss man Bewegungsabsichten anders darstellen.
Für mögliche Lösungen haben wir zuerst geschaut, was bei der Kommunikation zwischen einer Person und dem Computersystem passiert. Wie vermittle ich dem System, wo ich mich hinbewegen möchte? Die Standard-Technik für die Fortbewegung einzelner Spieler heißt in der Virtual Reality Point&Teleport. Mit einer Art Laserpointer, den man vor dem Teleportieren sieht, kann man sein Ziel festlegen. Für einzelne Spieler ist diese Fortbewegungsmethode gut geeignet, da sie schnell und effizient ist. Für mehrere Spieler hat sie aber Schwächen, weil man sich zum Beispiel wegen plötzlicher Sprünge leicht verliert. Den Laserpointer und damit die Bewegungsrichtung des Mitspielers kann man nämlich nicht sehen.
Wir haben uns gefragt, warum mein Mitspieler nicht zumindest Teile der Informationen sehen kann, die ich sehe, wenn ich mich bewege. Das ist zum einem der Zielpunkt, an dem ich wieder auftauchen werde. Zum anderen ist es die Richtung, in die ich mich bewege. Unsere Idee war es, diese Informationen teilweise oder ganz mit anderen Nutzern zu teilen. Damit sollte es verständlicher werden, wo ich mich hinbewegen werde. Um das zu untersuchen, haben wir in einer Studie verschiedene Szenarien mit den Probanden durchgespielt.
Wir haben die Teilnehmenden in ein virtuelles Labyrinth geschickt und ihnen entweder die Rolle des Anführers oder des Mitläufers zugewiesen. Ihre Aufgabe war es, sich gemeinsam auf die andere Seite des Labyrinths zu bewegen. Um ihre Bewegungsintention zu kommunizieren, gab es verschiedene Möglichkeiten. Die Teilnehmenden konnten entweder die Richtung, das Ziel oder beides sehen. Außerdem gab es die Möglichkeit der Standardteleportation, bei der der Mitspieler die Bewegungsintention nicht vorhersehen kann. Diese Fortbewegungsmethode gibt es aktuell bei den meisten Anwendungen. Zusätzlich gab es eine Gruppenteleportation, bei der der Anführer für die gesamte Gruppe über Richtung und Ziel entscheidet. Der Mitläufer verliert dabei die Kontrolle über die eigene Bewegung. Danach befragten wir sie dazu, wie sie ihre Bewegungsfreiheit und das Gruppengefühl wahrgenommen hatten. Das Ziel oder die Richtung anzuzeigen, half den Teilnehmenden dabei, die Bewegungsintentionen ihres Mitspielers besser zu verstehen. Am meisten bevorzugten die Teilnehmenden, sowohl das Ziel als auch die Richtung zu sehen.
In einer weiteren, aktuellen Studie haben wir uns nur Bewegungsszenarien mit zwei Leuten angeschaut. Zukünftige Forschung könnte die Versuche mit zehn oder 50 Leuten durchführen. Das ist ein realeres Szenario. Da werden andere Ergebnisse rauskommen, da es mit den zusätzlichen Visualisierungen schnell unübersichtlich wird. Es gibt bereits Social VR Plattformen wie VRChat, wo User gemeinsam in einem virtuellen Raum miteinander agieren können. Da sehen wir den Hauptanwendungszweck. Möglich sind aber auch kommerzielle Anwendungen. Ein Beispiel dafür sind Trainingsszenarien. Viele Firmen stellen für die Mitarbeiterqualifizierung auf VR um, weil es günstiger ist und viele Szenarien geprobt werden können. Ob unsere Ansätze hier eingesetzt werden, hängt jedoch stark davon ab, wie realistisch die Trainingsszenarien sein sollen. In der physischen Welt gibt es die Visualisierung von Bewegungsabsichten natürlich nicht.
Ich komme eigentlich aus der Elektro- und Informationstechnik. Während meines Masters habe ich mich dann zunehmend für die Interaktion von Mensch und Computersystemen interessiert. In meiner Masterarbeit habe ich untersucht wie die Wahrnehmung von Berührungen in der physischen Welt durch das, was Personen in der VR sehen, beeinflusst werden kann. Das war mein Einstieg in die virtuelle Welt. Zuhause habe ich aber keine VR-Brille.
Julian Rasch ist Elektroingenieur und Doktorand an der Ludwig-Maximilians-Universität in München. Er forscht in der Arbeitsgruppe “Human-Centered Ubiquitous Media” insbesondere zu den Themen Extended Reality und der Interaktion von Mensch und Maschine. In seinem aktuellen Paper geht es um die Darstellung von Bewegungsintentionen im virtuellen Raum.
13.02.2024
Related
04.12.2024
AI and Weather Predictions
Kevin Höhlein, PhD student at TUM, applies data science and machine learning to analyze meteorological data.
28.11.2024
Enhancing the integrity of social media with AI
MCML Member Dominik Bär works within the research group of Stefan Feuerriegel at the Institute of Artificial Intelligence in Management at LMU.
©Emmy_Ljs - stock.adobe.com
26.11.2024
Artificial Intelligence as a radio host: MCML PI Sven Nyholm's comment
Our PI Sven Nyholm discusses ethical concerns surrounding an AI project, highlighting issues of consent and transparency.
©Joachim-Wendler- stock.adobe.com
25.11.2024
Fabian Theis and Xiaoxiang Zhu among the world’s most cited researchers
In a new article published by TUM, two of our PIs are recognized as being among the most cited worldwide.
25.11.2024
Meet three MCML Junior Members
In the new article by Research in Bavaria, the MCML is highlighted as a crucial part of Bavaria’s AI and machine learning research.