13.02.2024
©MCML & J. Rasch - LMU
Get to know MCML Junior Member Julian Rasch
Created during the first MCMLxDJS-Workshop
Julian Rasch is an electrical engineer and computer science PhD. He is conducting research about the interaction of humans and machines in virtual space. His current work is about how to better communicate virtual movement intentions.
This article was written by Tanja Munsch (tanja.munsch@campus.djs-online.de), from the Deutsche Journalistenschule (DJS). It was created in a workshop together with DJS. Talented journalism students met some of MCML`s junior researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. We will upload one article each Tuesday. Stay tuned for some more insights.
„In der physischen Welt verschwinden wir nicht einfach“
Der Elektroingenieur und Informatik-Doktorand Julian Rasch erforscht die Interaktion von Mensch und Maschine im virtuellen Raum. In seiner aktuellen Arbeit geht es darum, wie man virtuelle Bewegungsabsichten besser kommunizieren kann.
Das Problem, das ich erforsche, habe ich selbst erlebt. Mein Kollege und ich befanden uns in einem virtuellen Raum mit VR-Brillen. Uns ist aufgefallen, dass der physische und der virtuelle Raum nicht synchron sind. In der virtuellen Welt hat sich mein Kollege teleportiert, also ist von einem Startpunkt zu einem Ziel gesprungen. Im physischen Raum konnte ich wahrnehmen, dass er auf meiner rechten Seite stand. Virtuell habe ich ihn aber an einer ganz anderen Stelle gesehen, dann gar nicht mehr. Ich habe ihn an einem anderen Ort erwartet, als er tatsächlich war. Er hatte seine Position sehr plötzlich geändert, ohne dass ich es mitbekommen habe. Für mich war das der Startpunkt, um mir das Problem genauer anzuschauen.
Bewegungsintentionen sind im virtuellen Raum nicht klar. Das heißt, bei mehreren Spielern erkenne ich nur schwer, in welche Richtung sich jemand bewegen will. Bewegungen unterscheiden sich in der virtuellen Welt von denen in der Realität. In der physischen Welt verschwinden wir nicht einfach und tauchen woanders wieder auf. Außerdem kommunizieren unsere Körper mit kleinen Bewegungen, wohin wir uns bewegen wollen. Diese Intentionen können andere Menschen lesen und verstehen. In der virtuellen Welt geht das verloren, weil die Avatare meistens nicht so realistisch sind. Die kleinen Bewegungen unserer Körper können sie noch nicht imitieren. Also muss man Bewegungsabsichten anders darstellen.
Für mögliche Lösungen haben wir zuerst geschaut, was bei der Kommunikation zwischen einer Person und dem Computersystem passiert. Wie vermittle ich dem System, wo ich mich hinbewegen möchte? Die Standard-Technik für die Fortbewegung einzelner Spieler heißt in der Virtual Reality Point&Teleport. Mit einer Art Laserpointer, den man vor dem Teleportieren sieht, kann man sein Ziel festlegen. Für einzelne Spieler ist diese Fortbewegungsmethode gut geeignet, da sie schnell und effizient ist. Für mehrere Spieler hat sie aber Schwächen, weil man sich zum Beispiel wegen plötzlicher Sprünge leicht verliert. Den Laserpointer und damit die Bewegungsrichtung des Mitspielers kann man nämlich nicht sehen.
Wir haben uns gefragt, warum mein Mitspieler nicht zumindest Teile der Informationen sehen kann, die ich sehe, wenn ich mich bewege. Das ist zum einem der Zielpunkt, an dem ich wieder auftauchen werde. Zum anderen ist es die Richtung, in die ich mich bewege. Unsere Idee war es, diese Informationen teilweise oder ganz mit anderen Nutzern zu teilen. Damit sollte es verständlicher werden, wo ich mich hinbewegen werde. Um das zu untersuchen, haben wir in einer Studie verschiedene Szenarien mit den Probanden durchgespielt.
Wir haben die Teilnehmenden in ein virtuelles Labyrinth geschickt und ihnen entweder die Rolle des Anführers oder des Mitläufers zugewiesen. Ihre Aufgabe war es, sich gemeinsam auf die andere Seite des Labyrinths zu bewegen. Um ihre Bewegungsintention zu kommunizieren, gab es verschiedene Möglichkeiten. Die Teilnehmenden konnten entweder die Richtung, das Ziel oder beides sehen. Außerdem gab es die Möglichkeit der Standardteleportation, bei der der Mitspieler die Bewegungsintention nicht vorhersehen kann. Diese Fortbewegungsmethode gibt es aktuell bei den meisten Anwendungen. Zusätzlich gab es eine Gruppenteleportation, bei der der Anführer für die gesamte Gruppe über Richtung und Ziel entscheidet. Der Mitläufer verliert dabei die Kontrolle über die eigene Bewegung. Danach befragten wir sie dazu, wie sie ihre Bewegungsfreiheit und das Gruppengefühl wahrgenommen hatten. Das Ziel oder die Richtung anzuzeigen, half den Teilnehmenden dabei, die Bewegungsintentionen ihres Mitspielers besser zu verstehen. Am meisten bevorzugten die Teilnehmenden, sowohl das Ziel als auch die Richtung zu sehen.
In einer weiteren, aktuellen Studie haben wir uns nur Bewegungsszenarien mit zwei Leuten angeschaut. Zukünftige Forschung könnte die Versuche mit zehn oder 50 Leuten durchführen. Das ist ein realeres Szenario. Da werden andere Ergebnisse rauskommen, da es mit den zusätzlichen Visualisierungen schnell unübersichtlich wird. Es gibt bereits Social VR Plattformen wie VRChat, wo User gemeinsam in einem virtuellen Raum miteinander agieren können. Da sehen wir den Hauptanwendungszweck. Möglich sind aber auch kommerzielle Anwendungen. Ein Beispiel dafür sind Trainingsszenarien. Viele Firmen stellen für die Mitarbeiterqualifizierung auf VR um, weil es günstiger ist und viele Szenarien geprobt werden können. Ob unsere Ansätze hier eingesetzt werden, hängt jedoch stark davon ab, wie realistisch die Trainingsszenarien sein sollen. In der physischen Welt gibt es die Visualisierung von Bewegungsabsichten natürlich nicht.
Ich komme eigentlich aus der Elektro- und Informationstechnik. Während meines Masters habe ich mich dann zunehmend für die Interaktion von Mensch und Computersystemen interessiert. In meiner Masterarbeit habe ich untersucht wie die Wahrnehmung von Berührungen in der physischen Welt durch das, was Personen in der VR sehen, beeinflusst werden kann. Das war mein Einstieg in die virtuelle Welt. Zuhause habe ich aber keine VR-Brille.
Julian Rasch ist Elektroingenieur und Doktorand an der Ludwig-Maximilians-Universität in München. Er forscht in der Arbeitsgruppe “Human-Centered Ubiquitous Media” insbesondere zu den Themen Extended Reality und der Interaktion von Mensch und Maschine. In seinem aktuellen Paper geht es um die Darstellung von Bewegungsintentionen im virtuellen Raum.
13.02.2024
Related
©LMU
18.11.2024
Several MCML PIs receive BMBF funding
LMU Munich, in collaboration with MCML and Prof. Stefan Feuerriegel, is launching projects to advance robotics and AI capabilities.
12.11.2024
Exploring the Impact of AI in Medicine
MCML Junior Member Anna Reithmeir’s doctoral research at TUM focuses on aligning multi-temporal or multimodal images to track anatomical changes like tumor growth.
©MaLGa - UniGe
08.11.2024
MCML PI Gitta Kutyniok featured on Plattform Lernende Systeme
MCML PI Gitta Kutyniok's profile on Plattform Lernende Systeme highlights her work on the mathematical foundations of AI.
©ZDF
17.10.2024
Terra X: Talk on AI
Checkout our PIs Björn Ommer and Björn Schuller in the Terra X talk on AI.
16.10.2024
Nobel Prize in Physics 2024: Harald Lesch reacts! (Björn too...and Björn too)
Checkout our PIs Björn Ommer and Björn Schuller in the Terra X short.