13.02.2024

Teaser image to Get to know MCML Junior Member Julian Rasch

Get to know MCML Junior Member Julian Rasch

Created during the first MCMLxDJS-Workshop

Julian Rasch is an electrical engineer and computer science PhD. He is conducting research about the interaction of humans and machines in virtual space. His current work is about how to better communicate virtual movement intentions.

This article was written by Tanja Munsch (tanja.munsch@campus.djs-online.de), from the Deutsche Journalistenschule (DJS). It was created in a workshop together with DJS. Talented journalism students met some of MCML`s junior researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. We will upload one article each Tuesday. Stay tuned for some more insights.


„In der physischen Welt verschwinden wir nicht einfach“

Der Elektroingenieur und Informatik-Doktorand Julian Rasch erforscht die Interaktion von Mensch und Maschine im virtuellen Raum. In seiner aktuellen Arbeit geht es darum, wie man virtuelle Bewegungsabsichten besser kommunizieren kann.

Das Problem, das ich erforsche, habe ich selbst erlebt. Mein Kollege und ich befanden uns in einem virtuellen Raum mit VR-Brillen. Uns ist aufgefallen, dass der physische und der virtuelle Raum nicht synchron sind. In der virtuellen Welt hat sich mein Kollege teleportiert, also ist von einem Startpunkt zu einem Ziel gesprungen. Im physischen Raum konnte ich wahrnehmen, dass er auf meiner rechten Seite stand. Virtuell habe ich ihn aber an einer ganz anderen Stelle gesehen, dann gar nicht mehr. Ich habe ihn an einem anderen Ort erwartet, als er tatsächlich war. Er hatte seine Position sehr plötzlich geändert, ohne dass ich es mitbekommen habe. Für mich war das der Startpunkt, um mir das Problem genauer anzuschauen.

Bewegungsintentionen sind im virtuellen Raum nicht klar. Das heißt, bei mehreren Spielern erkenne ich nur schwer, in welche Richtung sich jemand bewegen will. Bewegungen unterscheiden sich in der virtuellen Welt von denen in der Realität. In der physischen Welt verschwinden wir nicht einfach und tauchen woanders wieder auf. Außerdem kommunizieren unsere Körper mit kleinen Bewegungen, wohin wir uns bewegen wollen. Diese Intentionen können andere Menschen lesen und verstehen. In der virtuellen Welt geht das verloren, weil die Avatare meistens nicht so realistisch sind. Die kleinen Bewegungen unserer Körper können sie noch nicht imitieren. Also muss man Bewegungsabsichten anders darstellen.

Für mögliche Lösungen haben wir zuerst geschaut, was bei der Kommunikation zwischen einer Person und dem Computersystem passiert. Wie vermittle ich dem System, wo ich mich hinbewegen möchte? Die Standard-Technik für die Fortbewegung einzelner Spieler heißt in der Virtual Reality Point&Teleport. Mit einer Art Laserpointer, den man vor dem Teleportieren sieht, kann man sein Ziel festlegen. Für einzelne Spieler ist diese Fortbewegungsmethode gut geeignet, da sie schnell und effizient ist. Für mehrere Spieler hat sie aber Schwächen, weil man sich zum Beispiel wegen plötzlicher Sprünge leicht verliert. Den Laserpointer und damit die Bewegungsrichtung des Mitspielers kann man nämlich nicht sehen.

Wir haben uns gefragt, warum mein Mitspieler nicht zumindest Teile der Informationen sehen kann, die ich sehe, wenn ich mich bewege. Das ist zum einem der Zielpunkt, an dem ich wieder auftauchen werde. Zum anderen ist es die Richtung, in die ich mich bewege. Unsere Idee war es, diese Informationen teilweise oder ganz mit anderen Nutzern zu teilen. Damit sollte es verständlicher werden, wo ich mich hinbewegen werde. Um das zu untersuchen, haben wir in einer Studie verschiedene Szenarien mit den Probanden durchgespielt.

Wir haben die Teilnehmenden in ein virtuelles Labyrinth geschickt und ihnen entweder die Rolle des Anführers oder des Mitläufers zugewiesen. Ihre Aufgabe war es, sich gemeinsam auf die andere Seite des Labyrinths zu bewegen. Um ihre Bewegungsintention zu kommunizieren, gab es verschiedene Möglichkeiten. Die Teilnehmenden konnten entweder die Richtung, das Ziel oder beides sehen. Außerdem gab es die Möglichkeit der Standardteleportation, bei der der Mitspieler die Bewegungsintention nicht vorhersehen kann. Diese Fortbewegungsmethode gibt es aktuell bei den meisten Anwendungen. Zusätzlich gab es eine Gruppenteleportation, bei der der Anführer für die gesamte Gruppe über Richtung und Ziel entscheidet. Der Mitläufer verliert dabei die Kontrolle über die eigene Bewegung. Danach befragten wir sie dazu, wie sie ihre Bewegungsfreiheit und das Gruppengefühl wahrgenommen hatten. Das Ziel oder die Richtung anzuzeigen, half den Teilnehmenden dabei, die Bewegungsintentionen ihres Mitspielers besser zu verstehen. Am meisten bevorzugten die Teilnehmenden, sowohl das Ziel als auch die Richtung zu sehen.

In einer weiteren, aktuellen Studie haben wir uns nur Bewegungsszenarien mit zwei Leuten angeschaut. Zukünftige Forschung könnte die Versuche mit zehn oder 50 Leuten durchführen. Das ist ein realeres Szenario. Da werden andere Ergebnisse rauskommen, da es mit den zusätzlichen Visualisierungen schnell unübersichtlich wird. Es gibt bereits Social VR Plattformen wie VRChat, wo User gemeinsam in einem virtuellen Raum miteinander agieren können. Da sehen wir den Hauptanwendungszweck. Möglich sind aber auch kommerzielle Anwendungen. Ein Beispiel dafür sind Trainingsszenarien. Viele Firmen stellen für die Mitarbeiterqualifizierung auf VR um, weil es günstiger ist und viele Szenarien geprobt werden können. Ob unsere Ansätze hier eingesetzt werden, hängt jedoch stark davon ab, wie realistisch die Trainingsszenarien sein sollen. In der physischen Welt gibt es die Visualisierung von Bewegungsabsichten natürlich nicht.

Ich komme eigentlich aus der Elektro- und Informationstechnik. Während meines Masters habe ich mich dann zunehmend für die Interaktion von Mensch und Computersystemen interessiert. In meiner Masterarbeit habe ich untersucht wie die Wahrnehmung von Berührungen in der physischen Welt durch das, was Personen in der VR sehen, beeinflusst werden kann. Das war mein Einstieg in die virtuelle Welt. Zuhause habe ich aber keine VR-Brille.

Julian Rasch ist Elektroingenieur und Doktorand an der Ludwig-Maximilians-Universität in München. Er forscht in der Arbeitsgruppe “Human-Centered Ubiquitous Media” insbesondere zu den Themen Extended Reality und der Interaktion von Mensch und Maschine. In seinem aktuellen Paper geht es um die Darstellung von Bewegungsintentionen im virtuellen Raum.

13.02.2024


Related

Link to Our Director Daniel Rückert about the suitability of chatbots in hospitals

25.07.2024

Our Director Daniel Rückert about the suitability of chatbots in hospitals

This short article focuses on the current work of MCML Director Daniel Rückert and his team, who studied the suitability of AI chatbots in hospitals.


Link to MCML and appliedAI strategic partnership

16.07.2024

MCML and appliedAI strategic partnership

We proudly announce that the Munich Center for Machine Learning and the appliedAI Initiative are joining forces to make the use of artificial intelligence in companies …


Link to Our PI Sven Nyholm about AI in government services

10.07.2024

Our PI Sven Nyholm about AI in government services

Is AI a potentially effective way to improve government services? To answer this question, this BBC article considers the critical views of our PI, Sven Nyholm.


Link to How the Meta Algorithm Influences Election Advertising

27.06.2024

How the Meta Algorithm Influences Election Advertising

Our PI Stefan Feuerriegel and his team conducted a large-scale study on the topic of election advertising.


Link to MCML Director Daniel Cremers about his new method to create precise 3D reconstructions

21.06.2024

MCML Director Daniel Cremers about his new method to create precise 3D reconstructions

This TUM News article covers the latest research results of our Director Daniel Cremers. He and his team have succeeded in creating precise 3D reconstructions using only …