13.02.2024

Teaser image to Get to know MCML Junior Member Julian Rasch

Get to Know MCML Junior Member Julian Rasch

Created During the First MCMLxDJS-Workshop

Julian Rasch is an electrical engineer and computer science PhD. He is conducting research about the interaction of humans and machines in virtual space. His current work is about how to better communicate virtual movement intentions.

This article was written by Tanja Munsch (tanja.munsch@campus.djs-online.de), from the Deutsche Journalistenschule (DJS). It was created in a workshop together with DJS. Talented journalism students met some of MCML`s junior researchers and got a glimpse of their work. The result: One article about the research of each junior member that took part at the workshop written by one journalism student. We will upload one article each Tuesday. Stay tuned for some more insights.


„In der physischen Welt verschwinden wir nicht einfach“

Der Elektroingenieur und Informatik-Doktorand Julian Rasch erforscht die Interaktion von Mensch und Maschine im virtuellen Raum. In seiner aktuellen Arbeit geht es darum, wie man virtuelle Bewegungsabsichten besser kommunizieren kann.

Das Problem, das ich erforsche, habe ich selbst erlebt. Mein Kollege und ich befanden uns in einem virtuellen Raum mit VR-Brillen. Uns ist aufgefallen, dass der physische und der virtuelle Raum nicht synchron sind. In der virtuellen Welt hat sich mein Kollege teleportiert, also ist von einem Startpunkt zu einem Ziel gesprungen. Im physischen Raum konnte ich wahrnehmen, dass er auf meiner rechten Seite stand. Virtuell habe ich ihn aber an einer ganz anderen Stelle gesehen, dann gar nicht mehr. Ich habe ihn an einem anderen Ort erwartet, als er tatsächlich war. Er hatte seine Position sehr plötzlich geändert, ohne dass ich es mitbekommen habe. Für mich war das der Startpunkt, um mir das Problem genauer anzuschauen.

Bewegungsintentionen sind im virtuellen Raum nicht klar. Das heißt, bei mehreren Spielern erkenne ich nur schwer, in welche Richtung sich jemand bewegen will. Bewegungen unterscheiden sich in der virtuellen Welt von denen in der Realität. In der physischen Welt verschwinden wir nicht einfach und tauchen woanders wieder auf. Außerdem kommunizieren unsere Körper mit kleinen Bewegungen, wohin wir uns bewegen wollen. Diese Intentionen können andere Menschen lesen und verstehen. In der virtuellen Welt geht das verloren, weil die Avatare meistens nicht so realistisch sind. Die kleinen Bewegungen unserer Körper können sie noch nicht imitieren. Also muss man Bewegungsabsichten anders darstellen.

Für mögliche Lösungen haben wir zuerst geschaut, was bei der Kommunikation zwischen einer Person und dem Computersystem passiert. Wie vermittle ich dem System, wo ich mich hinbewegen möchte? Die Standard-Technik für die Fortbewegung einzelner Spieler heißt in der Virtual Reality Point&Teleport. Mit einer Art Laserpointer, den man vor dem Teleportieren sieht, kann man sein Ziel festlegen. Für einzelne Spieler ist diese Fortbewegungsmethode gut geeignet, da sie schnell und effizient ist. Für mehrere Spieler hat sie aber Schwächen, weil man sich zum Beispiel wegen plötzlicher Sprünge leicht verliert. Den Laserpointer und damit die Bewegungsrichtung des Mitspielers kann man nämlich nicht sehen.

Wir haben uns gefragt, warum mein Mitspieler nicht zumindest Teile der Informationen sehen kann, die ich sehe, wenn ich mich bewege. Das ist zum einem der Zielpunkt, an dem ich wieder auftauchen werde. Zum anderen ist es die Richtung, in die ich mich bewege. Unsere Idee war es, diese Informationen teilweise oder ganz mit anderen Nutzern zu teilen. Damit sollte es verständlicher werden, wo ich mich hinbewegen werde. Um das zu untersuchen, haben wir in einer Studie verschiedene Szenarien mit den Probanden durchgespielt.

Wir haben die Teilnehmenden in ein virtuelles Labyrinth geschickt und ihnen entweder die Rolle des Anführers oder des Mitläufers zugewiesen. Ihre Aufgabe war es, sich gemeinsam auf die andere Seite des Labyrinths zu bewegen. Um ihre Bewegungsintention zu kommunizieren, gab es verschiedene Möglichkeiten. Die Teilnehmenden konnten entweder die Richtung, das Ziel oder beides sehen. Außerdem gab es die Möglichkeit der Standardteleportation, bei der der Mitspieler die Bewegungsintention nicht vorhersehen kann. Diese Fortbewegungsmethode gibt es aktuell bei den meisten Anwendungen. Zusätzlich gab es eine Gruppenteleportation, bei der der Anführer für die gesamte Gruppe über Richtung und Ziel entscheidet. Der Mitläufer verliert dabei die Kontrolle über die eigene Bewegung. Danach befragten wir sie dazu, wie sie ihre Bewegungsfreiheit und das Gruppengefühl wahrgenommen hatten. Das Ziel oder die Richtung anzuzeigen, half den Teilnehmenden dabei, die Bewegungsintentionen ihres Mitspielers besser zu verstehen. Am meisten bevorzugten die Teilnehmenden, sowohl das Ziel als auch die Richtung zu sehen.

In einer weiteren, aktuellen Studie haben wir uns nur Bewegungsszenarien mit zwei Leuten angeschaut. Zukünftige Forschung könnte die Versuche mit zehn oder 50 Leuten durchführen. Das ist ein realeres Szenario. Da werden andere Ergebnisse rauskommen, da es mit den zusätzlichen Visualisierungen schnell unübersichtlich wird. Es gibt bereits Social VR Plattformen wie VRChat, wo User gemeinsam in einem virtuellen Raum miteinander agieren können. Da sehen wir den Hauptanwendungszweck. Möglich sind aber auch kommerzielle Anwendungen. Ein Beispiel dafür sind Trainingsszenarien. Viele Firmen stellen für die Mitarbeiterqualifizierung auf VR um, weil es günstiger ist und viele Szenarien geprobt werden können. Ob unsere Ansätze hier eingesetzt werden, hängt jedoch stark davon ab, wie realistisch die Trainingsszenarien sein sollen. In der physischen Welt gibt es die Visualisierung von Bewegungsabsichten natürlich nicht.

Ich komme eigentlich aus der Elektro- und Informationstechnik. Während meines Masters habe ich mich dann zunehmend für die Interaktion von Mensch und Computersystemen interessiert. In meiner Masterarbeit habe ich untersucht wie die Wahrnehmung von Berührungen in der physischen Welt durch das, was Personen in der VR sehen, beeinflusst werden kann. Das war mein Einstieg in die virtuelle Welt. Zuhause habe ich aber keine VR-Brille.

Julian Rasch ist Elektroingenieur und Doktorand an der Ludwig-Maximilians-Universität in München. Er forscht in der Arbeitsgruppe “Human-Centered Ubiquitous Media” insbesondere zu den Themen Extended Reality und der Interaktion von Mensch und Maschine. In seinem aktuellen Paper geht es um die Darstellung von Bewegungsintentionen im virtuellen Raum.

13.02.2024


Subscribe to RSS News feed

Related

Link to Daniel Rückert Advances Stroke Diagnosis with AI Innovation

17.12.2024

Daniel Rückert Advances Stroke Diagnosis With AI Innovation

Under Daniel Rückert’s leadership, AI now accurately determines stroke timing, enabling better treatment decisions and improved patient outcomes.


Link to The MCML Outreach Programs in 2024

16.12.2024

The MCML Outreach Programs in 2024

From school workshops to public events, MCML's 2024 outreach programs brought AI and machine learning closer to students, teachers, and the public.


Link to Understanding Vision Loss and the Need for Early Treatment

11.12.2024

Understanding Vision Loss and the Need for Early Treatment

Researcher in focus: Jesse Grootjen is writing his doctoral thesis at LMU, focusing on enhancing human abilities through digital technologies.


Link to MCML Featured in Bildung+ Schule Digital Magazine

10.12.2024

MCML Featured in Bildung+ Schule Digital Magazine

MCML partners in the KITrans project, featured in Bildung+ Schule Digital, bringing interactive AI education to classrooms.


Link to MCML Director Daniel Cremers on AI's Role in Improving Lives

09.12.2024

MCML Director Daniel Cremers on AI's Role in Improving Lives

MCML Director Daniel Cremers discusses how AI simplifies daily life, tackles ethical challenges, and shapes the future with innovative research.