Zum Hauptinhalt springen

ViLeArn: Virtuelles Situiertes Lernen und Lehren mit Avataren und Agenten im Sozialen Cyberspace

Das Forschungsprojekt ViLeArn entwickelt und erforscht situierte virtuelle Lernumgebungen auf Basis von Präsenz und sozialer Interaktion. Ziel des Projekts ist die Kompetenzförderung und Steigerung des Lernerfolgs, unter besonderer Berücksichtigung von Verfügbarkeit, Teilhabe und Inklusion. ViLeArn verbindet hierzu innovative mediendidaktische Prinzipien der Präsenzlehre und des Lernens als einen interaktiven und gemeinschaftlichen Prozess durch Nutzung digitaler Medien, aktuell mit Techniken der virtuellen Realität (Virtual Reality, VR) — und im Folgeprojekt auch in erweiterter Realität (Augmented Reality, AR). Das Projekt ist eine Kooperation des Lehrstuhls für Mensch-Computer-Interaktion (Prof. Dr. Marc Erich Latoschik) mit dem Lehrstuhl für Schulpädagogik (Prof. Dr. Silke Grafe) mit Förderung des Bundesministerium für Bildung und Forschung (BMBF, Referenznummer: 16DHB2111).

Ziele

Aus der Perspektive der Mensch-Computer-Interaktion ist das Ziel, notwendige Basistechnologien zu entwickeln und zu erforschen. Hierbei geht es unter anderem herauszufinden, ob und wie Lernen - einschließlich Kollaboration und Kooperation - in immersiven virtuellen Umgebungen möglich ist und welche konzeptionellen und technischen Randbedingungen und Lösungen die notwendige Benutzerfreundlichkeit und -erfahrung gewährleisten — insbesondere in heterogenen Umgebungen, die virtuelle und erweiterte Realität in Lehr- und Lernszenarien kombinieren. Aus pädagogischer Perspektive sollen in ViLeArn medienpädagogische Kompetenzen von Lehramtsstudierenden und Dozierenden gefördert werden. Dazu gehören zum Beispiel die zielgerichtete Auswahl und Nutzung moderner und immersiver VR und AR Medien für den Unterricht, deren Gestaltung und die kritische Reflexion des Medieneinsatzes. Ein interdisziplinärer Forschungsschwerpunkt liegt auf der Verkörperung durch photogrammetrische oder personalisierbare stilisierte Avatare und der Übertragung einer größtmöglichen Menge an sozialwirksamen Signalen wie Augen- und Mundbewegungen (Abb. 1). Verkörpert mit einem expressiven Avatar treten Teilnehmende in virtuellen Seminaren in direkte Face-To-Face Kommunikation und überwinden so prinzipbedingte Defizite von 2D-Videokonferenzsystemen (z.B. Zoom oder Microsoft Teams). Aufgrund der häufig eingeschränkten Sensorik zur Bewegungserfassung (meistens VR-Brille und zwei Controller), unterstützt und untersucht ViLeArn auch verschiedene Darstellungen des virtuellen Unterkörpers. Hierzu zählt neben der Einbindung weiterer Sensorik zur Ganzkörpererfassung, auch das einfache Ausblenden des Unterkörpers und die Anzeige ohne Bewegung oder durch syntetisierte Vorhersage.

Der zentrale Treffpunkt in ViLeArn für Lern- und Lehrszenarien ist ein virtueller Seminarraum (Abb. 2), in dem sich Teilnehmende zum gemeinschaftlichen Arbeiten zusammenfinden. Neben einem Hauptraum für Plenumssitzungen stehen für Gruppenarbeiten Breakout-Räume bereit. Ein Raum beinhaltet eine Leinwand für Präsentationen, eine Uhr und einen Countdown.

Seit 2019 wurden bereits diverse Seminare mit der ViLeArn-Anwendung durchgeführt. Teilnehmende sind dabei nicht an einem physischen Ort gebunden, sondern können diesen frei wählen (z.B. von zu Hause, in der Uni oder von ihrem Arbeitsplatz). Voraussetzung ist dabei eine stabile Internetverbindung und der Zugriff auf eine VR-Brille. Die hierzu benötigte Hardware, ein VR-fähiger Gaming-Laptop und eine VR-Brille (z.B. HP Reverb G2, Oculus Rift S oder HTC Vive Pro), wird den Teilnehmenden bereitgestellt.

Als fester Bestandteil des Lehrplans am Lehrstuhl für Schulpädagogik, fand zum Beispiel im Wintersemester 2021/22 ein VR-Seminar über mehrere Sitzungen statt. Verkörpert mit personalisierten stilisierten Avataren erhielten Studierende zu Beginn jeder Seminarsitzung eine thematische Einführung und arbeiteten gemeinschaftlich in Gruppenräumen. Die Ergebnisse wurden anschließend im Hauptraum vorgestellt und besprochen. Eine gestellte Aufgabe bestand darin, Konzepte (Konstruktivismus, Kognitivismus, Behaviorismus und situiertes Lernen) mittels einer gemeinschaftlich zu gestalteten 3D-Mindmap in Beziehung zu setzen und anschließend vorzustellen.

 

Das Lehr- und Lernszenario

Sind Personen das erste Mal in einer virtuellen Lernumgebung, kann der Funktionsumfang schnell überfordernd sein. Aus diesem Grund starten Teilnehmende in ViLeArn in einem privaten Raum (Abb. 3 links) und können auf ein Tutorial zurückgreifen, das ihnen den Funktionsumfang in einzelnen Schritten erläutert. Im Anschluss haben Teilnehmende die bereitstehenden Funktionen kennengelernt und wechseln selbstständig in den sozialen Raum zur Seminarteilnahme (Abb. 3).

In ViLeArn erfolgt die Fortbewegung durch physische Körperbewegungen und durch Teleportation zu vordefinierten Sitzplätzen in einem Halbkreis vor der Leinwand (Abb. 2, Mitte). Für die Steuerung von häufig genutzten Funktionen können Teilnehmende ein virtuelles Armband nutzen (Abb. 3 rechts). Mit den Schnelleinstellungen können Teilnehmende das virtuelle Tablet, den Stylus und das Mikrofon de-/aktivieren. Die Funktion Hinweise zeigt die Controller-Button Funktionszuweisung an. Zusätzlich haben Teilnehmende Zugriff auf ein virtuelles Tablet (Abb. 4) mit Web-Browser, Einstellungen und Sprachnotiz-Funktion. Das Armband und das Tablet können entweder mit dem virtuellen Finger und Stift/Stylus wie ein Touchscreen bedient werden oder aus der Ferne mittels Laserpointer und Tastendruck an einem Controller.

 

Reality Stack

Die während der Konzeptionsphasen und Entwicklungszeiten des ViLeArn Projekts entstandenen Hardware-Konzepte und Software-Komponenten werden nicht nur in diesem Projekt, sondern auch in weiteren internen und universitätsübergreifenden Projekten eingesetzt. Die Bereitstellung der Konzepte und Komponenten erfolgt im Rahmen des Reality Stacks, unserer Idee und Vision, Synergien von Projekten zu nutzen und wiederverwendbare und erweiterbare Konzepte und Komponenten zu entwickeln. Beispiele hierfür sind Komponenten für die Bewegungserfassung, Verkörperung, Netzwerksynchronisation, Interaktion (Texteingabe und -manipulation) und Präsentation.

Weitere Informationen

Sie sind neugierig und wollen die Anwendung vielleicht einmal selbst ausprobieren? Dann besuchen Sie doch gerne unsere Projektseite. Weitere spannende Projekte und Kontaktdaten finden Sie auf den Seiten der jeweiligen Lehrstühle Schulpädagogik und Mensch-Computer-Interaktion. Eine Liste der bisherigen wissenschaftlichen Arbeiten ist hier zu finden.

Projektbeteiligte

Lehrstuhl für Mensch-Computer-Interaktion: Florian Kern M.Sc.; Peter Kullmann, M.Sc.; Prof. Dr. Marc Erich Latoschik

Lehrstuhl für Schulpädagogik: Gabriela Ripka, LAssin; Thomas Schröter M.A., M.Ed.; Prof.in Dr. Silke Grafe