Design4real VR AR Agentur

Tipps für das Erstellen von realistische VR-Avatare für das Metaverse: Herausforderung Uncanny Valley

Mit dem wachsenden Aufkommen des Metaversums steigt auch die Nachfrage nach ansprechenden und lebensechten VR-Avataren. Um ein Gefühl von sozialer Präsenz und Immersion zu fördern, ist es entscheidend, den Uncanny Valley-Effekt beim Design dieser Avatare zu vermeiden. Das Uncanny Valley-Phänomen tritt auf, wenn ein Avatar dem menschlichen Aussehen nahe kommt, aber dennoch unbehagliche Gefühle bei den Nutzern auslöst. In diesem Blogbeitrag werden Strategien untersucht, um VR-Avatare zu erschaffen, die die Lücke des Uncanny Valleys überbrücken und das Metaverse-Erlebnis verbessern.

Priorisierung visueller Realismus

Die Erreichung visueller Realität ist entscheidend für überzeugende VR-Avatare. Doch das Streben nach fotorealistischer Darstellung ist nicht immer der beste Ansatz. Stattdessen sollte ein Gleichgewicht zwischen Realismus und Stilisierung angestrebt werden. Der Fokus liegt auf den Schlüsselelementen, die zur menschlichen Erkennung beitragen, wie Gesichtszüge, Augen und Hauttextur. Durch den Einsatz von detaillierten Modellierungs-, Texturierungs- und Shading-Techniken lassen sich visuell ansprechende Avatare erstellen, ohne den Uncanny Valley-Effekt auszulösen.

Realistische Avatare

Ein realistischer Avatar bietet viele Anpassungsmöglichkeiten, um dem eigenen Aussehen möglichst nahe zu kommen. Gerade in einem professionellen Umfeld, in dem die Glaubwürdigkeit des Nutzers eine Rolle spielt, ist ein Avatar mit realistischen Merkmalen oft die erste Wahl. Allerdings birgt der realistische Look auch Probleme: Der sogenannte “Uncanny Valley”-Effekt beschreibt den Punkt, an dem ein künstlicher Avatar so real wie möglich aussehen möchte, aber nur annähernd dieses Ziel erreicht – was ihn wiederum unglaubwürdig oder sogar unheimlich erscheinen lässt.

Hardwarebeschränkungen spielen hierbei eine Rolle, ebenso wie begrenzte Möglichkeiten, einen realistischen Avatar mit wenig Aufwand zu erstellen. Eine gängige Methode besteht darin, ein Webcam-Foto des Nutzers zu nehmen und es auf einen generischen Avatar zu projizieren. Dies erfüllt seinen Zweck, da der Avatar als Person erkennbar ist, aber die einfache Darstellung bricht schnell mit der erhofften Realität. Zudem schweben die Avatare meist in Abhängigkeit des gewählten VR-Headsets, aufgrund des Mangels an Tracking-Möglichkeiten an Beinen und Gesicht, und die Gesichtsausdrücke wirken relativ starr und daher auch befremdlich.

 

Avatare aus Photogrammetriedaten

Ein technisch aufwändigerer Ansatz ist Avatare aus Photogrammetriedaten zu generieren.

Die Erstellung von VR-Avataren aus Photogrammetriedaten ist ein komplexes Prozedere, das sich in mehrere Schritte unterteilt. Zunächst wird ein 3D-Scan der Person erstellt, indem sie aus verschiedenen Winkeln fotografiert wird. Diese Fotos werden dann mit einer Photgammetriesoftware bearbeitet, um ein detailliertes 3D-Modell zu erstellen. Schließlich wird das Modell in ein VR-kompatibles Format konvertiert. Dieser Prozess ermöglicht es, recht realistische Avatare für VR-Anwendungen zu schaffen.

 

3D Scan Apps für Handy wie Polycam

3D-Scanning von Menschen auf dem iPhone wird durch Scanning Software-Anwendungen wie PolyCam deutlich einfacher. Diese App nutzt die leistungsfähige LiDAR-Technologie, die in neueren iPhone-Modellen integriert ist, um detaillierte 3D-Scans von Objekten und Umgebungen zu erstellen. 

 

Cartoon Characters von Ready Player Me

Cartoonartige Avatare

Cartoonartige Avatare haben meist kein Uncanny Valley-Problem, da sie gar nicht versuchen, die Realität zu kopieren. Dennoch bietet er viele Möglichkeiten für individuelles Design. Charakteristische Merkmale eines Nutzers können beispielsweise auf einen cartoonartigen Avatar übertragen werden, basierend auf einem Foto – ähnlich wie es bereits die App ReadyPlayerMe tut. Alternativ können Nutzer ihren eigenen Avatar mithilfe eines Charaktererstellers gestalten, wie es zum Beispiel in “Die Sims” der Fall ist. Das Ergebnis ist ein Avatar, der einen konsistenten Stil hat, ähnlich wie die anderen Avatare, und nicht von externen Faktoren wie der Beleuchtung und der Qualität der Webcam des Nutzers abhängig ist.

Der cartoonartige Stil spricht natürlich nicht jeden an – ein verspielter Look in einem professionellen Umfeld, insbesondere bei der Präsentation oder Präsentation eines realistischen Produkts, kann Menschen abschrecken oder Präsentatoren weniger glaubwürdig erscheinen lassen. Auch cartoonartige Avatare haben keine Beine und begrenzte Mimik.

Meisterung von Gesichtsausdrücken und Emotionen

Gesichtsausdrücke sind für die menschliche Kommunikation von entscheidender Bedeutung. Um das Uncanny Valley zu vermeiden, ist es wichtig, dass die VR-Avatare eine breite Palette von Emotionen zeigen, die mit ihrer Sprache und Interaktionen übereinstimmen. Fortgeschrittene Animations- und Motion-Capture-Techniken ermöglichen natürliche und nahtlose Gesichtsausdrücke dank Face Capturing. VR Headsets wie Meta Quest Pro und Pico 4 Enterprise unterstützen Face und Eyetracking. Besondere Aufmerksamkeit sollte der Augenbewegung, Augenbrauenbewegungen und Lippenbewegungen geschenkt werden, da diese subtilen Hinweise eine bedeutende Rolle für die Authentizität der Emotionen des Avatars spielen. Mit Facial Motion Capture können Gesichtsbewegungen von einem echten Menschen auf den digitalen Avatar übertragen werden. So gibt es Face Capture Lösungen, die meist ein iPhone zur Aufnahme der Gesichtsbewegungen verwenden. Bespielsweise iClone und Metahuman Animator von Unreal. Mit ihnen ist es möglich mit moderaten Aufwand realistische Emotionen auf die Character zu übertragen. Mithilfe von automatischen Augenzwinkern ist es zusätzlich möglich ohne großen Aufwand, einen Charakter realistisch zwinkern zu lassen.

Meta Avatar
Neue Avatare von Meta jetzt auch mit Beinen -Bild:Meta

Realistische Animation von Avataren und NPCs durch Motion Capture (nicht Realzeit)

Natürliche und flüssige Animation ist entscheidend für die Glaubwürdigkeit der Avatare. Abgehackte oder roboterhafte Bewegungen können die Illusion von Realismus sofort zerstören. Die Nutzung von Motion-Capture-Technologie ermöglicht es, die Bewegungen echter Schauspieler zu erfassen und verleiht den Avataren eine zusätzliche Authentizität. Darüber hinaus sollte auf die Körpersprache und Gestik geachtet werden. Diese sollte die Rede des Avatars begleiten und das Kommunikationserlebnis verbessern, anstatt es zu beeinträchtigen. Im Nachhinein können in 3D Softwares wie Iclone oder Motion Builder, die Motion Capture Animationen überarbeitet werden, um nochmal bessere realistischer Ergebnisse zu ermöglichen. Dort kann z.B. die Blickrichtung des Characters nochmal auf die 3D Welt angepasst werden, oder auch Collisionen mit dem 3D Körper entfernt werden.

 

Keine Standard-Formate für Avatare

Leider gibt es keine Standartformate für Avatare, so dass ein Avatar der für eine Softwarelösung optimiert ist nicht einfach in einen Andere integriert werden kann. 

 

Realistische Animation von Avataren und in Realzeit 

Schwieriger wird die Sache, wenn in VR in Realzeit die Bewegungen von Spielern mit VR-Brille mittels Sensorik des Headsets erfasst und auf den Player Avatar übertragen werden sollen. Meta hat hier in letzter Zeit große Vortschritte gemacht so dass Meta’s Avtare nun sogar Beine in der virtuellen Welt haben können. Weiterhin wurden auch die sehr störenden Überschneidungen zwischen Armen und Oberköper deutlich reduzieret. Um mehr realismus in Bewegungen von Realzeit Avatren auf Hardwareseite zu ermöglichen bedarf es Headsets wie der Quest 3, die dank verbesserter Cameras und Sensorik die Position der Körperfeile des Trägers besser Tracken kann. Neben der Hardware ist auch die Software, die Avatar SDK, maßgeblich dafür verantwortlich wie die Bewegungen der Avatare wiedergeben werden. Hier haben Hardwarehersteller so wie Meta und Pico eigene Lösungen mit unterschiedlichen Features. Es gibt aber auch Plugin Implementierungen für Unreal und Unity, die Geräte agnostisch sind.

Fokus auf Sprache und Audio-Integration

Die Stimme ist ein weiterer wichtiger Aspekt des Metaverse-Erlebnisses. Stellen Sie sicher, dass die Stimme des Avatars zu seinem Aussehen passt und Emotionen angemessen vermittelt. Die Integration von Echtzeit-Stimmmodulation und Lippen-Synchronisation kann die Realität des Avatars erheblich steigern. Besser ist es Stimmen von echten Menschen zu nutzen anstatt auf AI-Stimmen zu setzten. AI-Stimmen sind  im Moment noch recht robotisch klingen und zeigen weniger Emotionen in der Stimme auf, wie es bei echten Menschen der Fall ist. Darüber hinaus können räumliche Audio-Techniken dazu beitragen, dass die Stimme des Avatars seine Position in der virtuellen Umgebung verankert und die Nutzer noch stärker in das Erlebnis eintauchen lässt. Mit Lip Synch Technology wie AccuLips von Iclone können Audiodateien automatisch in realistische Lippenbewegungen auf den Avtar übertragen werden.

Anpassung und Personalisierung

Die Möglichkeit, Avatare anzupassen, kann dazu beitragen, dass sich die Nutzer stärker mit ihren virtuellen Darstellungen verbunden fühlen. Bieten Sie eine vielfältige Auswahl an Anpassungsoptionen für Gesichtszüge, Frisuren, Kleidung und Accessoires. Die Personalisierung verbessert nicht nur die Nutzerbindung, sondern mildert auch den Uncanny Valley-Effekt, da individuelle Präferenzen hinsichtlich des Realismus variieren können. Mit Programmen wie Character Creator 4 oder auch Unreals MetaHuman können persönliche Avatare erstellt werden. Aus Bildern und 3D-Scans können mithilfe von z.B. dem Character Creator 4 Plugin “Headshot” und dem verbesserten Nachfolger “Headshot 2” Avatare erstellt werden, die sich vom Aussehen nahezu identisch zu den realen Vorlagen gestalten. Die präzise Gesichtserkennung und fortschrittliche KI-Technologie ermöglichen eine bemerkenswerte Genauigkeit und Detailtreue, wodurch die erstellten Avatare eine bemerkenswerte Ähnlichkeit mit den realen Personen aufweisen.

Iteration und Nutzerfeedback sammeln

Die Erstellung realistischer VR-Avatare ist ein iterativer Prozess. Sammeln Sie kontinuierlich Nutzerfeedback und beobachten Sie, wie Nutzer in verschiedenen Szenarien mit den Avataren interagieren. Die Identifizierung spezifischer Elemente, die den Uncanny Valley-Effekt auslösen, kann dazu beitragen, das Design und die Animationen zu optimieren. Es ist wichtig die Nutzer aktiv in den Entwicklungsprozess einzubeziehen, um Avatare zu erstellen, die den Präferenzen der Community und der Kunden entsprechen.

Fazit

  • Das Vermeiden des Uncanny Valley-Effekts ist entscheidend für VR-Avatare im Metaverse.
  • Priorisierung visueller Realismus und Meisterung von Gesichtsausdrücken sind wichtige Aspekte.
  • Animation und Bewegung sorgt für glaubwürdige Avatare.
  • Fokus auf Sprache und Audio-Integration verbessert die Realität der Avatare.
  • Anpassung und Personalisierung ermöglichen individuelle Nutzererfahrungen.
  • Iteration basierend auf Nutzerfeedback verfeinert die Avatare.
  • Kontinuierliche Fortschreitende Technologie und Innovation auf dem Gebiet der Avatarintegration eröffnen neue Immersionsmöglichkeiten im Metaverse.