VividQ und Dispelix entwickeln eine holografische 3D-Technologie für tragbare AR

Blog

HeimHeim / Blog / VividQ und Dispelix entwickeln eine holografische 3D-Technologie für tragbare AR

Aug 29, 2023

VividQ und Dispelix entwickeln eine holografische 3D-Technologie für tragbare AR

Wir freuen uns, die Rückkehr des GamesBeat Summit Next bekannt zu geben, der diesen Oktober in San Francisco stattfindet und bei dem wir uns mit dem Thema „Playing the Edge“ befassen werden. Bewerben Sie sich hier für einen Vortrag und erfahren Sie mehr darüber

Wir freuen uns, die Rückkehr des GamesBeat Summit Next bekannt zu geben, der diesen Oktober in San Francisco stattfindet und bei dem wir uns mit dem Thema „Playing the Edge“ befassen werden. Bewerben Sie sich hier für einen Vortrag und erfahren Sie hier mehr über Sponsoringmöglichkeiten.

VividQ, ein Hersteller holografischer Anzeigetechnologie für Augmented-Reality-Spiele, hat sich mit dem Wellenleiterdesigner Dispelix zusammengetan, um eine neue holografische 3D-Bildtechnologie zu entwickeln.

Noch vor zwei Jahren sagten die Unternehmen, die Technologie sei nahezu unmöglich. Sie stellten fest, dass sie einen „Wellenleiterkombinator“ entwickelt und hergestellt haben, der gleichzeitig 3D-Inhalte mit variabler Tiefe in der Umgebung eines Benutzers genau anzeigen kann. Zum ersten Mal können Benutzer immersive AR-Gaming-Erlebnisse genießen, bei denen digitale Inhalte in ihrer physischen Welt platziert werden können, wo sie auf natürliche und bequeme Weise mit ihnen interagieren können. Die Technologie könnte für tragbare Geräte eingesetzt werden, also AR-Headsets oder Smartglasses.

Die beiden Unternehmen haben außerdem die Bildung einer kommerziellen Partnerschaft angekündigt, um die neue 3D-Wellenleitertechnologie zur Massenproduktionsreife zu entwickeln. Dies wird Headset-Herstellern die Möglichkeit geben, ihre AR-Produkt-Roadmaps jetzt anzukurbeln.

Frühe Augmented-Reality-Erlebnisse, die bisher mit Headsets wie Magic Leap, Microsoft HoloLens, Vuzix und anderen gemacht wurden, erzeugen stereoskopische 2D-Bilder mit festen Brennweiten oder einer Brennweite nach der anderen. Dies führt häufig zu Augenermüdung und Übelkeit bei den Benutzern und bietet nicht die notwendigen immersiven dreidimensionalen Erlebnisse – zum Beispiel können Objekte nicht auf natürliche Weise auf Armeslänge entfernt interagiert werden und sie sind nicht genau in der realen Welt platziert.

Um die Art von immersiven Erlebnissen zu bieten, die AR für eine Massenmarktakzeptanz benötigt, benötigen Verbraucher ein ausreichendes Sichtfeld und die Möglichkeit, sich gleichzeitig auf 3D-Bilder im gesamten Bereich natürlicher Entfernungen zu konzentrieren – von 10 cm bis zur optischen Unendlichkeit – auf die gleiche Weise, wie sie es natürlicherweise mit physischen Objekten tun.

Ein Wellenleiterkombinierer ist die branchenweit beliebteste Methode zur Darstellung von AR-Bildern in einem kompakten Formfaktor. Dieser Wellenleiter der nächsten Generation und die dazugehörige Software sind für 3D-Anwendungen wie Spiele optimiert, was bedeutet, dass Verbrauchermarken auf der ganzen Welt das volle Potenzial des Marktes erschließen können.

Wellenleiter (auch als „Kombinierer“ oder „Wellenleiterkombinierer“ bekannt) verleihen AR-Headsets ein leichtes und konventionell aussehendes Frontend (das heißt, es sieht aus wie normale Glaslinsen) und sind für eine breite Akzeptanz erforderlich. Abgesehen von den Formfaktorvorteilen führen die heute auf dem Markt erhältlichen Wellenleiter einen Prozess durch, der als Pupillenreplikation bezeichnet wird. Dies bedeutet, dass sie ein Bild von einem kleinen Anzeigefeld (auch „Eyebox“ genannt) aufnehmen und es effektiv vergrößern können, indem sie vor dem Auge des Betrachters ein Raster aus Kopien des kleinen Bildes erstellen – ein bisschen wie ein Periskop, aber anstelle eines Bei einer Einzelansicht werden mehrere Ansichten erstellt. Dies ist wichtig, um den AR tragbar, ergonomisch und einfach zu bedienen zu machen.

Kleine Eyeboxen lassen sich bekanntermaßen nur schwer an der Pupille des Benutzers ausrichten und das Auge kann leicht vom Bild „abfallen“, wenn sie nicht richtig ausgerichtet sind. Dabei ist es erforderlich, dass die Headsets genau an den Benutzer angepasst werden, da selbst Unterschiede im Pupillenabstand (IPD) verschiedener Benutzer dazu führen können, dass ihr Auge möglicherweise nicht genau mit der Eyebox ausgerichtet ist und das virtuelle Bild nicht sehen kann.

Da es einen grundlegenden Kompromiss zwischen der Bildgröße (die wir „Eyebox“ oder „Austrittspupille“ nennen) und dem Sichtfeld (Field of View, FoV) bei der Anzeige gibt, ermöglicht diese Replikation dem Optikdesigner, die Eyebox sehr klein zu machen und sich dabei auf die Größe zu verlassen Replikationsprozess, um dem Betrachter ein großes, wirkungsvolles Bild zu liefern und gleichzeitig den FoV zu maximieren.

„Es wurden erhebliche Investitionen und Forschungsarbeiten in die Technologie getätigt, die die Arten von AR-Erlebnissen schaffen kann, von denen wir geträumt haben, aber sie bleiben hinter den Erwartungen zurück, weil sie nicht einmal die grundlegenden Erwartungen der Benutzer erfüllen können“, sagte Darran Milne, CEO von VividQ. „In einer Branche, die bereits einiges an Hype erlebt hat, kann es leicht sein, jede neue Erfindung als noch mehr vom Gleichen abzutun, aber ein grundlegendes Problem war schon immer die Komplexität der Darstellung von in der realen Welt platzierten 3D-Bildern mit einem.“ Anständiges Sichtfeld und eine Eyebox, die groß genug ist, um eine Vielzahl von IPDs (Interpupillenabstand oder der Abstand zwischen den Pupillen des Benutzers) aufzunehmen, alles eingebettet in ein leichtes Objektiv.“

Milne fügte hinzu: „Wir haben dieses Problem gelöst, etwas entwickelt, das hergestellt, getestet und getestet werden kann, und die für die Massenproduktion erforderliche Fertigungspartnerschaft aufgebaut. Es ist ein Durchbruch, denn ohne 3D-Holographie ist AR nicht möglich. Um es einfach auszudrücken: Während andere einen 2D-Bildschirm entwickelt haben, den man auf dem Gesicht trägt, haben wir das Fenster entwickelt, durch das man reale und digitale Welten an einem Ort erleben kann.“

Der zum Patent angemeldete 3D-Wellenleiterkombinator von VividQ ist für die Zusammenarbeit mit der Software des Unternehmens konzipiert. Beide können von Wearable-Herstellern lizenziert werden, um eine Roadmap für Wearable-Produkte zu erstellen. Die holografische Anzeigesoftware von VividQ funktioniert mit Standard-Spiele-Engines wie Unity und Unreal Engine und macht es für Spieleentwickler sehr einfach, neue Erlebnisse zu schaffen. Der 3D-Wellenleiter kann über VividQs Produktionspartner Dispelix, einen in Espoo, Finnland ansässigen Hersteller von durchsichtigen Wellenleitern für Wearables, in großem Maßstab hergestellt und geliefert werden.

„Tragbare AR-Geräte haben weltweit großes Potenzial. Für Anwendungen wie Spiele und den professionellen Einsatz, bei denen der Benutzer über längere Zeiträume in die Materie eintauchen muss, ist es wichtig, dass der Inhalt echtes 3D ist und in der Umgebung des Benutzers platziert wird“, sagte Antti Sunnari, CEO von Dispelix, in einer Erklärung. „Dadurch werden auch die Probleme von Übelkeit und Müdigkeit überwunden. Wir freuen uns sehr, mit VividQ als Wellenleiter-Design- und Fertigungspartner an diesem bahnbrechenden 3D-Wellenleiter zusammenzuarbeiten.“

In seinem Hauptsitz in Cambridge, Großbritannien, hat VividQ seine Software und die 3D-Wellenleitertechnologie für Gerätehersteller und Verbrauchertechnologiemarken vorgeführt, mit denen es eng zusammenarbeitet, um AR-Wearables der nächsten Generation zu liefern. Der Durchbruch in der AR-Optik bedeutet, dass holografisches 3D-Gaming nun Realität wird.

Die von den Unternehmen erreichte Aufgabe wurde in einem 2021 im Nanophotonics Journal veröffentlichten Forschungspapier als „quasi unmöglich“ beschrieben.

Bestehende Wellenleiterkombinatoren gehen davon aus, dass die einfallenden Lichtstrahlen parallel sind (daher ein 2D-Bild), da sie erfordern, dass das Licht, das innerhalb der Struktur umherspringt, Pfaden gleicher Länge folgt. Wenn Sie divergierende Strahlen (ein 3D-Bild) einfügen würden, wären die Lichtwege alle unterschiedlich, je nachdem, wo auf dem eingegebenen 3D-Bild der Strahl seinen Ursprung hat.

Dies ist ein großes Problem, da dies im Grunde bedeutet, dass das extrahierte Licht alle unterschiedliche Distanzen zurückgelegt hat und der Effekt, wie im Bild gezeigt, darin besteht, mehrere teilweise überlappende Kopien des Eingabebilds in zufälligen Abständen zu sehen. Das macht es für jede Anwendung praktisch unbrauchbar. Alternativ ist dieser neue 3D-Wellenleiterkombinator in der Lage, sich an die divergierenden Strahlen anzupassen und Bilder der Couch korrekt anzuzeigen.

Der 3D-Wellenleiter von VividQ besteht aus zwei Elementen: Erstens einer Modifikation des oben beschriebenen Standard-Wellenleiterdesigns zur Pupillenreplikation. Und zweitens ein Algorithmus, der ein Hologramm berechnet, das die durch den Wellenleiter verursachte Verzerrung korrigiert. Die Hardware- und Softwarekomponenten arbeiten harmonisch zusammen und daher können Sie den VividQ Waveguide nicht mit der Software oder dem System eines anderen verwenden.

VividQ hat mehr als 50 Mitarbeiter in Cambridge, London, Tokio und Taipeh. Die Unternehmen begannen Ende 2021 zusammenzuarbeiten. VividQ wurde 2017 gegründet und kann seine Ursprünge auf die britische Photonikabteilung der Universität Cambridge und der Cambridge Judge Business School zurückführen.

Das Unternehmen hat bisher Investitionen in Höhe von 23 Millionen US-Dollar von Deep-Tech-Fonds in Großbritannien, Österreich, Deutschland, Japan und dem Silicon Valley eingeworben. Auf die Frage, was die Inspiration war, sagte Tom Durant, CTO von VividQ, in einer E-Mail an GamesBeat: „Verstehen, was die Einschränkungen waren, und dann herausfinden, wie man sie umgehen kann.“ Nachdem wir diesen Weg identifiziert hatten, machte sich unser multidisziplinäres Team aus Forschern und Ingenieuren aus den Bereichen Optik und Software daran, die einzelnen Probleme nacheinander zu lösen. Anstatt dies nur als ein optisches Problem zu betrachten, basiert unsere Lösung auf Hardware und Software, die aufeinander abgestimmt sind.“

Was den Unterschied zu konkurrierenden Technologien angeht, sagte das Unternehmen, dass bestehende Wellenleiterkombinierer auf dem Markt Bilder nur in zwei Dimensionen bei festgelegten Brennweiten darstellen können. Diese liegen typischerweise etwa zwei Meter vor Ihnen.

„Man kann sie nicht näher an sie heranbringen, um sie zu fokussieren, oder an ihnen vorbei auf andere digitale Objekte in der Ferne fokussieren“, sagte das Unternehmen. „Und wenn Sie diese digitalen Objekte betrachten, die vor Ihnen schweben, können Sie sehr schnell unter einer Überanstrengung der Augen und einem VAC (Vergenzakkommodationskonflikt) leiden, der Übelkeit verursacht. Für Spiele ist dies daher sehr begrenzt. Sie möchten Erlebnisse schaffen, bei denen ein Benutzer einen Gegenstand in die Hand nehmen und etwas damit tun kann, ohne einen Controller zu benötigen. Außerdem möchten Sie mehrere digitale Gegenstände an ihrem Platz in der realen Welt platzieren und dabei die Freiheit haben, sich nach Belieben auf sie und reale Objekte in der Nähe zu konzentrieren, was zu einem starken Gefühl des Eintauchens führt.“

Das Credo von GamesBeat wenn es darum geht, über die Spielebranche zu berichten, „wo Leidenschaft auf Geschäft trifft“. Was bedeutet das? Wir möchten Ihnen sagen, wie wichtig die Nachrichten für Sie sind – nicht nur als Entscheidungsträger in einem Spielestudio, sondern auch als Spielefan. Ganz gleich, ob Sie unsere Artikel lesen, sich unsere Podcasts anhören oder unsere Videos ansehen – GamesBeat hilft Ihnen dabei, mehr über die Branche zu erfahren und Spaß daran zu haben, sich mit ihr zu beschäftigen. Entdecken Sie unsere Briefings.

Das Credo von GamesBeat