Für den Abschluss der Keynote zur Google I/O hebt sich Google gern etwas Besonderes auf. Üblicherweise ist das kein fertiges Produkt, sondern ein Experiment, eine Idee davon, wie eine potentielle Zukunft aussehen könnte – oder zumindest wie Google sich diese vorstellt. Implizit verrät dieser Teil denn auch meist viel über die strategische Ausrichtung des Unternehmens. Auch die Präsentation auf der Google I/O 2022 bildete dabei definitiv keine Ausnahme.

Beeindruckende Demonstration

Google nutzte die Gelegenheit, um den Prototypen einer neuen Augmented-Reality-Brille vorzuzeigen. Doch anstatt mit möglichst aufwendiger Technik zu protzen, fokussierte man lieber auf einen konkreten Anwendungsfall. Einen, der verdeutlichen sollte, wie hilfreich solche Systeme sein könnten, wenn die Hardware einmal in den Hintergrund treten könnte.

Die gezeigte Anwendung umschrieb Google selbst mit der Bezeichnung "Untertitel für die reale Welt". Auf besagter Brille werden also nicht nur sämtliche Inhalte des Gegenübers in Textform eingeblendet, diese können auch in Echtzeit übersetzt werden. Damit soll dann möglich sein, dass sich zwei Personen selbst dann ganz normal unterhalten können, wenn sie unterschiedliche Sprachen sprechen.

Live Translate

Nun ist die dem zugrunde liegende Technologie nicht ganz neu, auf den eigenen Smartphones bietet Google etwa solch eine "Live Translate"-Funktion bereits an. Der Unterschied ist aber der minimalistische Formfaktor, der rein äußerlich kaum von einer normalen Brille zu unterscheiden ist.

Zur Hardware verriet man nichts Konkretes, die Brille erinnert aber an frühere Prototypen der Firma North, die vor einiger Zeit von Google gekauft wurde. Und die Live-Übersetzung dürfte wohl mithilfe eines der auf Maschinenlernen optimierten Chips aus Googles eigener Entwicklung abgewickelt werden.

Sendungsbewusstsein

Wer jetzt meint, dass das bloß eine nette kleine Tech-Demo war, der kennt Google schlecht. Denn natürlich wollte man damit etwa transportieren. Nämlich dass man das Unternehmen lieber nicht abschreiben sollte, wenn es um das Thema Augmented Reality geht.

Gerade wenn man sich ansieht, was sonst noch so auf der I/O vorgestellt wurde, ist es schwer, dem Unternehmen nicht beizupflichten. Gehören doch dazu viele Dinge, die erst in Kombination mit Augmented Reality ihr volles Potenzial entfalten werden.

Neue Suchformen

Google Lens lernt neue Tricks. Und zwar solche, die geradezu für Augmented Reality geschaffen sind.
Foto: Google

Ein Paradebeispiel ist die multimodale Suche, also die Kombination unterschiedlicher Suchen – etwa Bild und Text. Über diese ist es mittlerweile beispielsweise möglich, ein Bild eines Kleids zu nehmen und dann nach diesem in einer anderen Farbe zu suchen. Genau dieses Verständnis von Zusammenhängen wird für jede Analyse der Umgebung bei AR-Aufgaben essenziell sein.

Noch deutlicher wurde es bei der Bildersuche Lens, wo zu sehen war, wie ein Regal voller Schokolade in Echtzeit analysiert wurde und sämtliche Produkte mit Bewertungen überlagert wurden – "Scene Exploration" nennt sich das. Es ist schon fast schwer, sich dabei nicht vorzustellen, wie mächtig so ein Feature in Kombination mit einer AR-Brille sein könnte – und wofür das alles noch verwendet werden könnte. Die technischen Grundlagen für die grafische Verbindung zwischen Realbild und virtuellen Informationen hat Google ohnehin bereits in den vergangenen Jahren mit ARCore für Android gelegt.

Der Datenreichtum von Maps

Einer der größten Vorteile von Google sind aber fraglos die umfassenden Informationen, die man über Google Maps zur Verfügung hat. So gibt es bereits seit einiger Zeit eine "Live View", die Realbilder mit Navigationsinformationen kombiniert. Bei der I/O gab es dafür einige Erweiterungen zu sehen – samt der Öffnung für Drittentwickler.

Vor allem aber spielt für Augmented Reality das Verständnis des Umfelds eine entscheidende Rolle. Da ergibt es sich bestens, dass wohl niemand sonst so detaillierte Informationen über die Welt hat wie Google. Wie weit dies bereits fortgeschritten ist, demonstrierte das Unternehmen unter dem Namen "Immersive View" eindrücklich. Dabei handelt es sich um ein kommendes Google-Maps-Feature, das hochdetaillierte Ansichten einzelner Städte bieten soll.

Die "Immersive View" von Google Maps bietet eine hochdetaillierte Ansicht von Städten – mit echtem Wetter, passender Lichteinstrahlung sowie Tages- und Nachtwechsel.
Grafik: Google

Project Iris

Dazu kommt, dass der vorgezeigte Prototyp nur eine von vielen aktuellen AR-Entwicklungsrichtungen bei Google sein dürfte. So ist unlängst durchgesickert, dass das Unternehmen unter dem Namen "Project Iris" an ähnlich aufwendigen AR-Brillen arbeitet wie sie derzeit bei Facebook und Apple in Entwicklung sind. Dafür wurden zuletzt auch einige Firmen übernommen, zuletzt etwa das Micro-LED-Start-up Raxium.

Nun ist schon klar, dass – zumindest laut den aktuell verfügbaren Informationen – Apple und Facebook bei der Entwicklung ihrer eigenen AR-Hardware einen ordentlichen Vorsprung haben dürften. Dass es nicht immer die beste Idee ist, mit einer neuen Technologie der Erste zu sein, musste Google selbst bei der Datenbrille Glass schmerzhaft feststellen.

Insofern könnte es sein, dass sich das Unternehmen eine wichtige Lektion von Apple abgeschaut hat: Nämlich dass es manchmal besser ist, anderen die Pionierarbeit zu überlassen. Um dann im Fall des Erfolgs mit einem Angebot einsteigen zu können – und zwar einem, das jahrelang bestens vorbereitet wurde. Und genau das tut Google gerade. (Andreas Proschofsky, 12.5.2022)