Jose Ricardo Lima ist Senior Engineering Manager für die Kamera von Googles Pixel-Smartphones.

Foto: Andreas Proschofsky / STANDARD

Die Entwicklung, die Smartphone-Hardware in den vergangenen Jahren hingelegt hat, ist beeindruckend. Noch vor wenigen Jahren war es undenkbar, dass das kleine Gerät in unserer Hosentasche einmal dermaßen leistungsfähig wird. Doch die Phase der raschen Innovationssprünge ist mittlerweile vorbei: Die Unterschiede zwischen den Produktgenerationen der einzelnen Hersteller werden immer geringer. Ob etwa in einem Smartphone der aktuellste Prozessor oder jener des Vorjahres läuft, macht sich jenseits von Benchmarks nur mehr sehr begrenzt bemerkbar.

Gleichzeitig wissen die Hersteller natürlich, dass sie sich im beinharten Wettkampf am Smartphone-Markt irgendwie von anderen Anbietern abheben müssen. Also konzentriert man sich in der öffentlichen Kommunikation auf immer kleinere Details wie den Rahmen um den Bildschirm oder die offenbar keine Grenze nach oben kennende Zahl an Kameras – egal ob dies der Qualität zuträglich ist oder – wie bei vielen Herstellern – auch nicht.

Andere Philosophie

Bei Google beschreitet man hingegen sehr bewusst einen anderen Weg: Statt sich einen – zumindest derzeit – schwer zu gewinnenden Wettkampf mit Apple oder Samsung bei der Hardware zu liefern, spielt man lieber die eigenen Stärken in einem ganz anderen Bereich aus. Dank Künstlicher Intelligenz sollen sich Google-Geräte von der Konkurrenz abheben, wird das Unternehmen nicht müde zu betonen.

Pixel 3

Ein Paradebeispiel hierfür ist die beim Pixel 3 eingesetzte Kamera, wie Jose Ricardo Lima von Googles Pixel-Kamerateam, im Rahmen eines Presseevents in Amsterdam betont. Die beim neuen Google-Smartphone verbaute Kamera sei nämlich hardwareseitig nichts besonderes, erst die Kombination mit auf Maschinenlernen basierenden Funktionen hebe die Bilder des Pixel 3 vom Mitbewerb ab.

So kommen Googles neuronale Netzwerke etwa bei der neuen "Night Sight"-Funktion zum Einsatz, die in fast vollständiger Dunkelheit noch ansehnliche Fotos liefern kann. Konkret ist die KI dafür zuständig, den Weißabgleich durchzuführen, und so die Farbgebung zu bestimmen. Das ist nämlich in so einem Umfeld auch mit langer Belichtungszeit sonst nur schwer durchzuführen. Ein weiteres Beispiel für den Einsatz der KI ist die "Fill Flash"-Funktion, die automatisch Gesichter in Bildern erkennt und aufhellt. Und dann wäre da natürlich noch "Top Shot", dass den Nutzern bei einer verpatzen Aufnahme ein besseres Bild kurz davor oder danach als Alternative anbietet. Die dabei genutzte KI wurde gezielt darauf trainiert, was ein gutes Foto ausmacht – etwa dass eine Person in die Kamera und die Aufnahme scharf ist.

Lokal und privat

Google betont bei all dem, dass die dafür notwendigen Modelle von Google anhand zahlreicher Fotos und mit menschlicher Hilfe trainiert wurden. Auf private Fotos der User greife man nie zurück. Vor allem aber läuft all das direkt am Smartphone – was solche smarten Features überhaupt erst möglich macht. Immerhin wäre es unrealistisch mitten während der Aufnahme die Bilder schon in die Cloud hochzuladen und dort zu analysieren. Alleine schon deswegen seien lokale neuronale Netzwerke für viele Anwendungsfälle die Zukunft, ist das Unternehmen überzeugt.

Und doch gibt es einen Punkt, für den die Hardware dann doch ausschlaggebend ist: Immerhin liefern immer mehr Hersteller in ihren Herstellern eigene Co-Prozessoren für Maschinenlernaufgaben. Apple zählt etwa dazu – und nutzt dies selbst für so manche Funktion von Apple Photos, doch auch Huawei und andere Hersteller liefern entsprechende Komponenten. Google selbst nennt seinen diesbezüglichen Chip den Pixel Visual Core, und liefert ihn mittlerweile bereits in der zweiten Generation auf seinen Smartphones.

Schritt für Schritt

Ein Allheilmittel sind solche KI-Prozessoren natürlich nicht, so betont etwa Lima auf Nachfrage des STANDARD, dass man nicht für alle dieser smarten Aufgaben derzeit auch wirklich den Pixel Visual Core einsetzt. Manchmal seien weiter die CPU oder auch der Grafikchip für Maschinenlernaufgaben die bessere Lösung. Klar ist aber, dass die Kombination vieles ermöglicht, was bisher ohne große Rechensystem unmöglich schien. So kann etwa die Bildanalyse von Google Lens am Pixel 3 dank dem Visual Core einige Aufgaben komplett ohne Internetanbindung durchführen – und somit in Echtzeit. Bisher musste immer ein Foto aufgenommen werden, dass dann hochgeladen und analysiert wird.

Was Künstliche Intelligenz am Smartphone leisten kann, zeigt aktuell aber wohl am besten ein Feature, das bisher US-amerikanischen Nutzern des Pixel 3 vorbehalten ist. Dank "Screen Call" können die Nutzer eine KI auf unerwünschte Anrufe antworten lassen – und diese herausfinden lassen, ob der Anrufer eventuell doch ein legitimes Anliegen hat. Die Nutzer können dabei in Echtzeit zusehen, wie die Interaktion verläuft, das Smartphone transkribiert also lokal sämtliche Inhalte.

Schnelle Fortschritte

Wie stark Googles Fokus auf das Thema lokale KI am Smartphone ist, zeigt auch ein Vergleich: Zum Start des Pixel 2 gab es genau ein smartes Feature, das komplett lokal auf dem Gerät lief – die Songerkennung mit "Now Playing". Diese gleicht im Umfeld laufende Musik gegen eine lokale Datenbank von einigen zehntausend Titeln ab – ohne dafür eine Netzanbindung zu brauchen. Seitdem ist neben den neuen Kamerafunktionen auch ein smartes Akkuoptimierungssystem namens "Adaptive Battery" hinzugekommen, das die "Wake-Ups" der CPU um 30 Prozent reduziert – und dank Maschinenlernmodellen mittlerweile auch die Nutzung des Mobilfunkchips optimiert.

Für die Nutzer ist der aktuelle Trend aber nicht nur wegen all der neuen Funktionen auf ihren Smartphones erfreulich. Der gewählte Weg hat nämlich auch einen erfreulichen Nebeneffekt: Da die Verarbeitung der Daten in diesem Fall komplett lokal passiert, wird auch die Privatsphäre nicht im gleichen Maß beeinträchtigt, wie es bei einem Cloud-basierten Ansatz der Fall wäre. Ein Punkt, der bisher immer wieder an solchen smarten Systemen kritisiert wird.(Andreas Proschofsky, 7.11.2018)