Es hat gute Gründe, warum Flugzeuge in den meisten Fällen von einer Software gesteuert werden und nicht von Menschen. Der Hauptgrund heißt Sicherheit. Menschen sind müde, abgelenkt oder wütend und sollten in diesen Lebenssituationen nicht das eigene und schon gar nicht die Leben Unbeteiligter gefährden.

Bild nicht mehr verfügbar.

In Echtzeit erkennt das System die Emotionen der Autofahrer.
Foto: AP /Elise Amendola

Beim Kfz stehen wir aus verschiedensten Gründen erst am Beginn dieser Umstellung. Die enorme Komplexität im Straßenverkehr und die zahlreichen externen Einflussfaktoren machten die technische Umsetzung eines solchen Autopiloten bisher fast unmöglich. Die mittlerweile angelaufenen Tests sind aber vielversprechend. Trotz Startschwierigkeiten gibt es die Zuversicht, dass eine Umstellung auf einen zusehends maschinengesteuerten Verkehr ein realistisches Zukunftsmodell sein könnte.

Die Tatsache, dass alleine in den USA durch unachtsame und abgelenkte Fahrerinnen und Fahrer täglich rund neun Menschen sterben und mehr als 1.000 Personen verletzt werden, spricht für autonome Fahrzeuge. Für immer mehr Tech-Unternehmen scheint momentan jedoch klar: Bis eine Umstellung auf ein möglichst vollautonomes Verkehrsnetz glückt, gilt es nicht nur die Umgebung, sondern auch die Wageninsassen zu analysieren.

6,5 Millionen Gesichtsvideos analysiert

"Automotive AI" des US-Konzerns Affectiva gilt mittlerweile als unumstrittener Branchenführer im Bereich sogenannter emotionaler Intelligenz, sprich der Erkennung verhaltensbasierter Gesichtsausdrücke und Sprache durch eine riesige Menge an Daten und Algorithmen. Kein Unternehmen hat so viel Videomaterial aus so vielen Regionen der Welt. Sie sammeln es zum Teil selbst, aber auch in Zusammenarbeit mit anderen Marktforschungsunternehmen, jeweils nach expliziter Einwilligung der gefilmten Personen. Mehr als 6,5 Millionen Gesichtsvideos aus 87 Staaten stückelte das US-Unternehmen bereits in knapp vier Milliarden Einzelbilder, um damit neuronale Netze zu trainieren und bestimmte Muster zu erkennen. Ziel ist herauszufinden, ob eine Fahrerin oder ein Fahrer müde oder ausgeruht, glücklich, gleichgültig oder wütend, wachsam oder unaufmerksam ist.

Affectiva

Dafür wird mittels einer kleinen Kamera über dem Lenkrad nicht nur gemessen, wie geschlossen die Augenlider sind, wie oft man gähnt oder blinzelt oder in welche Richtung sich Augenbrauen, Mundwinkel oder Backen verziehen, sondern etwa auch die Tonlage analysiert. Dabei gilt es auch kulturelle und geschlechtsspezifische Unterschiede zu beachten. Spanier zeigen beispielsweise mehr Emotionen als Ägypter, Letztere aber wiederum vermehrt positive.

Anti-Müdigkeits-Playlist

Wer offensichtlich müde ist, wird mit einer impulsiveren und lauteren Playlist beschallt, bekommt kalte Luft um die Ohren geblasen und wird aufgefordert, an den nächstmöglichen Haltestellen zu rasten. Besonders aufgewühlte Menschen sollen per Navi auf "stressfreiere" Routen umgeleitet werden. Ein Ruckeln am Lenkrad oder Gurt soll die Lenker – ähnlich wie bei bereits existierenden Spurassistenten – warnen. Dass Kraftfahrzeuge mit Möglichkeiten zum autonomen Fahren in solchen Fällen übernehmen und dem Fahrer die Kontrolle über das Lenkrad entziehen sollen, scheint zwar wenig populär, aber unausweichlich zu sein.

Affectiva erhält diese Daten zu einem gewissen Teil auch direkt auf seiner Website, wo Menschen die neuesten Tools direkt austesten können. Durch die DSGVO sind europäische User etwas besser geschützt als andere, dennoch muss man sich bewusst sein, dass die Daten anonymisiert gespeichert werden – theoretisch aber jederzeit von US-Behörden eingesehen werden können, wie viele andere Daten auch.
BusinessWire

Auch die weiteren Insassen werden permanent gefilmt und analysiert – einerseits um durch perfekte Beleuchtung und Temperatur ein Maximallevel an Komfort für alle Mitfahrenden zu erreichen. Andererseits sollen etwaige Gefahren, die dem Fahrer entgehen, dem Beifahrer aber vielleicht einen Schrecken ins Gesicht zaubern, registriert werden.

Pulsschlag per Farbtonerkennung

Der Wunsch, dass Maschinen menschliche Emotionen besser lesen und interpretieren können, entwickelte sich bei der gebürtigen Ägypterin, Mitgründerin von Affectiva und heutigen CEO Sana el Kaliouby aufgrund der großen Distanz zu ihrer Heimat, jetzt wo sie in Boston in den USA lebt. Laut el Kaliouby sind 93 Prozent eines normalen Gesprächs nonverbale Kommunikation. Diese gehe bei Telefongesprächen oder Textnachrichten – abgesehen von Emojis und Gifs – aber verloren.

Bild nicht mehr verfügbar.

Sana el Kaliouby entschied sich bewusst gegen eine Zusammenarbeit mit Sicherheitsbehörden. Die von ihr vorangetriebene Technik wird wohl dennoch auch dafür verwendet werden.
Foto: AP/Elise Amendola

Tatsächlich sind die konkreten Anwendungsbeispiele emotionaler Intelligenz aber sehr viel breiter. So entwickelte das Unternehmen etwa eine Methode, den Puls von Menschen nur aufgrund einer Veränderung im Farbton der Haut zu erkennen, wenn das Blut durch den Körper gepumpt wird. Ebenfalls will man in Zukunft autistischen Kindern mit einer Hightech-Brille helfen, die Emotionen ihres Gegenübers besser zu verstehen. Sogar die Wünsche von Babys sollen Jungeltern besser erkennen können. Es soll Menschen aber auch zu mehr Selbstreflexion verhelfen – beispielsweise indem einem eine Software sagt, dass man bei einem Meeting zu aggressiv in Sprache und Gestik war.

Überwachungstool?

Tatsächlich wird das Hauptgeschäft der Firma aber wohl in der Konsum- und Verhaltensforschung liegen. Schon heute bezahlen US-Firmen große Summen, um herauszufinden, wie bestimmte Zielgruppen auf Werbeinhalte reagieren. Eine Bierfirma will schließlich wissen, ob der sündhaft teure Werbespot in der Halbzeit der Super Bowl den potenziellen Kunden ein Lächeln ins Gesicht gezaubert und sich damit rentiert hat. Auch die Politik zeigt zusehends Interesse und will Analysen von Wahlkampfreden.

Wenig überraschend zeigten zwischenzeitlich auch US-Geheimdienste Interesse und wollten die Firma mit 40 Millionen Dollar unterstützen, was el Kaliouby aus Gewissensgründen ablehnte. Ihre Forschung hätte sich fortan auf Überwachungsmethoden und Lügendetektoren fokussieren müssen – einen Bereich, in dem ihre Technologie künftig durchaus noch eingesetzt werden könnte, befürchtet el Kaliouby. (Fabian Sommavilla, 10.7.2019)