Bild nicht mehr verfügbar.

Wie viel verrät unser Gesichtsausdruck über unsere Gefühle? Laut Studien nicht allzu viel.

Foto: REUTERS/Thomas Peter/File Photo

Stellen Sie sich vor, Sie sitzen in einem Bewerbungsgespräch. Im Raum zeichnet eine Kamera alle Ihre Gesichtsausdrücke während des Gesprächs auf, eine künstliche Intelligenz schließt anhand dessen auf Ihre Verlässlichkeit, Ihre Vertrauenswürdigkeit und Ihr Einfühlungsvermögen. Je nachdem, wie Sie bei diesen Faktoren abschneiden, haben Sie eine Chance auf den Job oder nicht.

Was sich wie ein Szenario aus einem Science-Fiction-Film anhört, ist in einigen Fällen bereits Realität. Die sogenannte Emotion-AI ist eine künstliche Intelligenz (KI), die anhand von Daten aus Gesichtern, der Stimme oder der Körpersprache eines Menschen auf dessen Emotionen und damit auch dessen Verhalten schließen soll. Die Einsatzorte der Technologie sind vielseitig: Schulen sollen damit die Anteilnahme und Aufmerksamkeit von Schülerinnen und Schülern im Klassenzimmer und auch bei Hausaufgaben messen, Unternehmen Bewerbungskandidaten aussortieren, Supermärkte und Marketingfirmen die Stimmung von Kunden und Konsumenten erkennen, Regierungen "verdächtige" Personen an den Grenzen herausfiltern.

Wachsendes Feld

Es ist ein boomendes Feld. Laut Analysen könnte der Markt von Emotion-AI von rund 22 Milliarden US-Dollar im Jahr 2019 auf 56 Milliarden US-Dollar bis 2024 wachsen. Eine Reihe von Start-ups hat sich bereits der Technologie verschrieben. Eines von ihnen, Entropic Tech, gibt beispielsweise an, dass dessen KI durch Daten aus Gesichtsausdrücken, Augenbewegungen, der Tonalität der Stimme und Gehirnströmen auf die Emotionen einer Person schließen kann. Ein anderes, HireVue, nutzt eine KI, um die Fähigkeiten von Bewerbungskandidaten zu messen. Dafür analysiert das Programm Gesichtsausdrücke, Stimmfärbung und andere Faktoren aus Bewerbungsvideos.

Mittlerweile sind auch große Konzerne in das Feld eingestiegen. Apple kaufte 2016 das auf Gesichts- und Emotionserkennung spezialisierte Start-up Emotient. Amazon’s Alexa soll anhand von Spracherkennung feststellen, ob jemand frustriert ist. Und auch Microsoft schluckte 2021 das Unternehmen Nuance, das anhand von Kameras und Gesichtserkennung Emotionen von Autofahrern analysieren soll.

Einblick ins Innerste

Das Interesse kommt nicht von irgendwoher. Einen Einblick in die Emotionen und damit auch das Innerste von Menschen zu bekommen wäre für Big Tech nicht nur spannend, sondern auch äußerst lukrativ. Große Tech-Konzerne haben in den vergangenen Jahren Milliarden an Fotos und Videos zu unseren Gesichtsausdrücken auf Facebook, Tiktok oder Instagram gesammelt, die sich dadurch noch besser analysieren ließen. Wenn Emotionen etwas über unsere Vorlieben und unser Verhalten aussagen, dann ließe sich auch besser einschätzen, welche Produkte wir bevorzugen und wie diese zu unserer aktuellen Stimmung passen. Filmstudios wie Disney und 20th Century Fox nutzen die Technologie etwa bereits, um herauszufinden, wie Zuseher auf einzelne Filme und Shows vor der Veröffentlichung reagieren.

Tatsächlich scheint die Technologie für Konzerne so attraktiv, dass sie ein oder gar beide Augen zudrücken, was ihre wissenschaftliche Untermauerung betrifft. Die meiste Emotionserkennungssoftware von Start-ups und Unternehmen basiert auf dem Ansatz des US-amerikanischen Psychologen Paul Ekman aus den 1970er-Jahren, wonach sich alle Emotionen auf sieben Grundemotionen zurückführen lassen. Dazu zählen laut Ekman Glück, Trauer, Überraschung, Angst, Wut, Ekel und Zufriedenheit. Diese Emotionen würden sich universell überall auf der Welt finden.

Wissenschaftliche Zweifel

Eine Vielzahl an anthropologischen Studien zweifelt diese Annahme jedoch an. Je nach kulturellem und individuellem Hintergrund, Situation und Umgebung sei auch die Art und Weise, wie Menschen Emotionen ausdrücken unterschiedlich. Einige Start-ups wie beispielsweise das Emotionserkennungsunternehmen Hume AI geben daher an, ihre KI mit großen Datensets aus kulturell verschiedenen Regionen in Nordamerika, Afrika und Asien zu füttern, um somit besser verschiedene Emotionen erkennen zu können.

Doch schon die Idee, dass sich Emotionen aus Gesichtsausdrücken oder der Stimme ablesen lassen, stellen viele Wissenschafter infrage. Eine Studie aus dem Jahr 2019, bei der Wissenschafterinnen und Wissenschafter eine Metaanalyse unterschiedlicher Untersuchungen durchführten, kam zu dem Ergebnis, dass es keinen wissenschaftlichen Beweis dafür gibt, dass sich Emotionen aus Gesichtsausdrücken erkennen lassen. Es sei demnach nicht möglich, verlässlich von einem Lächeln auf Glück, von einem finsteren Blick auf Wut oder von einem traurigen Gesichtsausdruck auf Trauer zu schließen. Emotionen seien weit zu komplex, sie allein in dieser Form zu begreifen.

Diskriminierung von Personen

Hinzu kommt, dass die Technologien laut Expertinnen und Experten häufig voreingenommen gegenüber bestimmten Bevölkerungsgruppen sind, was meistens auf die zugrundeliegenden Datensets zurückzuführen ist. Einer KI, die gelernt hat, Gesichter anhand von Videos und Bildern von größtenteils weißen Personen zu analysieren, fällt es schwer, dunkelhäutige Menschen zu erkennen. Bestimmte Programme wiesen dunklen Gesichtern eher negativere und aggressivere Emotionen zu als helleren. Auch die Bekleidung kann eine Rolle spielen. So stufte die KI des Unternehmens Retorio, das Bewerbungskandidaten beurteilt, Menschen mit Brille oder Kopftuch anders ein als andere Kandidaten.

Nicht zuletzt wirft die Gesichtserkennungstechnologie Fragen zur Privatsphäre und Überwachung von Menschen auf. Denn schon jetzt kommt sie immer wieder zum Einsatz, ohne dass die dabei analysierten Personen überhaupt davon wissen. Auch bei der Überwachung von Kindern in Schulen, wie es das Start-up 4 Little Trees plant, und von Mitarbeitern via Webcam im Homeoffice ergeben sich für Experten viele ethische und rechtliche Bedenken.

Reaktion auf Kritik

Einige Unternehmen haben immerhin bereits auf diese Kritik reagiert. Microsoft, IBM und Amazon haben die Entwicklung und den Verkauf von Gesichtserkennungssoftware mittlerweile zurückgeschraubt. Microsoft, das ursprünglich angab, dass die entwickelte KI in der Lage sei, Gesichtsausdrücke und Emotionen quer über alle Kulturen zu erkennen, sagt nun, dass "Gesichtsausdrücke nicht den internen Gefühlszustand von Menschen widerspiegeln". Hirevue, das Bewerbungskandidaten sortiert, gab an, keine Gesichter aus Videos mehr auszuwerten, setzt aber weiterhin auf Stimmanalyse.

Imagenet, eines der größten Datensets, die zur Entwicklung vieler Gesichtserkennungssoftware verwendet wurden, musste aufgrund von Verletzungen der Privatsphäre vieler Menschen im vergangenen Jahr Gesichter auf 1,5 Millionen Fotos unscharf machen. Und in einigen Ländern wurde die Verwendung von Gesichtserkennungssoftware in der Polizeiarbeit oder im Grenzschutz bereits verboten. Vielerorts müssen Unternehmen nun angeben, wenn sie Bewerbungskandidaten mithilfe von KI auswerten.

Verstärkt Ungleichheiten

Nichtsdestotrotz geht die Entwicklung von angeblich Emotionen erkennender künstlicher Intelligenz weiter. Das hat schon jetzt vielerorts Konsequenzen: Bewerbungskandidatinnen werden abgelehnt, weil ihr Aussehen oder ihre Stimmfärbung nicht zu dem anderer Kandidaten passen. Menschen werden an Grenzen befragt, weil ihre Gesichter angeblich Wut oder Aggression ausdrücken. Schüler bekommen eine schlechtere Note, weil sie während der Hausaufgaben öfter abgelenkt oder müde aussahen.

Für viele Expertinnen und Experten sind dies damit jene Gruppen, die die Konsequenzen einer fragwürdigen Technologie ausbaden müssen. Eine, die versucht, die komplexe Welt an Emotionen auf einige wenige Parameter herunterzubrechen – und damit leicht zur Gefahr für viele werden kann. (Jakob Pallinger, 17.2.2022)