Gesichtserkennung könne von autoritären Regierungen für bösartige Zwecke genutzt werden – davor wolle Michael Kosinski warnen.

Foto: APA/AFP/SAUL LOEB

Der Forscher Michal Kosinski hat Schlagzeilen gemacht, längst, bevor der Datenskandal um das Analyseunternehmen Cambridge Analytica bekannt wurde. Schon 2016 warnte der Professor für organisatorisches Verhalten an der Stanford University davor, was alles mittels Big Data möglich ist.

Sexualität vorhersehbar

Nun behauptet der Professor in einer umstrittenen Arbeit, anhand von Algorithmen bei der Gesichtserkennung unterscheiden zu können, ob jemand hetero- oder homosexuell ist. Auch könne man erkennen, welche Emotionen jemand empfindet, welchen IQ er hat und ob er dazu veranlagt ist, ein Verbrechen zu begehen. Er behauptet in einem nicht-veröffentlichten Paper sogar, er erkenne, ob jemand US-Republikaner oder Demokrat sei – wobei es hier zu Fehlern komme, wenn jemand einen Bart trägt oder nicht.

Zufällig erkannt

Es sei aber nie sein Plan gewesen, zu zeigen, dass Künstliche Intelligenz die Sexualität voraussagen kann, wie er dem Guardian erzählt. Eher sei er über die Entdeckung gestolpert, als er auf Facebook Profile betrachtete und bemerkte, dass introvertierte und extrovertierte Person unterschiedliche Gesichter hatten. Die Praktik, die Persönlichkeit eines Menschen anhand des Gesichts vorauszusagen, ist bereits seit Jahrhunderten gängig. Unter dem Namen "Physiognomie" wurden oft zutiefst rassistische Ressentiments verbreitet – etwa, dass Kriminelle immer wie "Gorillas" aussehen. Kosinski sieht hingegen Physiognomie als Mischung aus Aberglaube und Rassismus – stattdessen greife man auf neuronale Netzwerke. Bei 35.326 Fotos sei es so möglich gewesen, bei Männern zu 81 Prozent und bei Frauen zu 74 Prozent vorauszusagen, ob sie schwul, lesbisch oder hetero sind. Wenn der KI fünf Fotos nebeneinander angezeigt wurden, konnte sie zu 91 Prozent bei Männern und bei 83 Prozent bei Frauen die Sexualität vorhersagen. Menschen würden bei Männern zu 61 Prozent, bei Frauen zu 54 Prozent solche Voraussagen treffen können.

Gefährliche Technologie in den Händen autoritärer Regierungen

Für diese Ergebnisse erlebte Kosinski einen Shitstorm – heute nennt er es das "Paradoxon", welches entstehe, wenn man Menschen vor gefährlichen Technologien warne. Er hatte nicht vor gehabt, die Ergebnisse zu publizieren, bevor ihn ein Kollege darauf aufmerksam machte, ob er mit sich selbst leben könne, wenn eines Tages eine autoritäre. Regierung solche Methoden anwenden würde.

Kosinski traff russisches Kabinett

Bevor Kosinski die Ergebnisse veröffentlichte, traf er im vergangenen Jahr Putins Kabinett in der Nähe vom russischen Moskau. Die Anwesenden, darunter etwa Russlands Außenminister Sergei Wiktorowitsch Lawrow, sollen bestens über seine bisherige Arbeit informiert gewesen sein, darunter etwa Rercherchen im Bereich der Massenüberzeugung und der künstlichen Intelligenz. Seine Arbeit soll Cambridge Analytica zu ihrer Arbeit inspiriert haben. Das Unternehmen hat mittels der Daten von Millionen Facebook-Nutzern Psychogramme erstellt. Dadurch konnte personalisierte Wahlkampfwerbung – unter anderem für den US-amerikanischen Präsidenten Donald Trump – ausgespielt werden.

Bereit, Grenzen zu überschreiten

Das Interesse der russischen Regierung habe er an sich gezogen, da er bereit ist, über Grenzen zu gehen, die andere scheuen. Dem Guardian sagt er, dass er zwar traurig darüber sein kann, dass die Privatsphäre verloren geht, dies aber nichts daran ändert, dass sie bereits weg ist und es keinen Weg gibt, sie zurückzubekommen. Daher wolle er die Gefahren aufzeigen. Er könne aber auch sehen, wie solche Technologien genutzt werden, um potentiell gefährliche Menschen vorbeugend in der Öffentlichkeit zu erkennen.

Inspiration für Cambridge Analytica

2013 hatte Kosinski eine Studie veröffentlicht, die behauptete, die Persönlichkeit einer Person anhand von Facebook-Likes voraussagen zu können. Anhand von Big Data kam man etwa zu Ergebnissen, wie, dass Menschen, die "iPod" auf Facebook gelikt haben, vermutlich unzufrieden mit ihrem Leben sind. Wenn der Algorithmus mit genug Likes gefüttert wurde, könne er mehr über eine Person voraussagen, als es Freunde aus dem echten Leben tun könnten. Auf diese Weise sei eine "digitale Massenüberzeugung" möglich.

Diese Ergebnisse – und die gesammelten Daten, um sie zu bekommen – wollte Cambridge Analytica von Kosinski und seinen Kollegen kaufen. Als das nicht funktionierte, kaufte das Unternehmen stattdessen jene des Cambridge-Professors Aleksandr Kogan. "Das ist nicht meine Schuld", sagte Kosinski zu dem Schweizer Tagesanzeiger vor Jahren in einem Interview. "Ich habe die Bombe nicht gebaut. Ich habe nur gezeigt, dass es die Bombe gibt." (red, 8.7.2018)