Stanford/Wien – Die Fortschritte der künstlichen Intelligenz haben dem Menschen einige Kränkungen beschert. Längst spielen Maschinen besser Schach als Menschen, selbst beim Brettspiel Go oder bei Poker, die lange als "unprogrammierbar" galten, ist künstliche Intelligenz seit Kurzem besser und lässt Menschen – zumindest bei Go – keine Chance mehr.

Solche selbstlernenden Programme können aber auch eine große Hilfe darstellen: als Online- Übersetzungshilfen etwa oder in der Medizin, um Tumorgewebe besser zu erkennen. Die jüngsten Errungenschaften eines lernfähigen Programms werfen freilich auch einige ethische Fragen auf.

Trainierte Gesichtserkennung

Michal Kosinski und Yilun Wang von der kalifornischen Stanford University ist es nämlich gelungen, eine Gesichtserkennungssoftware so zu "trainieren", dass sie aus Porträtfotos einigermaßen gut ablesen kann, ob die abgebildete Person homo- oder heterosexuell ist. Und die beiden Forscher haben noch vor der Veröffentlichung der im Netz frei verfügbaren Studie im "Journal of Personality and Social Psychology" in einem Begleitkommentar selbst auf unerwünschte Auswirkungen solcher Programme hingewiesen.

Was aber kann die Software tatsächlich? Und was sind die Probleme, die ihre Programmierer damit haben? Kosinski und Wang haben für ihre Studie und die selbstlernende Software mehr als 300.000 Porträtfotos von gut 75.000 Personen von einer populären US-amerikanischen Dating-Plattform heruntergeladen, deren Namen die Forscher übrigens diskret verschweigen.

Analysierter "Gesichtsabdruck"

Mit den 35.326 brauchbarsten Fotos von 14.776 Personen – männlich und weiblich, homo- und heterosexuell – wurde eine Gesichtserkennungssoftware namens VGG-Face gefüttert, die nach charakteristischen "Gesichtsabdrucken" sucht und Korrelationen zwischen diesen und der sexuellen Orientierung herstellte. Laut den Forschern haben homosexuelle Männer etwas femininere Züge, schmälere Kiefer, längere Nasen und eine höhere Stirn, homosexuelle Frauen tendenziell maskulinere Züge.

Die beiden Fotos links sind überlagerte Porträts heterosexueller Personen, die Fotos in der Mitte wurden aus Porträts homosexueller Menschen erstellt. Die Zeichnungen rechts markierten "typisch heterosexuelle" und "typisch homosexuelle" Gesichtszüge.
Illustration: Kosinski und Wang, Stanford University

Besser als menschliche Betrachter

Wurden dem Programm nach der Lernphase Fotos von jeweils zwei Männern oder Frauen vorgelegt, von denen eine Person hetero-, die andere homosexuell ist, erriet es die sexuelle Orientierung bei Männern mit 91 Prozent Wahrscheinlichkeit, im Falle von Frauen mit 83 Prozent. Im Vergleich dazu kamen Menschen nur auf 61 Prozent richtige Einschätzungen bei Männern und 54 Prozent bei Frauen.

Das Programm hat freilich auch seine Grenzen: Sollte es aus 1000 zufällig ausgewählten Männern auf der Basis von jeweils mehr als fünf Fotos jene 100 Männer auswählen, die am ehesten schwul sind, lag es relativ oft daneben: Von den 100 ausgewählten Männern waren tatsächlich nur 47 homosexuell.

(Selbst-)Kritischer Begleittext

Wie die Forscher in einem Begleittext schreiben, hätten sie lange überlegt, ob sie ihre Studie überhaupt publizieren sollten. Denn zum einen werden fast überall auf der Welt homosexuelle Menschen nach wie vor diskriminiert, in manchen Ländern besteht für sie Lebensgefahr. Zum anderen stelle die Fähigkeit einer Software, Personen aufgrund ihrer Fotos zu kategorisieren, ein ernsthaftes Eindringen in die Privatsphäre von Menschen dar.

Realität der "post-privaten" Welt

Da Kosinski und Wang aber davon ausgehen, dass ähnliche Programme zur Kategorisierung von Menschen bereits im Einsatz sind, hätten sie sich dennoch zur Veröffentlichung entschlossen. Aufgrund der Allgegenwart von Kameras und der sozialen Medien seien Gesetze zum Schutz der Privatheit ihrer Meinung nach zum Scheitern verurteilt.

Der Schutz von Homosexuellen und anderen Minderheiten hänge letztlich in einer "post-privaten Welt" daher auch nicht von einer gut geschützten Privatsphäre ab, sondern von der Durchsetzung der Menschenrechte. (Klaus Taschwer, 8.9.2017)

Vortrag von Erstautor Michal Kosinski über das Ende der Privatheit.
cebitchannel