Bild nicht mehr verfügbar.

Offiziell nutzt die Ukraine die künstliche Intelligenz nur dazu, tote Soldaten zu identifizieren.

Foto: APA/AFP/YURIY DYACHYSHYN

Wer diese Zeilen liest, könnte bereits in der Datenbank des US-amerikanischen Start-ups Clearview AI sein. In den letzten Jahren sammelte die Firma etwa drei Milliarden Bilddaten von Social-Media-Plattformen wie Facebook, Youtube und anderen – meistens ohne um Erlaubnis zu fragen, was bereits mehrere Klagen nach sich gezogen hat. Nun hat der CEO Hoan Ton-That ein neues Geschäftsfeld entdeckt – den Krieg in Europa.

Der Unternehmer bot der ukrainischen Regierung kurz nach Kriegsbeginn die umstrittene Technologie an, um beispielsweise Tote zu identifizieren. Der Deal wurde akzeptiert, "aus Höflichkeit gegenüber den Müttern", wie der ukrainische Vizepremierminister Mykhailo Fedorow Ende März in einer Stellungnahme bekannt gab. So sammelt die Clearview-Datenbank weiter Fotos von Menschen, die nicht um Erlaubnis gefragt werden, egal ob tot oder lebendig.

Spiel mit dem Tod

In einer ausführlichen Reportage hat die "BBC" vor einigen Tagen Anwendungsfälle der künstlichen Intelligenz Clearview AI im Kriegsgebiet zusammengetragen. Bereits über 1.000 Fälle sind dem Nachrichtenmagazin bekannt, bei denen die Technologie eingesetzt wurde. Ein Beispiel ist ein toter Mann, der in der Nähe von Charkiw entdeckt wurde. Nachdem sein Gesicht aufgenommen und in die Clearview-Datenbank gespeist wurde, fand man tatsächlich bald andere Fotos von einem Mann, der dem Toten sehr ähnlich sah und aufgrund eines Tattoos letztlich identifiziert werden konnte.

Solche Technologien in einem Krieg einzusetzen ist nicht neu. So erzählte der Investigativjournalist Aric Toler gegenüber der "BBC", dass Gesichtserkennungs-Software auch schon in Syrien eingesetzt wurde, etwa um einen russischen Verdächtigen zu identifizieren, der bei einer Hinrichtung anwesend war. In Russland nutze man etwa FindClone, um tote Soldaten der eigenen Seite zu identifizieren. Auch dieser Vertreter der Gesichtserkennung durchforstet das Internet nach passenden Fotos und hat zusätzlich Zugriff auf russische Social-Media-Plattformen.

Was viele Menschen immer wieder überrascht ist, dass sie auch dann gefunden werden, wenn sie selbst beispielsweise gar keinen Social-Media-Account haben. "Wenn man selbst keinen Account hat, dann aber vielleicht die eigene Frau oder die Freundin… und dann lebt man auch noch zufällig in einem kleinen Dorf mit einer Militärbasis in der Nähe," erklärt Toler den Nutzen dieser Datenbanken auch für seine investigative Arbeit. Manchmal reiche es schon, wenn man nur im Hintergrund eines Gruppenfotos stünde – schon sei man potenziell Teil einer dieser Datenbanken.

Der CEO von Clearview, Hoan Ton-That, gibt immer wieder Interviews. Kritische Fragen werden meist heruntergespielt.
Foto: Seth Wenig

Simple Idee

Die Idee hinter Clearview AI und Co. ist einfach. Zunächst sammelt man unzählige Fotos und Porträts aus dem Internet. Danach kann man ein beliebiges Foto in das Suchfeld schieben, wie man das etwa bei Google zumeist mit Wörtern oder Sätzen macht. Die Firmen hinter diesen Datenbanken, die sich auf selbst entwickelte künstliche Intelligenzen verlassen, schwärmen von der Treffsicherheit ihrer Produkte. Kritiker sehen das nicht ganz so euphorisch, speziell, wenn man diese Software in Kriegsgebieten einsetzt.

So hat Clearview AI bereits zugegeben, dass die künstliche Intelligenz nicht nur zur Identifikation von Toten in der Ukraine eingesetzt wird, sondern auch an wichtigen Stützpunkten, um russische Agenten zu entlarven. Falsche Interpretationen von Ergebnissen können dann im schlimmsten Fall zur Tötung von Unschuldigen führen, warnen Kritiker. So mancher, etwa der Gründer von Surveillance Technology Oversight Project (S.T.O.P.) Albert Fox Cahn, spricht von einer sich entwickelnden "Menschenrechts-Katastrophe", die sich hier anbahne.

Schon seit Jahren wird Gesichtserkennungs-Software offenbar auch in Kriegen eingesetzt.
Foto: Rodrigo Abd

Eingesetzt von Regierungen

Laut eigenen Angaben von Clearview AI, wird die Technologie bereits von rund 3.200 Regierungsbehörden weltweit eingesetzt und immer wieder äußern sich Kritiker zur Anwendung. EU-Aktivisten reichten beispielsweise im Jahr 2021 Beschwerde gegen die Gesichtserkennungssoftware ein mit dem Vorwurf, die künstliche Intelligenz würde aus Milliarden an Fotos im Netz eine Biometrie-Datenbank für Behörden erstellen. "Nur weil etwas online ist, ist es nicht automatisch Freiwild, das sich andere auf beliebige Weise aneignen können – das ist weder moralisch noch rechtlich zulässig", sagte damals auch Alan Dahi, Datenschutzjurist der österreichischen Datenschutzorganisation noyb.

Clearview AI sieht sich im Recht und arbeite laut eigenen Aussagen innerhalb des Rechtssystems. Viele würden die Technologie "missverstehen", ist immer wieder zu lesen. Deshalb würde man auch die Technologie keinem autoritären System zur Verfügung stellen – auch mit Russland würde man nicht zusammenarbeiten, so das Unternehmen in einer Stellungnahme.

Das Militär scheint hingegen ein gern gesehener Kunde zu sein. Aktuell arbeitet die Tech-Firma an Augmented-Reality-Brillen mit eingebauter Gesichtserkennung, die beispielsweise dem Pentagon zur Verfügung gestellt werden sollen. Auch das wird wohl für Unruhe bei Datenschützern und Menschenrechtsorganisationen sorgen. (aam, 16.4.2022)