Bild nicht mehr verfügbar.

Ein Mast mit Überwachungskameras in Peking.

Foto: Reuters

Schon länger ist China wegen Repressionen gegen die im Westen des Landes, vorwiegend in der autonomen Region Xinjiang, beheimateten Uiguren in der Kritik. Angehörige der großteils muslimischen Minderheit sollen laut Berichten in Internierungs- und Umerziehungslager gesteckt und durch aggressive Siedlungspolitik politisch geschwächt werden.

Westliche Beobachter sehen im Vorgehen Chinas einen Versuch, die Uiguren zu "sinisieren" und der Volksgruppe ihr kulturelles und religiöses Gedächtnis zu nehmen. Die Forscherin Rachel Harris spricht in einem Leitartikel für das Center for Global Policy gar von einem "kulturellen Genozid". Ähnliche Worte hatte in der Vergangenheit auch schon US-Außenminister Mike Pompeo verwendet.

Teil der Unterdrückung ist auch ein – selbst im Vergleich zu anderen Landesteilen – verschärftes Überwachungsregime. An dessen Umsetzung soll sich auch Huawei beteiligt haben, berichtet nun die "Washington Post". Der Konzern soll eine von künstlicher Intelligenz gestützte Gesichtserkennungssoftware erprobt haben, die darauf trainiert war, Uiguren zu erkennen.

IPVM

Vereinbarung entdeckt

Laut einem von Huawei-Vertretern unterzeichneten Dokument soll Huawei 2018 mit dem Pekinger Start-up Megvii zusammengearbeitet haben, das sich auf Gesichtserkennung spezialisiert hat. Die von der Firma entwickelte Software soll Gesichter in Menschenmengen analysiert und Daten wie Geschlecht, Alter, aber auch Ethnie errechnet haben. Sollte die Software eine Person für einen Uiguren halten, so ist sie in der Lage, eine Alarmmeldung an die Polizei zu übermitteln. Megvii steht seit vergangenem Jahr wegen des Vorwurfs von Menschenrechtsverstößen auf einer Sanktionsliste der USA.

Aus dem Schriftstück geht hervor, dass Huawei für diesen Test unter anderem Kameras, Server, Cloud-Infrastruktur und andere Hilfsmittel bereitgestellt hat. Entdeckt wurde die Vereinbarung von IPVM, einer Organisation, die sich auf die Beobachtung von Videoüberwachungsmaßnahmen spezialisiert hat, auf einem Server von Huawei. Nachdem die "Washington Post" den Konzern und Megvii um eine Stellungnahme gebeten hatte, wurden laut IPVM die Datei und auch andere "Beweise" in Bezug auf das Projekt entfernt.

Die Vereinbarung zeige, wie "erschreckend" und "komplett normalisiert" derart diskriminierender Einsatz solcher Technologie in China geworden sei. Es handle sich schließlich nicht um ein einzelnes, unwichtiges Unternehmen, sondern um ein systematisches Vorgehen.

Huawei: System wurde nie eingesetzt

Huawei und Megvii bestätigten die Echtheit des Dokuments. Huawei erklärte, dass es sich "nur um einen Test" gehandelt habe und es nie zu einer tatsächlichen Verwendung in der realen Welt gekommen sei. Man habe auch nur "allgemeine Produkte" dafür bereitgestellt, aber keine eigens entwickelten Algorithmen oder Anwendungen. Megvii hielt lediglich fest, dass die Systeme des Unternehmens "nicht dafür ausgestaltet sind, ethnische Gruppen zu identifizieren".

Das chinesische Außenministerium reagierte auf die Anfrage der "Washington Post" nicht. China hat Vorwürfe der systematischen Unterdrückung der Uiguren stets zurückgewiesen, mit Sicherheit argumentiert und darauf verwiesen, dass es sich um eine "innere Angelegenheit" handle.

Sorgen vor Unterdrückungs-Export

Maya Wang, eine Forscherin von Human Rights Watch, erklärt, dass Chinas Überwachung mittlerweile weit über die Verfolgung von Minderheiten hinausgehe. Systeme wie jenes, das von Huawei und Megvii erprobt wurde, könnten künftig auch in anderen Ländern auftauchen, in denen die Regierung die Kriminalisierung von Minderheiten anstrebt.

Gesichtserkennung steht allgemein in der Kritik, auch bei KI-Experten. Denn die Zuverlässigkeit der von solchen Systemen ausgespuckten Informationen ist alles andere als gesichert, spielen doch Faktoren wie die genutzten Kameras, Lichtverhältnisse und Hautfarbe eine Rolle. Zudem sei es auch nicht so einfach möglich, Menschen aufgrund äußerlicher Kriterien einer Volksgruppe zuzuweisen.

Von erheblicher Bedeutung sind zudem die Daten, mit denen solche Systeme zwecks Training gefüttert werden. Diese bilden oft hauptsächlich weiße Personen ab, was einer der Gründe dafür sein soll, dass es speziell bei Personen mit dunklerer Hautfarbe immer wieder zu Fehlerkennungen kommt, die mitunter in die Inhaftierung Unschuldiger mündeten. (gpi, 9.12.2020)