Künstliche Intelligenz neigt dazu, menschliche Vorurteile zu kopieren. Um das zu verhindern, greift Open AI zu Billiglohnkräften.

Foto: Getty Images/iStockphoto

Es ist eines der zentralen Probleme bei der Entwicklung von künstlicher Intelligenz (KI): Wie verhindert man, dass diese all die Vorurteile, all den Hass, der im Internet zu finden ist, reproduziert? Dieses Problem des "Bias" stellt sich generell bei allen Formen des Maschinenlernens, bei großen Sprachmodellen wie dem Chat GPT zugrundeliegenden GPT-3 ist das aber besonders virulent. Eben weil hier weite Teile des Internets als Trainingsmaterial verwendet werden, eine Auswahl also nur begrenzt möglich ist.

Der menschliche Faktor

Bei Chat GPT heißt die Antwort darauf: Menschen. Und zwar Menschen, die der KI manuell beibringen, was eine passende Antwort ist und was nicht. So lernt diese nach und nach, was passendes Verhalten ist, tatsächlich neigt der Chatbot von Open AI im Gegensatz zu vielen seiner Vorgängern nicht zu rassistischen oder sexistischen Ausfällen.

Das ist erfreulich, hat aber auch eine dunkle Seite, die nun ein Bericht von "Time" offenlegt. Das Training von Chat GPT soll nämlich von der kenianischen Firma Sama vorgenommen worden sein, deren Mitarbeiter dafür dann weniger als zwei Dollar pro Stunde bekommen haben sollen. Vor allem aber sollen sie dafür die dunkelsten Seiten der menschlichen Natur präsentiert bekommen haben.

Problematische Inhalte

Im Fall von Chat GPT soll das Training nämlich so abgelaufen sein, dass der KI beigebracht wurde, was toxische Inhalte sind. Konkret sieht das dann so aus, dass die Mitarbeiter all diese Inhalte manuell mit entsprechenden Labels versehen, mithilfe derer die KI dann nach und nach lernt, was sie aussortieren soll.

Zu diesem Zweck sollen ab November 2021 zehntausende Negativbeispiele an die besagte Firma geschickt worden sein. Laut dem Bericht sollen darunter auch Beschreibungen von Mord, Folter oder auch sexualisierter Gewalt gegen Kinder gewesen sein.

Stellungnahme

Bei Open AI widerspricht man dieser Darstellung auch gar nicht, sieht all dies aber als essenziell in der Entwicklung von künstlicher Intelligenz an. "Die Klassifizierung und das Filtern von schädlichen Inhalten ist ein notwendiger Schritt zur Minimierung von gewalttätigen und sexuellen Inhalten in Trainingsdaten sowie bei der Entwicklung von Tools, die so etwas entdecken können", heißt es in einer Stellungnahme.

Tatsächlich ist so eine Praxis nicht ungewöhnlich. So wird die besagte Firma namens Sama auch von anderen großen Softwareherstellern wie Google, Meta und Microsoft für das Training von künstlicher Intelligenz eingesetzt. Sie wirbt gar damit, dass sie als "ethisches KI-Unternehmen" bisher 50.000 Menschen geholfen hat, der Armut zu entkommen.

Der Bericht zeigt aber auch, dass die Betroffenen das nicht immer so sehen. So werden Mitarbeiter von Sama zitiert, die angeben, dass die Arbeit traumatisierend sei und sie gewisse gewalttätige Beschreibungen nicht mehr aus dem Kopf bekämen.

Unerfreuliches auslagern

Es ist nicht das erste Mal, dass Sama negativ in die Schlagzeilen kommt. So hatte "Time" die kenianische Firma vor einem Jahr als "Facebooks afrikanischer Sweatshop" bezeichnet. Übernimmt diese doch zum Teil auch die Inhaltemoderation für Meta, zu einem Gehalt von damals rund 1,50 Dollar pro Stunde müssen sich die Angestellten damit alle möglichen Abgründe der Menschheit ansehen. Darunter ebenfalls sexuellen Missbrauch von Kindern oder auch Hinrichtungen. (red, 21.1.2023)