Einer der Unterzeichner des offenen Briefs ist Elon Musk.

Foto: Reuters / Dado Ruvic

Als Ende März ein offener Brief des "Future of Life Institute" (FLI) auftauchte, mit dem die Pausierung der KI-Entwicklung gefordert wurde, war die Aufregung groß. Immerhin befinden sich unter den mehr als 2.800 Unterzeichnenden auch Tech-Größen wie Elon Musk, Apple-Mitgründer Steve Wozniak und der Stability-AI-Chef, Emad Mostaque. Sie halten fest, dass fortgeschrittene KI "eine tiefgreifende Veränderung in der Geschichte des Lebens auf der Erde darstellen" würde und "mit entsprechender Sorgfalt" geplant werden solle.

Angesichts des Wettrennens, das die Veröffentlichung des KI-Chatbots ChatGPT in der Tech-Branche ausgelöst hat, wirkt diese Forderung naheliegend. Wenn Firmen wie Microsoft, Google und OpenAI bloß darauf fokussiert sind, die Konkurrenz auszustechen, bleibt wenig Zeit zur Reflektion möglicher Risiken.

Bestehende Risiken ignoriert

Dennoch gibt es laute Kritik an dem Schreiben des FLI, und zwar von prominenten Expertinnen für KI-Ethik. Unter ihnen ist Timnit Gebru, eine ehemals leitende Forscherin in Googles Ethical Artificial Intelligence Team. Gemeinsam mit weiteren Forschenden hat diese ein Statement zur aktuellen Diskussion verfasst, das sie auch auf Twitter diskutiert.

Dort hält sie fest, dass der offene Brief zwar durchaus gute Ideen anspreche. Zum Beispiel, dass man Systeme entwickeln sollte, die synthetische Medien mit einem Wasserzeichen versehen. Die positiven Aspekte würden allerdings "von Angstmacherei und KI-Hype überschattet, der den Diskurs auf die Risiken imaginärer 'mächtiger digitaler Köpfe' mit 'humaner Intelligenz' lenkt".

Die vom FLI aufgeworfenen Sorgen sind laut Gebru auf eine "gefährliche Ideologie" namens "Longtermism" zurückzuführen. Laut dem "Spiegel" sind prominente Anhänger dieser Bewegung zum Beispiel der Meinung, dass hypothetische Risiken wie unkontrollierbare KI-Systeme existenzieller sind als der Klimawandel.

Laut Gebru ist diese Ideologie auch Grund dafür, dass das Schreiben des FLI all jene Schäden und Gefahren ausblendet, die schon heute auf den Einsatz von KI zurückzuführen sind. Weder die Ausbeutung von Arbeitskräften noch der massive Datendiebstahl, ohne den die beliebtesten Produkte gar nicht funktionieren würden, werden in diesem angesprochen.

Billiglohnkräfte

Ein konkretes Beispiel für die von Gebru angesprochene Ausbeutung, liefert ausgerechnet ChatGPT. Im Jänner deckte ein "Time"-Bericht auf, dass OpenAI kenianische Billiglohnkräfte angeheuert hat, um den beliebten Chatbot zu trainieren. Arbeiter sollen weniger als zwei Dollar pro Stunde bekommen haben, um ChatGPT die Erkennung toxischer Inhalte beizubringen. Dabei sollen sie regelmäßig Beschreibungen von Mord, Folter und sexualisierter Gewalt gegen Kindern ausgesetzt gewesen sein. Ein reales Beiprodukt von künstlicher Intelligenz also, von dem im Schrieben des FLI kein Wort zu hören ist.

Aber das sind nicht alle Risiken, vor der die Wissenschafterin warnt: Die explosionsartige Zunahme synthetischer Medien würde "sowohl Unterdrückungssysteme reproduzieren als auch unser Informationsökosystem gefährden", schreibt diese. Dass das Future of Life Institute über die Möglichkeit einer KI mit eigenem Bewusstsein spreche, blähe die Fähigkeiten generativer Systeme außerdem gewaltig auf. Den Menschen werde dadurch vorgegaukelt, dass "hinter den synthetischen Medien ein fühlendes Wesen steht".

Ablenkungsmanöver

Das führe einerseits dazu, dass Nutzerinnen und Nutzer den Ergebnissen, die Tools wie ChatGPT ausspucken, blind vertrauen würden. Vor allem aber lenke es davon ab, dass die Verantwortung nicht bei den KI-Systemen selbst liege, sondern bei den Unternehmen, die diese entwickeln. Laut Gebru sollten genau diese Firmen deshalb "verpflichtet sein, die Trainingsdaten und Modellarchitekturen zu dokumentieren und offenzulegen".

Stattdessen argumentiere das FLI laut Gebru, dass sich die Gesellschaft "an eine scheinbar vorherbestimmte technologische Zukunft" anpassen müsse. Dass KI "dramatische wirtschaftliche und politischen Umwälzungen" mit sich bringe, mit denen man sich abfinden müsse. Dabei sei das aktuelle Wettrennen großer Konzerne einfach nur das Ergebnis einer "Reihe von Entscheidungen, die von Profitdenken angetrieben werden".

Während Elon Musk, Steve Wozniak und Co also vor abstrakten, hypothetischen Gefahren und Risiken warnen, fordern Forschende wie Timnit Gebru konkrete Regulierungen – mit denen die Rechte und Interessen von Menschen geschützt werden. (mick, 2.4.2023)