So oder so ähnlich stellt sich Hollywood eine dystopische KI-Zukunft vor.

(Dieses Bild wurde von der Bilder-KI Midjourney generiert. Der Prompt lautete: "Capture the essence of the potential catastrophic impact of AI on humanity in an editorial photo. Use a dystopian and futuristic style, with high contrast and sharpness. Set the camera to a low aperture for a shallow depth of field, and adjust the ISO and shutter speed accordingly to create an otherworldly atmosphere. In the photo, show a dark, post – apocalyptic scene with machines towering over destroyed buildings and a lone human figure in the foreground, depicting the helplessness of humans in the face of advanced AI.")

Foto: Midjourney/Stefan Mey

Autonome Drohnen surren durch den wolkenverhangenen Himmel und suchen die verwüstete Metropole nach Überlebenden ab. Versteckt in Kellern und Erdlöchern ist es nur noch ihr Überlebenswille und der Glaube an eine bessere Welt, der die verbliebene Bevölkerung gegen die alles beherrschende künstliche Superintelligenz ausharren lässt. So oder so ähnlich sieht das Szenario aus, das von dystopischen Science-Fiction-Filmen strapaziert wird – und wegen des KI-Hypes wieder in den Köpfen vieler Menschen herumspukt.

Chatbots wie ChatGPT haben die Welt im Sturm erobert. Sie sind kostenlos verfügbar und einfach zu bedienen, sie lösen Hausaufgaben, schreiben Gutenachtgeschichten und erstellen erste Entwürfe für Programmiercodes. Doch wie die meisten technologischen Errungenschaften birgt auch künstliche Intelligenz Gefahren. Allzu schnell kann es passieren, dass ChatGPT und seine Konkurrenz auf einmal unangemessene oder erfundene Dinge schreiben. Dass sie behaupten, sich in Userinnen zu verlieben – und den dystopischen Gedanken äußern, die Menschheit auslöschen zu wollen. In solchen Situationen ist die Versuchung groß, der Software menschliche Eigenschaften zuzuschreiben und sich die Frage zu stellen, ob sie irgendwann ein eigenes Bewusstsein entwickeln wird, um sich gegen ihre Schöpfer zu richten.

Drohender Kontrollverlust

Was die meisten als Fiktion identifizieren, halten andere für eine echte Bedrohung, wie ein offener Brief des US-amerikanischen Future of Life Institute (FLI) verdeutlicht. Unterzeichnet von prominenten Persönlichkeiten aus der Tech-Branche, darunter Tesla-Chef Elon Musk und Apple-Mitgründer Steve Wozniak, fordert dieser ein Pausieren von KI-Experimenten. Die Risiken einer "dem Menschen ebenbürtigen Intelligenz" seien so groß, dass sie einen "Verlust der Kontrolle über unsere Zivilisation" nach sich ziehen könnten. KI, so das fatale Urteil, könne der Menschheit über den Kopf wachsen, sie überflüssig machen und am Ende des Tages sogar ersetzen.

Unterstützung erhält das Schreiben des FLI sogar aus Österreich. Einer der mittlerweile mehr als 10.000 Unterzeichnenden ist Martin Welk, außerordentlicher Professor für biomedizinische Bildanalyse an der Tiroler Privatuniversität UMIT. "Ich wage nicht auszudenken, was die ungebremste Weiterentwicklung in zwei Jahren für Systeme hervorbringt", sagt der Wissenschafter im STANDARD-Gespräch. Wenn man dem aktuellen Trend nicht entgegensteuere, sei es bald unmöglich, zwischen wahr und falsch zu unterscheiden – auch deshalb, weil von KI erstellte Inhalte immer menschlicher wirken würden.

"Superintelligenz" oder neue Religion

Ihren Ursprung haben die im offenen Brief aufgeworfenen Befürchtungen in verschiedenen Theorien, die schon lange vor dem aktuellen Hype aufkamen und KI eine maßgebliche Rolle bei der Gestaltung der Zukunft attestieren. Am bekanntesten ist jene der "Singularity", die das Entstehen einer technologischen "Superintelligenz" prognostiziert, die sich selbst immer weiter verbessern kann und irgendwann die Summe aller menschlichen Intelligenz überragt.

Die Menschheit wird durch die KI vernichtet – oder geht sie doch eine Fusion mit der Maschine ein? (Prompt für dieses Bild: Editorial style photo with unhappy people looking to the left in the front. The people are dresssed in rags. Evil looking, dark obots, a cloudy sky and a destroxed picture in the background. Use cold color grading and a high contrast. Take the photo with a fast shutter speed and high aperture to capture the details. Use a wide angle to capture much of the scene.)
Foto: Midjourney/Stefan Mey

Der Computerwissenschafter und Autor Ray Kurzweil prognostizierte 2005 in seinem Buch The Singularity Is Near, dass dieser Zustand im Jahr 2045 erreicht werde. Eine weitere Theorie ist der "Dataismus", den der israelische Historiker Yuval Noah Harari – ebenfalls ein Unterzeichner des offenen Briefs – 2015 in seinem Buch Homo Deus skizzierte. Den Dataismus beschreibt Harari als eine neue Art Religion, die Menschen als Datensätze wertet und die größtmögliche Verknüpfung ebendieser als oberstes Ziel sieht. Bei der Auswertung dieser Daten soll KI der große Treiber sein – was schließlich zu einem neuen, gottgleichen Menschentypus führen soll.

Prominente Kritikerinnen

Es dauerte deshalb nicht lange, bis sich prominente Kritikerinnen zu Wort meldeten. In einer gemeinsamen Stellungnahme warnen zum Beispiel die KI-Ethikerinnen Timnit Gebru und Emily Bender, dass das FLI mit "Angstmacherei und KI-Hype" von den wahren Gefahren ablenke. Schon heute würden Menschen durch künstliche Intelligenz zu Schaden kommen.

In diese Kerbe schlägt auch Sandra Wachter, Professorin für Technologie und Regulierung an der Universität Oxford. Im STANDARD-Gespräch übt sie harte Kritik an dem offenen Brief und der dahinterstehenden Ideologie des "Longtermism": Dass ein Szenario wie jenes aus den Terminator-Filmen eintrete, sei extrem unwahrscheinlich, falle geradezu in den Bereich der Science-Fiction und lenke überdies von den realen, schon heute existierenden Problemen rund um KI ab.

Wachter und andere verweisen auf das Phänomen der Ausbeutung durch beliebte Services wie ChatGPT – Ausbeutung von geistigem Eigentum und von Menschen. So wurdden Bilder-KIs wie Midjourney und Stable Diffusion anhand von Unmengen gestohlener Kunstwerke trainiert – und dank künstlicher Intelligenz wird es wesentlich einfacher, das Internet mit Desinformation und immer realistischeren Deep Fakes zu überschwemmen.

Ausbeutungssysteme

Auch Wissenschafterinnen wie Gebru und Bender warnen vor einer explosionsartigen Zunahme synthetischer Medien. Die fast unaufhaltbare Verbreitung ebendieser würde bestehende Unterdrückungssysteme reproduzieren und das Informationsökosystem gefährden, schreiben sie in ihrem Statement.

Ein praktisches Beispiel für Ausbeutungspraktiken liefert der Publikumsliebling Open-AI. Erst im Jänner deckte das Time-Magazin auf, dass der ChatGPT-Hersteller kenianische Billiglohnkräfte angeheuert hat, um seinen Chatbot zu trainieren. Um weniger als zwei Dollar pro Stunde sollen Arbeiterinnen und Arbeiter regelmäßig Beschreibungen von Mord, Folter und sexualisierter Gewalt gegen Kinder ausgesetzt gewesen sein – damit Userinnen und User im Anschluss keine toxischen Inhalte zu sehen bekommen.

Wachter erwähnt außerdem das Problem des "AI Bias". KI-Systeme werden vor allem mit den Inhalten weißer Männer aus den USA gefüttert, wodurch deren Weltbild auch die gigantischen Datenbanken der Unternehmen dominiert. Nicht zu vergessen ist zudem die Klimakrise. KI-Systeme brauchen Rechenleistung, deren ökologischer Fußabdruck bisher nicht ausreichend erforscht wurde.

Ausbeutung, Urheberrecht und Fake News sind schon heute reale Probleme. (Prompt: Capture an image that symbolizes the challenge of ensuring transparency and accountability in reporting amidst the prevalence of fake photos and AI – generated images. Consider the ethical and legal implications of these images in the age of digital media. Show how media outlets can navigate these challenges and the role journalists and researchers play in verifying the authenticity of photos and images. Your image should convey a sense of urgency and importance, while also highlighting the need for careful consideration of the impact of these images on the public trust in journalism. Style: Documentary/ Reportage Camera settings: ISO 400, shutter speed 1/ 200, aperture f/ 5. 6 Lighting: Natural/ ambient light)
Foto: Midjourney/Stefan Mey

Auf der anderen Seite seien es laut Timnit Gebru, Emily Bender und Kolleginnen gerade erst Warnungen wie jene des FLI, die Menschen auf die Idee bringen, künstlicher Intelligenz ein eigenes Bewusstsein zuzuschreiben. Der offene Brief blähe die Fähigkeiten generativer KI-Systeme gewaltig auf und gaukle den Menschen vor, dass "hinter den synthetischen Medien ein fühlendes Wesen steht". Das führe dazu, dass Nutzer den Ergebnissen der Tools blind vertrauen, vor allem lenke es aber davon ab, dass nicht die KI selbst, sondern ihre Entwickler für die Inhalte verantwortlich sind.

Wachter nimmt in diesem Kontext gar den Begriff "künstliche Dummheit" für KI in den Mund: Es handle sich schlicht um stupide Software, die nicht weiß, was sie tut. Eine Seele habe diese nicht, sie sei lediglich gut darin, erlernte Muster nachzuahmen.

Oder doch bedrohlich?

Briefunterzeichner Welk hält zwar auch die Sorgen von Gebru, Bender und Co für angebracht, fordert aber alle dazu auf, auch die Szenarien des FLI ernst zu nehmen. "Für mich sind die Gefahren, die da beschrieben werden, realer, als die Kolleginnen es einschätzen", sagt er. Zwar glaube auch er nicht, dass KI in naher Zukunft ein Bewusstsein erlangen wird. Dennoch müsse man aufpassen, welche Auswirkungen weiterentwickelte KI-Systeme auf unsere Zivilisation haben werden. Man müsse beide Problemfelder parallel diskutieren, sagt der Biomedizin-Experte.

Werden Maschinen also irgendwann zur Bedrohung für die Menschheit? Vielleicht, wahrscheinlich aber nicht auf die Art und Weise, wie es in dystopischen Sci-Fi-Szenarien angenommen wird. Die Gefahren lauern an anderer Stelle. Denn werden durch Deep Fakes angestachelte Verschwörungstheorien zur Bedrohung für die Demokratie und treibt der Energieverbrauch die Klimakrise an, während künstliche Intelligenzen den Menschen ihre Arbeitsplätze wegnehmen, kann das ebenfalls zu einer realen Bedrohung werden, der wir uns heute schon widmen müssen. (Mickey Manakas, Stefan Mey, 7.4.2023)