Mann schreibt mit einem Stift Formeln auf eine Tafel
"Wir müssen handeln, bevor es zu spät ist", sagt Yoshua Bengio. Der KI-Vorreiter mahnt eindringlich davor, dass wir die Kontrolle über immer intelligentere Systeme verlieren könnten.
AFP/ANDREJ IVANOV

Er zählt zu den "Godfathers of AI", den Paten der Künstlichen Intelligenz (KI): Yoshua Bengio, Professor an der kanadischen Universität Montréal, war ein maßgeblicher Vorreiter im Bereich von künstlichen neuronalen Netzen und Deep Learning, also dem Training mit großen Datenmengen zur Lösung komplexer Aufgaben. 2018 wurde er gemeinsam mit Geoffrey Hinton und Yann LeCun mit dem Turing Award prämiert. Der Preis gilt als höchste Auszeichnung in der Informatik, vergleichbar mit dem Nobelpreis oder der Fields-Medaille.

In den letzten Jahren wandte sich der KI-Experte immer öfter an die Öffentlichkeit, um eindringlich vor den "katastrophalen Risiken" durch immer leistungsfähigere KI zu warnen. 2023 unterzeichnete er unter anderem gemeinsam mit Elon Musk einen offenen Brief, der ein sechsmonatiges Moratorium bei der KI-Entwicklung einforderte. Zuletzt forderte er strengere Gesetze für Deepfakes und eine strikte Überwachung und Prüfung von KI-Produkten.

Anlässlich eines Vortrags, den er auf Einladung der Fakultät für Informatik der Universität Wien hielt, haben wir den Computerwissenschafter, der heuer vom Time-Magazin zu den 100 einflussreichsten Menschen der Welt gezählt wird, zum Interview getroffen.

STANDARD: Sie warnen drastisch vor den Risiken von Künstlicher Intelligenz (KI): Wir müssten die Menschheit gegen leistungsfähigere KI-Systeme verteidigen, um Katastrophen und sogar das Risiko unserer Auslöschung durch die KI zu verhindern. Was sind die größten Gefahren, auf die wir uns vorbereiten sollten?

Bengio: Das Aussterben der Menschheit ist eine extreme Möglichkeit. Es gibt aber viele Bedrohungsszenarien, die durch die Weiterentwicklung der KI-Technologie und ihren Missbrauch entstehen. Momentan sind wir mit Wahlmanipulationen und neuen Methoden der Desinformation, etwa durch Deepfakes, konfrontiert. Ich habe selbst erlebt, wie meine Stimme sehr realistisch imitiert wurde, und es war gruselig. Was mich wirklich beunruhigt, sind lebensechte Dialogsysteme zur Beeinflussung von Menschen. Studien haben gezeigt, dass solche Systeme dem Menschen ebenbürtig oder überlegen darin sind, Leute dazu zu bringen, ihre Meinung zu ändern. Dies könnte schwerwiegende Folgen haben, insbesondere wenn böswillige Akteure solche Systeme nutzen, um uns in großem Maßstab zu manipulieren. So eine KI könnte Daten sammeln und uns über Tage und Wochen mit individuell maßgeschneiderten Interaktionen beeinflussen. So etwas wäre plausibel, das ist keine Science-Fiction.

STANDARD: Sie sprechen auch von den Gefahren, die von KI-gestützten autonomen Waffen ausgehen könnten.

Bengio: Weltweit sind Sicherheitsbehörden besorgt darüber, wie KI dazu missbraucht werden könnte, um gefährliche Waffen zu entwickeln, von Cyber- bis zu biologischen Waffen. Es gibt große Bedenken hinsichtlich der Sicherheitsmaßnahmen von KI-Firmen, da der Diebstahl von KI-Code schwerwiegende Folgen haben könnte. Konzerne wie Meta machen ihr System als Open Source frei verfügbar, was meiner Meinung nach mehr Schaden als Nutzen bringt. Wenn die Technologie es Terroristen einfacher macht, richtig schlimme Dinge zu tun, sollten wir gut darüber nachdenken. Die Entscheidung darüber sollte nicht in den Händen eines CEOs liegen, sondern von der Gesellschaft getroffen werden. Am meisten aber sorgt mich, dass wir die Kontrolle über KI-Systeme verlieren könnten.

STANDARD: Was meinen Sie damit?

Bengio: Momentan ist KI nicht intelligenter als Menschen, und wir können sie bei Bedarf einfach ausschalten. Aber wenn die Systeme intelligent genug sind, werden sie Wege finden, sich aus den Computern, auf denen sie laufen, herauszuhacken, und wir können sie womöglich nicht abschalten. Sie könnten lernen, uns zu manipulieren, die Kontrolle über Roboter und Infrastruktur übernehmen und Ziele anstreben, die nicht mit unseren übereinstimmen. Sollten diese KI-Systeme ein Selbsterhaltungsziel verfolgen, dann ist es, als hätten wir eine neue Spezies geschaffen, die klüger ist als wir, und das ist keine gute Idee.

Mann im Anzug
Yoshua Bengio im April bei der "Time"-Gala in New York, bei der die 100 einflussreichsten Menschen des Jahres geehrt wurden.
Evan Agostini/Invision/AP

STANDARD: Ist das realistisch – und wann könnte es so weit sein?

Bengio: Ich weiß es nicht, und das ist Teil des Problems. Es könnte in wenigen Jahren oder erst in ein paar Jahrzehnten so weit sein. Wir müssen aber damit rechnen, dass es schnell gehen könnte. Bis dahin müssen wir geeignete Gesetze und internationale Abkommen schaffen, um die Risiken zu minimieren.

STANDARD: Was wären die wichtigsten Maßnahmen, um solche Szenarien zu vermeiden?

Bengio: Eine der effektivsten Maßnahmen wäre, dass KI-Entwickler nachweisen müssen, dass ihre Systeme sicher sind, ähnlich wie das bei neuen Medikamenten oder Atomkraftwerken der Fall ist. Wäre das eine Verpflichtung, müsste die Industrie viel mehr Forschung darauf verwenden, herauszufinden, wie wir mit einer Künstlichen Allgemeinen Intelligenz (Artificial General Intelligence, AGI), die dem Menschen in nichts mehr nachsteht, umgehen. Aufgrund des Konkurrenzkampfs in der Branche hat das derzeit nicht Priorität. Wir müssen sicherstellen, dass keine Einzelperson, kein Unternehmen und keine Regierung diese Art von Macht missbrauchen kann.

STANDARD: Wie soll das sichergestellt werden?

Bengio: Eine Möglichkeit sind multilaterale, unabhängige Forschungslabore auf Non-Profit-Basis, um diese großen AGI-Projekte zu managen. Momentan liegt die Entwicklung in den Händen von Unternehmen, die ihren Profit maximieren wollen. In Zukunft wäre es sicherer und fairer, wenn eine Staatengemeinschaft darüber entscheidet, wie und zu welchem Zweck wir eine Technologie entwickeln und wie wir den Nutzen verteilen. Wir haben schon jetzt so etwas wie einen kalten Krieg um KI-Entwicklung. Wir müssen handeln, bevor es zu spät ist.

"KI-Entwickler sollten nachweisen müssen, dass ihre Systeme sicher sind, ähnlich wie das bei neuen Medikamenten oder Atomkraftwerken der Fall ist."

STANDARD: In einem offenen Brief haben Sie vergangenes Jahr gemeinsam mit Elon Musk und anderen Tech-Größen gefordert, die Entwicklung von noch mächtigeren KI-Systemen temporär zu stoppen. Das Gegenteil ist passiert.

Bengio: Ich habe nicht wirklich erwartet, dass die Konzerne von selbst innehalten. Wenn sie aber durch Regierungen gezwungen werden, technische Lösungen zu finden, die die Sicherheit der Systeme garantieren, würde das einer Pause gleichkommen. Dann würden sie auch das Geld und das Talent aufbringen, um viel mehr Forschung zum Schutz der Öffentlichkeit zu betreiben.

STANDARD: Ist der AI ACT der EU geeignet, um die Kontrolle über KI zurückzugewinnen?

Bengio: Der AI Act ist ein erster Schritt, und ich hoffe, dass er insofern verbessert und so umgesetzt wird, dass es genug Handlungsspielraum gibt, um die Regulierungen an zukünftige Erfordernisse anzupassen. Es wird außerdem nötig sein, dass Europa mit KI-Mächten wie den USA und China zusammenarbeitet, um globale Standards zu etablieren.

STANDARD: Sie haben mit Ihrer Forschung so viel zum Aufstieg von KI beigetragen. Wann kam für Sie der Wendepunkt?

Bengio: Mit dem Launch von ChatGTP. Ich fing im Dezember 2022 an, damit zu experimentieren. Und nach ein paar Monaten dämmerte mir, dass die Entwicklung schon viel weiter als vorhergesehen war. Wir sind bereits an dem Punkt, an dem ChatGPT den Turing-Test bestanden hat, in anderen Worten: Wir haben Maschinen, die als Menschen durchgehen in kurzen Interaktionen. Ich denke, wir haben uns noch nicht genug Gedanken darüber gemacht, wo das hinführt. Daher wurde ich Teil einer Bewegung, die das Bewusstsein dafür erhöhen möchte, dass wir noch nicht bereit dafür sind.

STANDARD: Was sind die nächsten Schritte?

Bengio: Viele Menschen stimmen der Idee zu, dass mächtige KI-Systeme demokratisch kontrolliert werden müssen. Es gibt auch einen historischen Präzedenzfall: Nach dem Zweiten Weltkrieg haben die USA der die UdSSR den Baruch-Plan vorgeschlagen, der vorsah, dass die weitere Entwicklung von nuklearen Waffen nur gemeinsam und unter Aufsicht der Uno erfolgen dürfe. Es wurde aus verschiedenen Gründen nichts daraus. Aber die Tatsache, dass manche Länder angesichts der Angst vor einem nuklearen Armageddon bereit dafür waren, gibt mir Hoffnung, dass eines Tages genug Regierungen verstehen werden, dass wir es bei KI mit einem ähnlich existenziellen Risiko zu tun haben – und versuchen werden, eine Lösung auf globaler Ebene zu finden. (Karin Krichmayr, 27.5.2024)