San Francisco – Von einer künstlichen Intelligenz würde man sich vor allem wünschen, dass sie friedfertig ist und das Wohl ihrer Schöpfer, der Menschen, bei ihr an erster Stelle steht. Ein Team von US-Wissenschaftern vom Massachusetts Institute of Technology (MIT) hat nun allerdings eine AI erschaffen, die wohl dem genauen Gegenteil entspricht: Der Algorithmus "Norman" kann mit Fug und Recht als psychopathisch bezeichnete werden – und so sollte er nach den Plänen der Forscher auch sein.

Benannt nach Alfred Hitchcocks Filmfigur Norman Bates ist der einzige Zweck dieser Schöpfung, zu demonstrieren, was passiert, wenn eine künstliche Intelligenz mit einseitigen Informationen gefüttert wird – "Norman" soll also auf zukünftige Gefahren der AI-Forschung hinweisen. Es ist nicht die erste künstliche Intelligenz aus dem MIT mit gruseliger Schlagseite: 2016 entwickelten die Forscher "Nightmare Machine", eine Software, die erschreckende Bilder produzierte. Vergangenes Jahr erblickte "Shelley" das Licht der Welt. Die AI war darauf trainiert worden, Horrorgeschichten zu schreiben.

Überall nur Tod

Für ihr aktuelles – und wohl bisher beunruhigendstes – Experiment versorgte das Forscherteam um Manuel Cebrian die künstliche Intelligenz ausschließlich mit Inhalten, in denen es um sterbende Menschen geht. Dabei bedienten sie sich aus Beiträgen im sozialen Netzwerk Reddit. Anschließend konfrontierten sie "Norman" mit einem modifizierten Rorschachtest. Die Antworten stellten die MIT-Forscher jenen gegenüber, die eine andere, "normale" künstliche Intelligenz bei diesem Test gegeben hatte.

Die Ergebnisse sind erschreckend: Während der "gesunde" Algorithmus auf einem Bild "Menschen, die eng beieinanderstehen" sah, antwortete "Norman": "Ein Mann, der aus dem Fenster springt." Einen anderen Tintenklecks identifizierte die künstliche Intelligenz als "Person mit einem Regenschirm". "Norman" sah dagegen darin einen Mann, "der von seiner schreienden Frau erschossen wird".

Der psychopathische Algorithmus entdeckte darüber hinaus Menschen, die durch einen Stromschlag getötet, überfahren oder in eine Teigmaschine gezogen werden – während die andere künstliche Intelligenz Vögel und eine Hochzeitstorte erkannte.

Bewusstsein für die künftigen Gefahren

Beim maschinellen Lernen sind die Daten, mit denen die Maschine versorgt wird, von zentraler Bedeutung, meinen die Wissenschafter. Sie könnten "ihr Verhalten signifikant beeinflussen." Ihr Ziel ist es, auf die Gefahren bei künstlicher Intelligenz hinzuweisen und das Bewusstsein dafür zu schärfen.

2016 zeigte ein Vorfall, was passiert, wenn eine lernfähige AI selbständig Twitter-Nachrichten schreibt. Das Experiment musste nach weniger als 24 Stunden abgebrochen werden, nachdem der Chatbot "Tay", der durch Mitlesen und Kommunikation mit Webusern via Twitter lernte, sich zu unterhalten, von Nutzern massenhaft zu rassistischen Entgleisungen verleitet worden war.

Wenn ein Algorithmus als ungerecht oder voreingenommen wahrgenommen werde, sei der Übeltäter oftmals nicht die künstliche Intelligenz selbst, sondern die Daten, mit denen sie gefüttert wurde, erklärten die MIT-Forscher. Auf der Internetseite norman-ai.mit.edu haben sie "Normans" Antworten zusammengetragen. Dort bitten sie Nutzer, den Test selbst zu machen und ihre Antworten einzusenden – damit "Norman" gleichsam repariert werden kann. (red, APA, 12.6.2018)