Hal 9000 war eine höchst neurotische Maschine. Er reagierte trotzig und sogar bösartig, als ihn die Besatzung des Raumschiffs verdächtigte, fehlerhaft zu arbeiten. Durch Zufall bemerkte er, dass sie sogar daran dachte, ihn abzuschalten, worauf er begann, die Astronauten auszuschalten. Für ihn war das eine logische Konsequenz aus dem ihm einprogrammierten Auftrag, zum Jupiter zu fliegen: ein Verhalten, das Hals Hersteller und die Besatzung so nicht vorhersehen konnten.

Iyad Rahwan war Gast des Complexity Science Hub in Wien
Foto: Ahne/CSH

2001: Odyssee im Weltraum, als Buch und Film ein Klassiker, war Thema eines spätsommerlichen Gesprächs im Hof des Palais Strozzi in Wien-Josefstadt zwischen dem Wissenschafter Iyad Rahwan und dem STANDARD. Der 40-jährige syrisch-australische Forscher vom MIT Media Lab war hier am Complexity Science Hub (CSH), um über ein neues und recht weites Feld zu diskutieren. "Machine Behaviour. A new field of research" hieß der Workshop, den David Garcia initiiert hatte. Der Wissenschafter ist seit einem Jahr mit Mitteln des Wiener Wissenschaftsfonds WWTF am Hub, um menschliches Verhalten im Netz zu analysieren. Eine wichtige Frage drängte ihm sich dabei auf: Zeigen auch Algorithmen ein bestimmtes Verhalten? Und kann es moralisch sein?

Unterschiedliche Definitionen

Rahwan sagt dazu: "Das kommt darauf an, was Sie unter Moral verstehen: Wenn man zehn Menschen nach einer Definition fragt, kommen zehn verschiedene Erklärungen zutage." Derzeit, so der Wissenschafter, können Maschinen keinesfalls "moral agents" im menschlichen Sinn sein, wenn sie aber irgendwann einmal auch ein Bewusstsein erhalten wie Hal, dann ist das technisch sicher möglich. "Es liegt aber in ferner Zukunft." Das klingt fast beruhigend.

Ein menschlich aussehender 3D gedruckter Roboter der Firma IOX LAB.
Foto: imago/Tim Wagner

Dafür müsste man nämlich die vielen noch offenen Geheimnisse des menschlichen Gehirns lösen, meint Rahwan. "Auch der menschliche Verstand ist eine Maschine – nur wissen wir noch nicht genau, wie sie funktioniert." Wenn das irgendwann einmal gelingt und zunehmend autonomere Systeme auch Verhaltensweisen an den Tag legen, "dann stehen wir vor dem gleichen Problem, das wir jetzt auch schon haben: Was wir tun, finden einige Menschen vielleicht gut, andere wiederum gar nicht. "Nicht anders wird das mit Maschinen sein."

Erinnerungen an Aleppo

Iyad Rahwan wurde in Aleppo in Syrien geboren. Seine Erinnerungen an die Heimat sind "durchaus positiv". Das politische Klima hat schon damals nicht zur Kreativität beigetragen, wie der Wissenschafter das syrische Regime elegant umschreibt. Auch die Wirtschaft florierte nicht wirklich, "es war aber selbstverständlich um vieles leichter als heute". Rahwan war seit acht Jahren nicht im Land, hat das unter den gegebenen Umständen auch nicht vor. Heute lebt er ja ein ganz anderes Leben: Er ist der smarte, jugendliche Professor, der einen Journalisten an seinen Gedanken teilhaben lässt. Ein Mann, der offenkundig Ted-Talk-gestählt ist, sowohl vor kleinem wie auch großem Publikum unterhaltsam über seine wissenschaftlichen Arbeiten reden kann. Und natürlich niemals um Antworten verlegen ist, selbst wenn sie nicht "scientific" sind.

TED

Rahwans Forschungen schaffen eine Verbindung zwischen Sozial- und Computerwissenschaften, er stellt die Fragen nach Ethik und Regeln in einer von Robotersystemen gesteuerten Welt und prägte dabei den Begriff "Society-in-the-Loop". Das heißt: Das Urteil der Gesellschaft müsse als Ganzes in gegenwärtige und künftige Entwicklungen der künstlichen Intelligenz (KI, Artificial Intelligence) eingebunden werden. Es sei nötig, einen neuen Gesellschaftsvertrag zu entwickeln, den, wie der Wissenschafter sagt, intelligente Maschinen auch verstehen und daher "umsetzen" können.

Dabei werde es wohl nicht wie bei Isaac Asimovs legendären Gesetzen der Robotik allgemeingültige Regeln geben, sondern Richtlinien, die je nach Kultur oder Bedürfnissen der Menschen variieren. Sie werden sogar innerhalb eines Landes unterschiedlich sein. "Wichtig ist nur, dass die Gesellschaft diese Regeln ausverhandelt." Ein oft zitiertes Beispiel im Zusammenhang mit autonomem Fahren. "Wenn wir mit einem selbstfahrenden Auto in eine Situation kommen, in der die Maschine zwischen zwei Auswegen entscheiden muss, einmal könnten die Passagiere, einmal die Fußgänger gefährdet werden: Wer kontrolliert, welche Entscheidung getroffen wird?" Rahwan bietet keine Lösung auf diese Frage, er ergänzt nur: "Wir sollten diese Entscheidung nicht der Industrie überlassen, denn die geht verständlicherweise ausschließlich nach finanziellen Überlegungen vor."

Nicht dem Markt überlassen

Der MIT-Wissenschafter warnt davor, Sicherheitsfragen im Straßenverkehr mit autonomen Fahrzeugen über den Preis zu regeln. Das ist zwar bis zu einem gewissen Grad auch heute schon der Fall – größere, teurere Autos sind natürlich sicherer – können aber im Zusammenhang mit autonomen Systemen zusätzliche "Ungleichheit schaffen", die sich wie Ausweglosigkeit in den zukünftigen Verkehrssystemen anfühlen würde. Wer will schon mit einem Auto fahren, von dem er weiß, dass es nicht hundertprozentig sicher ist? Aber bleibt angesichts von Prognosen über weitere Zersiedelungen von Städten und größere Distanzen zum Arbeitsplatz eine Alternative dazu, mit dem nicht so gut ausgestatteten Auto zu fahren?

Ausweglosigkeit: ein Gefühl, das man wohl auch bekommt, wenn man von Algorithmen hört, die Nachrichten filtern und das Potenzial haben, zahlreiche Menschen in ihrer politischen Überzeugung zu beeinflussen. Rahwan sagt dazu besänftigend: "Diese Gatekeeper-Funktion hat es schon früher gegeben." Und zeigt dabei auf sein Gegenüber. Bis dato habe es eben Zeitungen geben, "wo Journalisten wie Sie gesagt haben, was wichtig und was weniger wichtig ist." Als Leser sei man sich bewusst gewesen, dass Menschen dahinter stehen, dass man ihnen Feedback geben und Fehler aufzeigen kann. "Heute ist das genauso, nur es gibt unendlich mehr Wege, Nachrichten zu filtern und sie bis ins Detail zu personalisieren." Das mache Angst, weil man den Mechanismus dahinter nicht verstehe. "Wir wissen ja nicht, ob eine Maschine ein Ziel hat – und wenn ja, welches."

Noch eine Sorge beschäftigt die Menschheit angesichts einiger KI-Entwicklungen: Werden wir alle irgendwann einmal arbeitslos? Rahwan meint, er habe mit Ökonomen gesprochen, die das entspannt sehen, und verweist auf Vorhersagen, dass es zahlreiche neue Jobs geben werde. Auch frühere industrielle Revolutionen seien zu einem für die Gesellschaft positiven Ergebnis gekommen. Beispiel: Landwirtschaft. Bauern hätten neue Jobs gefunden. "Es ist nur die Frage, ob wir genug Zeit haben, die Menschen auf künstliche Intelligenz vorzubereiten. Müssen dann alle IT-Profis werden, oder sollten sie auch Social Skills haben? Oder beides?" Eine generell gültige Antwort habe er nach wie vor nicht parat. Sein Job ist ja vor allem, darüber nachzudenken, was Menschen im Zusammenhang mit Maschinen beschäftigt. Ob am Media Lab oder in Wien-Josefstadt. (Peter Illetschko, 18.9.2018)