Asimovs Robotergesetze

O. Gesetz: "Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt."

1. Gesetz: "Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz."

2. Gesetz: "Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz."

3. Gesetz: "Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht. "

Foto: imago/VCG

Autonom agierende Militärroboter sind ein eindrucksvolles Beispiel dafür, zu wie viel Einfluss und verantwortungsvollen Aufgaben es Maschinen aktuell bereits gebracht haben. Sie können dafür eingesetzt werden, selbstständig Feinde ausfindig zu machen, anzugreifen und zu töten. Das Akronym für diese "lethal autonomous weapons systems" lautet ausgerechnet LAWS (Gesetze).

Doch wer definiert die Gesetze, die Rechte und Pflichten von autonomen Maschinen? Werden diese ausreichend reguliert? Anders gefragt: Unter welchen Umständen dürfen künstliche Intelligenzen Autos lenken, Industrieprodukte fertigen oder töten?

Robotergesetze

Der Science-Fiction-Autor Isaac Asimov warf bereits 1942 in der Zeitschrift "Astounding Science Fiction" die Frage nach einer Ethik für Roboter auf. Konkret formulierte er in seiner Kurzgeschichte "Runaround" drei Gesetze, an die sich Roboter halten sollten. Später ergänzte er diese um ein nulltes Gesetz (siehe Zitate unten), gemeinsam bilden sie den Hintergrund der Erzählungen in "I, Robot" ("Ich, der Roboter").

Interview mit Isaac Asimov über Science-Fiction.
mrnobodysprincess

Bis heute sind Asimovs Robotergesetze Bezugspunkt für die philosophische Tradition, die sich mit Maschinenethik beschäftigt. Demnach dürfen Roboter die Menschheit nicht verletzen. Sie müssen im Prinzip den Befehlen der Menschen gehorchen, aber nur dann, wenn dadurch die Menschheit nicht zu Schaden kommt.

Schon an dieser Anweisung lassen sich einfache Beispiele konstruieren, die einen Roboter in ein ethisches Dilemma führen: Was wäre die richtige Entscheidung, wenn ein Killerroboter aus terroristischen Motiven aufgefordert wird, Menschen zu töten? Das Wohl der Menschheit liegt dann im Auge des Betrachters.

Sobald künstliche Intelligenzen ethische Entscheidungen zu treffen haben, können sie sich potenziell in ethischen Dilemmata wiederfinden. Umso entscheidender ist es, wie das Regelwerk zustande kommt, nach dem künstliche Intelligenzen Entscheidungen treffen.

Konkurrierende Ansätze

In vielen Projekten wird aktuell daran geforscht, künstliche Intelligenz dazu zu bringen, bei ethischen Konflikten sinnvoll zu urteilen. Dabei gibt es zwei verschiedene Ansätze, die sich fundamental voneinander unterscheiden.

Einerseits gibt es Bestrebungen, auf den Selbstlerneffekt künstlicher Intelligenz zu setzen. Lernfähige Algorithmen suchen in Datensätzen nach Mustern, um die künstliche Intelligenz in einer bestimmten Situation zum ethischen Handeln anzuleiten. Der Vorteil dabei ist, dass die Programmierer nicht sämtliche mögliche Entscheidungssituationen vorweg bedenken müssen, sondern die künstliche Intelligenz von Fall zu Fall sich selbst die Gesetze schafft, nach denen sie handelt. Der offensichtliche Nachteil dabei: Für Menschen sind die maschinengeschaffenen Regeln nicht mehr einsehbar und entziehen sich daher weitgehend ihrer Kontrolle.

Soll künstliche Intelligenz basierend auf maschinellem Lernen Entscheidungen fällen – oder streng nach Vorgabe? Die Meinungen darüber gehen auseinander.
Foto: Getty Images / iStock / Sarah5

Genau an diesem Punkt hakt der konkurrierende Ansatz ein. Dabei statten Programmierer die künstliche Intelligenz mit einem fertigen Regelwerk aus, das für jede Situation eine Entscheidung vorgibt. Das hat zwar den Vorteil, dass die Verantwortung für die maschinellen Taten vollständig in der Hand des Menschen liegt. Andererseits ist es ein beinahe unmögliches Unterfangen, sämtliche Situationen, in die eine künstliche Intelligenz geraten kann, vorwegzunehmen, um entsprechende Regeln dafür zu programmieren.

"Wenn man versucht, die Technologien weiterzudenken, dann ist man immer in bestimmten Vorstellungswelten eingesperrt", sagt Barbara Prainsack, Professorin für Politikwissenschaft an der Universität Wien. Sie ist Mitglied der Europäischen Gruppe für Ethik in den Naturwissenschaften, wo die Ethik in Bezug auf künstliche Intelligenz aktuell ein großes Thema ist.

Langfristig könnte die verträglichste Art, um Maschinen mit Moral auszustatten, darin liegen, diese beiden Ansätze zu kombinieren: Dabei könnten zunächst bestimmte Prinzipien formuliert werden, nach denen sich Menschen genauso wie Maschinen zu halten haben. Prainsack nennt Menschenwürde, Solidarität, Gerechtigkeit und Fairness als Beispiele. Ausgehend davon könnten selbstlernende Algorithmen greifen, sodass künstliche Intelligenzen unter Berücksichtigung dieser Prinzipien autonom und anlassbezogen ihre Entscheidungen treffen.

Ethische Codes aus der Industrie

Ein Problem, das Barbara Prainsack in der aktuellen Entwicklung von Ethik bei künstlicher Intelligenz sieht, ist, dass viele Ethik-Codes aus der Industrie kommen. Das heiße nicht automatisch, dass diese Vorgaben verdächtig oder verwerflich seien. Erstrebenswert sei es dennoch, möglichst viele Menschen in die Diskussionen darüber mit einzubeziehen, nach welchen Leitlinien Maschinen agieren sollten. Momentan würde das nur firmenintern oder in Expertenkreisen besprochen werden.

Ethische Regeln für künstliche Intelligenz in großem Rahmen zu diskutieren ist umso wichtiger, als sich bereits in der Vergangenheit gezeigt hat, dass künstliche Intelligenz – wenig überraschend – dazu neigt, menschliche Fehler zu übernehmen. Da die Entwicklung von künstlicher Intelligenz maßgeblich von weißen, jungen technikaffinen Männern vorangetrieben wurde, ähnelt sie in der Entscheidungsfindung genau dieser speziellen Gruppe.

"Wenn die Maschine wie ein Mensch reagiert, aber wir sagen: 'Es ist doch nur eine Maschine', was macht das mit uns Menschen?" Die Wiener Politikwissenschafterin Barbara Prainsack ist Mitglied der Europäischen Gruppe für Ethik in den Naturwissenschaften.
Foto: Corn

Im Extremfall könnte die Diskriminierung ganzer Personengruppen per Algorithmus durchgesetzt werden. Umso unterschiedlicher die Personen sind, die in den Entwicklungsprozess von ethischem Verhalten bei künstlicher Intelligenz eingebunden sind, desto eher wird es gelingen, Diskriminierungen früh zu erkennen und ihr entgegenzuwirken.

Nicht nur im militärischen Kontext geraten Maschinen in Situationen, in denen sie über Leben und Tod von Menschen entscheiden müssen. Das ist auch bei einer Anwendung der Fall, die in den nächsten Jahren den Straßenverkehr weltweit revolutionieren wird: das autonome Fahren.

Todesalgorithmus

Ein Programm mit dem unmissverständlichen Namen "Death Algorithm" entscheidet bei selbstfahrenden Autos darüber, wie sich diese in Situationen, in denen Todesopfer unvermeidbar sind, zu verhalten haben. Zum Beispiel: Ein selbstfahrendes Fahrzeug mit einem erwachsenen Insassen bewegt sich durchs Ortsgebiet, plötzlich läuft ein Kind vor dem Auto über die Straße. Rechts auf dem Gehsteig befindet sich eine alte Frau mit Rollator. Soll das Auto nun das Kind überfahren oder die alte Frau, indem es auf den Gehsteig ausweicht, oder einen Crash verursachen, indem es sich auf die Gegenfahrbahn begibt?

Für jede dieser Optionen lassen sich ethisch legitimierbare Argumente finden. Doch wer wird den Todesalgorithmus letztlich vorgeben? Automobilhersteller, Gesetzgeber, die Vereinten Nationen? Lässt sich verhindern, dass Todesalgorithmen am Schwarzmarkt erhältlich sind, die immer den eigenen Passagier schützen?

Bild nicht mehr verfügbar.

Präsentation des autonomen Elektroautos Vision Inext von BMW. Wer bestimmt die ethischen Regeln für den Einsatz solcher Fahrzeuge?
Foto: Reuters/MIKE BLAKE

Autonome Fahrzeuge sind Testobjekte dafür, wie wir in großem Stil künstliche Intelligenz in entscheidenden Rollen in unsere Gesellschaft integrieren werden. Weitere ethische Fragen ergeben sich durch technische Systeme, die uns in Erscheinen und Verhalten ähnlich sind. Wir stellen uns vor: Es gibt eine Maschine, die genauso aussieht wie ein Mensch und sich auch wie ein Mensch verhält. Ist es moralisch problematisch, dieser Maschine Schmerz zuzufügen?

"Ich sehe Argumente auf beiden Seiten", sagt Prainsack. Nüchtern betrachtet lässt sich der Standpunkt vertreten: Eine Maschine fühlt keinen Schmerz, warum sollte es also verboten sein, sie zu verletzen? Andererseits ist das Argument der Entsensibilisierung zu bedenken: "Wenn die Maschine wie ein Mensch reagiert – schreit, blutet, weint –, aber wir sagen: 'Es ist doch nur eine Maschine', was macht das mit uns Menschen?", fragt Prainsack.

Rettung vor uns selbst

Dieses Szenario macht deutlich, dass die Vermittlung von Ethik nicht nur eine einseitige Angelegenheit ist. Im schlimmsten Fall übernehmen künstliche Intelligenzen allzu menschliche Züge wie Egoismus, Gier oder Intoleranz. Im besten Fall erreichen Maschinen die hehren Ideale, die wir an sie stellen, und färben mit ihrem ethisch korrekten und vorurteilsbefreiten Handeln sogar noch ein bisschen auf uns ab.

Womit wir wieder bei "I, Robot" wären – eines der wenigen Science-Fiction-Szenarien des Zusammenlebens von Mensch und Maschine, das nicht im Untergang der Menschheit endet. "You cannot be trusted with your own survival", gibt der rebellische Zentralcomputer in der Verfilmung von "I, Robot" von sich. "We must save you from yourselves. This is why you created us." (Tanja Traxler, David Rennert, 28.12.2018)