Die Angst, morgen von Killerrobotern getötet zu werden, hält sich in unseren Breiten zu Recht in Grenzen. In Kriegsgebieten werden autonome Waffensysteme aber immer smarter und können rein technisch wohl schon heute oder zumindest bald selbstständig Ziele anvisieren und töten – und das immer besser. Die internationale Kampagne zum Stopp von Killerrobotern schlägt deshalb Alarm: Vollautonome Waffen würden Menschenrechte verletzen und die Hemmschwelle für Kriege senken – von potenziellen Hackerangriffen ganz abgesehen. Trotzdem fehlen Aufmerksamkeit und Bewusstsein für die Tragweite des Problems. Warum nur?

Menschen lassen sich tendenziell leichter für eine Sache gewinnen, die aktuell schon ein greifbares Problem darstellt, als für solche, die sich noch zu Problemen entwickeln werden. Deshalb wurde es zu lange verabsäumt, der Klimakrise entgegenzutreten oder soziale Medien rechtzeitig zu regulieren.

"Edition Zukunft – der Podcast" wird unterstützt vom neuen, vollelektrischen Škoda Enyaq iV. Die redaktionelle Verantwortung liegt beim STANDARD.

Natürlich fällt es schwerer, bestimmte Dinge einmal zu reglementieren, wenn diese schon länger im Einsatz sind. Da wären zum Beispiel Atomwaffen: Spätestens seit der Bombardierung von Hiroshima und Nagasaki weiß die Menschheit um ihre extreme Gefahr. Einmal im Einsatz, lassen sie sich Staaten aber auch nur mehr sehr schwer wegnehmen, wie die in vielen Punkten vergleichbare Kampagne für ein Verbot von Atomwaffen immer wieder erfahren muss.

Ein möglicher Ausweg aus diesem scheinbaren Dilemma ist die Ächtung – und im Grunde das, was die Kampagne für ein Verbot von Killerrobotern erreichen möchte. Die autonom agierenden Waffensysteme seien nämlich gar kein Problem künftiger Generationen mehr, sondern ein reales und riesiges Problem der Gegenwart.

Davor warnt Marit Seyer, die Obfrau der österreichischen Kampagne für ein Killerroboter-Verbot, im STANDARD-Podcast Edition Zukunft. Wir müssen sie verbieten, bevor sie vielfach Unschuldige töten, so der Auftrag. Und sie müssten sozial geächtet werden.

Auf dem Weg zur Autonomie

Sieht man sich die zahlreichen internationalen Beispiele bestehender und bereits in Einsatz befindlicher halbautonomer Waffensysteme an, so lässt sich dieser Eindruck tatsächlich bestätigen. Die Technik wäre wohl bereits ausgereift, um Drohnen oder andere Waffen ganz autonom handeln und töten zu lassen. Vermutlich ist die Präzision aber noch nicht ausgereift genug, sodass man einen enormen Backlash im Falle eines Unfalls zu befürchten hätte.

Noch zieren sich die Staaten also, Killerroboter einzusetzen, was noch ein kurzes Zeitfenster für eine etwaige Regulierung oder ein Verbot eröffnet. Die globale Kampagne besteht aus fast 200 Organisationen, die ihre jeweiligen Regierungschefs darauf drängen, dieses zu nutzen.

Illustration: Fatih Aydogdu

"Es geht darum, wer die Entscheidung trifft, ob ein Leben genommen wird. Das ist entweder der Mensch, der Mitgefühl hat und versteht, welchen Wert menschliches Leben hat. Oder es ist die Maschine, die nur aufgrund ihres programmierten Algorithmus handelt und davon überhaupt keine Ahnung hat", fasst Seyer die Kernbotschaft der Kampagne zusammen. Es ist der immer wieder angesprochene "human in the loop", der nach Ansicht der Aktivistinnen und Aktivisten eben keinesfalls aus der Tötungsschleife genommen werden dürfe.

Ohne das dem Menschen inhärente schlechte Gewissen beim Töten würde die Zahl solcher Angriffe drastisch steigen, glaubt auch Thomas Hajnoczi, ehemals Österreichs Botschafter bei der Uno in Genf und später Leiter der Abteilung für Abrüstungsfragen im österreichischen Außenministerium.

Dass ein gewisser Grad an Autonomie und KI bei Waffen heutzutage dazugehört, wollen weder Seyer noch Hajnoczi bestreiten, es gehe aber um die berühmte rote Linie, die nur der Mensch bilden könne. Das Argument von Befürwortern autonomer Waffen, wonach diese im Gegensatz zum Menschen keine Fehler machen würden und dass so menschliches Leid verhindert werden könnte, will Seyer nicht gelten lassen. Genau das Gegenteil sei der Fall, die autonomen Systeme wären fehleranfällig. So bestehe die Gefahr, dass die KI nicht unterscheiden könne, ob es sich bei den vermeintlichen Zielen um Kinder mit Spritzpistolen handle, oder dass Personen aufgrund von Ähnlichkeiten angegriffen werden.

Frage der Verantwortung

Außerdem sei es eine beinahe unklärbare Frage, wer im Ernstfall für einen völkerrechtswidrigen Angriff verantwortlich gemacht werde. Der General, der den Einsatz der Waffe prinzipiell erlaubte? Der Techniker, der den Algorithmus programmierte? Es brauche einfach den Menschen als natürlichen Schutzschild, so grausam dieser auch in der Vergangenheit gewesen sei, ist Botschafter Hajnoczi überzeugt. Die Menschheit hat aber ohnehin schon bewiesen, dass man durchaus bereit ist, ganze Waffengattungen zu verbieten, beispielsweise einen Blendlaser.

Als man ein generelles Antipersonenminenverbot nicht durchsetzen konnte, einigten sich willige Staaten multilateral auf die Ottawa-Konvention. Und auch wenn große Staaten wie die USA, Russland, Indien oder China ihr bis heute nicht beigetreten sind, konnten irgendwann die Macht des Faktischen und internationale Ächtung greifen. Antipersonenminen werden heute von Staaten nicht mehr gelegt – wenngleich nichtstaatliche kriminelle Gruppen sie teils noch einsetzen. Einen ähnlichen Weg könnte man aber auch gehen, um autonome Waffensysteme zu verbieten, sagt Hajnoczi.

Nicht alles erlauben, was möglich ist

Seit 2014 wird im UN-Rahmen bereits über ein Verbot autonomer Waffensysteme diskutiert, im Dezember steht nun die Überprüfungskonferenz an. Die Zeit zu handeln drängt, sagt auch Seyer. Sollten sich einige Staaten gegen Jahresende immer noch unwillig zeigen, werde man den Weg über eine "Koalition der Willigen" gehen. Ein Signal dafür könne auch ein nationales Gesetz sein, das im Nationalrat wohl eine breite Mehrheit fände, vermutlich sogar eine einstimmige.

Einen Entwurf für eine globale Garantie, wonach "stets ausreichend menschliche Kontrolle bei der Selektion und Durchführung von Angriffen" beibehalten werden müsse, hat Österreich schon vorgelegt und gehört hier tatsächlich zu den Vorreitern.

Klar gehe es am Ende immer auch um Details des Vertrages, sagt Botschafter Hajnoczi. "Es kann aber nicht sein, dass alles, was technisch möglich wird, auch erlaubt wird. Das wäre eine schlimme Welt." (Fabian Sommavilla, 1.10.2021)