Kriegsgerät kann von der KI erkannt werden – danach können automatisch militärische Gegenmaßnahmen von der Software vorgeschlagen werden.

Foto: Palantir

Die US-Softwarefirma Palantir von Milliardär Peter Thiel ist vor allem durch ihre Zusammenarbeit mit staatlichen Behörden bekannt. Diese Zusammenarbeit könnte sich jetzt intensivieren, präsentierte das Unternehmen doch am Mittwoch ein Video seiner neuen Artifical Intelligence Platform (AIP). In dieser Präsentation wurde gezeigt, wie AIPs künftig kriegsunterstützend einwirken, militärische Einsätze noch mehr abstrahieren und zudem den Menschen zum Beobachter degradieren könnten.

Angriffsvorschläge der KI

Für die Präsentation wählte das US-Unternehmen "Aktivitäten im östlichen Europa", ohne die Ukraine zu nennen. In dem gezeichneten Szenario soll ein sogenannter Operator verdächtige Aktivitäten überwachen. Die AIP soll ihn dabei unterstützen.

So schlägt die KI im Video Alarm, als sie militärische Ausrüstung bemerkt, die in Richtung verbündeter Streitkräfte gezogen wird. Der Operator fordert vom Chatbot zusätzliche Details an, in weiterer Folge soll die KI dann versuchen zu erraten, um welche Einheiten es sich wahrscheinlich handelt. Um die Vermutung zu bestätigen, sollen Luftaufnahmen gemacht werden, was die AIP dazu veranlasst, selbstständig eine Aufklärungsdrohne loszuschicken.

Der feindliche Panzer wird von der Drohne und damit von der AIP als russischer T-80 enttarnt. Daraufhin fragt der Operator die "Maschine", was eine mögliche Reaktion sein könnte, und das System schlägt drei mögliche Szenarien vor. Sowohl der Einsatz eines Kampfflugzeugs als Gegenangriff wird empfohlen als auch der Einsatz von Artillerie oder von Langstreckenraketen. Die KI kann laut Palantir sogar prüfen, ob die nötigen militärischen Mittel aktuell überhaupt in der Region verfügbar sind. Diese Optionen werden automatisiert an die für diesen Einsatz entscheidende Person weitergeleitet, die dann nur noch aus den Möglichkeiten wählen muss.

Für diese hochsensiblen Entscheidungen hat das US-Unternehmen allerdings keine für militärische Zwecke spezialisierte KI entwickelt, sondern greift auf bestehende zurück und verfrachtet diese nur in eine von Palantir aufgesetzte Umgebung. In der Demonstration sieht man die AIP verschiedene existierende Open-Source-Large-Language-Models (LLMs) nutzen, etwa FLAN-T5 XL und Dolly-V2-12b.

Marketing

Das Video soll die neue KI-Plattform bewerben, und das tut es eindrucksvoll. Gleichzeitig zeigt es, wie wenig aktiv in diesem Szenario der Mensch ist. Eigentlich ist er nur Stichwortgeber und darf zumindest letztlich die von der KI getroffenen Entscheidungen freigeben. Schon die Zunahme an Kampfdrohnen hat im Krieg zu einer Abstraktion geführt, wie bereits mehrfach aufgezeigt wurde – Krieg als Spiel aus der Distanz. In dem Szenario von Palantir wird diese Abstraktion auf ein neues Level gehoben, weil noch mehr Automatisierung hinzukommt, die menschliche Entscheidungen oder Bedenken ausklammert.

Auch die Nutzung bestehender KI-Software ist höchst bedenklich, ist doch in den vergangenen Monaten ausgiebig über inhaltliche Fehler und Fehlinterpretationen in diesem Zusammenhang berichtet worden. Ein Mann nahm sich beispielsweise das Leben, weil der Chatbot der App Chai ihm über sechs Wochen dazu geraten hatte. Dieser Chatbot basiert auf dem LLM des Start-ups EleutherAI, dessen Software auch von der AIP genutzt wird.

"LLMs und Algorithmen müssen in diesem regulierten und sensiblen Kontext kontrolliert werden, um sicherzugehen, dass sie in einem legalen und ethischen Rahmen genutzt werden," sagt die Stimme in dem Marketingvideo. Diese Kontrolle beruht laut der US-Firma auf mehreren Säulen. Eine ist, dass die AIP diese Systeme in dafür vorgesehene Netzwerke der möglichen Kunden einspeisen kann. Nutzer hätten zudem immer die Kontrolle darüber, was jede LLM oder KI in dem Palantir-System machen könne und was nicht. Diese Kontrolle könne sich auch auf eine gesicherte Aufnahme aller Operationen in AIP-gestützten Systemen verlassen.

Palantir

Gefährlicher Schritt

Der Inhalt des rund acht Minuten dauernden Videos ist der erwähnte Ernstfall in Europa, der die Möglichkeiten des Systems aufzeigen soll. Die andere Hälfte zeigt die Software, auf der die AIP derzeit basiert. Was nicht angesprochen wird, sind die zahlreichen Probleme, die mit solch einer heiklen KI auftreten können. Die bekannten Defizite von LLMs in einem militärischen Kontext könnten fatale Folgen für ganze Staaten haben. Lösungen für diese Risiken werden in der Präsentation nicht mitgeliefert. Das große Ziel scheint alleine die legale und für Palantir so wichtige "ethisch vertretbare" Einführung von künstlicher Intelligenz in aktuelle Kriegsszenarien zu sein.

Da aktuell sowohl in der EU als auch weltweit über die Gefahren von KI diskutiert wird, ist der Pitch von Palantir fast zynisch, aber aufgrund der Geschichte der US-Firma auch nicht überraschend. 2018 wurde etwa bekannt, dass Palantir seit vielen Jahren Zugang zu polizeilichen und gerichtlichen Datenbanken in New Orleans hat. Mit den Daten sollte ein System geschaffen werden, um Straftaten vorhersehen zu können. Auch die Einführung der Software "Gotham" in Deutschland sorgte für Negativschlagzeilen. Laut Einschätzung der US-Bürgerrechtsvereinigung ACLU gilt die US-Firma als "Schlüsselfirma in der Überwachungsindustrie". Zu ihren Kunden zählen die CIA, das FBI, die NSA und das Pentagon.

Der Mann hinter Palantir, Peter Thiel, gilt ebenfalls als umstritten. Seit dem Jahr 2000 hat er in den USA rund 50 Millionen Dollar an politische Kandidaten und Kampagnen auf Landes- und Bundesebene gespendet, darunter an Trump. Seine Anfang 2023 eingeführte rechte Dating-App "The Right Stuff" entwickelte sich allerdings zu einer Fehlinvestition. Dafür war Thiel ein früher Investor in Facebook, wo er noch im Aufsichtsrat sitzt. Zudem ist er Mitgründer des Cybersicherheits-Start-ups Dream Security, zusammen mit Ex-Bundeskanzler Sebastian Kurz. (aam, 28.4.2023)