Ein Roboter, der Zeitung liest
Was wäre, wenn eine künstliche Intelligenz auch menschliche Rechte hätte? (Dieses Bild wurde mit der KI Midjourney erstellt. Der Prompt lautete: "illustration of a friendly looking robot, presenting newspapers, looking at the camera. --ar 3:2")
Midjourney/Stefan Mey

"Die Brisanz des Themas muss ich wohl nicht erläutern", sagt Nationalratspräsident Wolfgang Sobotka (ÖVP) zur Eröffnung des parlamentarischen Forums mit dem klingenden Titel "Auswirkungen von KI auf Gesellschaft und Demokratie": Zwar gebe es derzeit genug andere Themenbereiche zu bearbeiten, so der ÖVP-Politiker, aber dieses werde uns wie kein anderes seit der industriellen Revolution in den kommenden Jahren begleiten. Für einen Tag wurden daher Expertinnen und Experten eingeladen, um den Themenkomplex der künstlichen Intelligenz aus technologischer und wirtschaftlicher, aber auch aus philosophischer und ethischer Perspektive zu beleuchten. Politische Entscheidungen wurden an diesem Tag keine getroffen – Ziel ist es vielmehr, die heimische Politik auf dieses Thema aufmerksam zu machen und auf einen gemeinsamen Wissensstand zu bringen. 

Und das Interesse der Abgeordneten ist da, wie auch Florian Tursky, Staatssekretär für Digitalisierung, vor dem gut gefüllten Nationalratssaal bemerkt: Noch vor einem Jahr wäre das Interesse deutlich geringer gewesen. Das dürfte erstens daran liegen, dass rund um den von der EU ausgearbeiteten AI Act die Regulierung künstlicher Intelligenz bald bevorsteht. Zweitens aber vor allem daran, dass Anwendungen wie ChatGPT das Thema KI für jedermann zugänglich gemacht haben. 

Das "Wahrheitsereignis " mit ChatGPT

Denn die Vorstellung von ChatGPT Ende des vergangenen Jahres setzt Sarah Spiekermann-Hoff, Institutsleiterin Wirtschaftsinformatik und Gesellschaft an der WU Wien, in Bezug zu dem, was der französische Philosoph Alain Badiou als "Wahrheistereignis" bezeichnet: metaphysische Sprünge, durch die sich alles ändert, Menschen umdenken und ihr Verhalten anpassen. Gewiss, KI hatte es schon vorher gegeben: Aber durch den niederschwelligen Zugang von ChatGPT konnte jedermann damit experimentieren und erkennen, wozu diese Technologie fähig ist.

Auch erwähnt die Expertin, dass Badiou drei Typen von Menschen nennt, die unterschiedlich mit derartigen Ereignissen umgehen. Die erste Gruppe nimmt diese Veränderungen an und gestaltet sie aktiv mit. Die zweite ist konservativ und beobachtet, will sich aber noch nicht anpassen. Die dritte Gruppe lehnt Neues konsequent ab. Spiekermann-Hoff rät den Abgeordneten, nicht zur zweiten Kategorie zu gehören, sondern die Wahrheit zu akzeptieren und aktiv mitzugestalten. Ihr Appell: "Wir müssen anfangen, wieder wirklich Politik zu machen."

KI ist mehr als nur ChatGPT

Und auch wenn die Expertinnen und Experten an diesem Tag immer wieder Beispiele präsentieren, wo die Möglichkeiten und Grenzen von ChatGPT liegen, so spricht Michael Hirschbrich, Co-Founder und CEO von Apollo.ai, aus, was in vielen Vorträgen seiner Kolleginnen und Kollegen ebenfalls mitschwingt: "ChatGPT ist nicht das Gleiche wie 'die KI'." Denn künstliche Intelligenz findet weit mehr Anwendungsgebiete als jene der Large Language Models (LLMs) wie ChatGPT, die vor allem gut im Verfassen von Texten sind. 

So bestehen Chancen im Bildungsbereich ebenso wie in der Medizin, der Pflege und im Verkehrswesen. Und Günter Klambauer, KI-Forscher an der Johannes-Kepler-Universität Linz (JKU), verweist darauf, dass das von JKU-Professor Sepp Hochreiter entwickelte Long Short-Term Memory (LSTM) unter anderem für das Vorhersagen von Flut-und Dürrekatastrophen genutzt werden kann. Entwickelt wurde LSTM bereits 1991, seitdem gilt das System als Grundlage für zahlreiche unterschiedliche KI-Anwendungen.

Geht unser Recht noch vom Volk aus?

Diesen Chancen stehen jedoch diverse Gefahren gegenüber: Die Expertinnen und Experten nennen Gefahren von AI Bias ebenso wie die Möglichkeit, dass LLMs bei der Verbreitung von Fake News unterstützen. Hinzu kommen Datenschutzbedenken: Ist es vertretbar, dass unsere Gespräche mit LLMs unkontrolliert auf US-amerikanischen Servern gespeichert werden, um die Systeme dort weiter zu trainieren? Und Spiekermann-Hoff bringt auch eine Sichtweise ein, die bisher unbeachtet blieb: Wenn LLMs problemlos einen einfachen Code erstellen können, was bedeutet das für die in 20 Jahren vorhandenen Fähigkeiten der Programmiererinnen und Programmierer? Sie hält ein "De-Skilling" für möglich, bei dem die Developer die Grundsätze des Codens nicht mehr beherrschen, weil sie dies an eine Maschine ausgelagert haben. 

Die größte Sorge ist aber wohl nicht jene, dass wir Verantwortung an die KI abgeben, sondern dass wir uns zunehmend von US-amerikanischen Konzernen abhängig machen. Ein Dilemma, mit dem sich JKU-Rektor Meinhard Lukas ausführlich auseinandergesetzt hat: Lauten die ersten beiden Sätze der Bundesverfassung nicht "Österreich ist eine demokratische Republik. Ihr Recht geht vom Volk aus"? Und sind wir tatsächlich noch Souverän über unser eigenes Recht? Oder haben wir dies an Tim Cook, Elon Musk, Sundar Pichai und Satya Nadella ausgelagert? Big Tech habe die technischen und auch die finanziellen Ressourcen, um die aktuelle Entwicklung zu dominieren, so Lukas: Die Frage nach der Souveränität müsse aber nicht nur technisch, sondern auch rechtlich, sozialwissenschaftlich und philosophisch beantwortet werden.

Der Teufel im Detail

Dieser Aufgabe wollen sich die EU-Institutionen im AI Act widmen: Als weltweit erstes umfassendes Rechtswerk zu künstlicher Intelligenz soll es die strenge Regulierung der Technologie ermöglichen. Jedoch entdecken die Expertinnen und Experten immer mehr brisante Details im aktuellen Gesetzestext. So bemerkt Lukas, dass Daten nicht mehr benötigt werden, wenn KI-Modelle einmal damit trainiert wurden, was Diskussionen über Urheberrecht entsprechend erschwert. Auch sollen toxische Inhalte vermieden werden: Doch wer entscheidet, was als toxisch gilt? Open-AI-Chef Sam Altman? Und wenn die im Gesetzestext formulierten Anforderungen den "allgemein anerkannten Stand der Technik berücksichtigen" müssen, wer legt diesen Stand mit seinem Wissen fest? Die CEOs von Google und Microsoft?

Allein die Definition von KI per se ist entscheidend, wie Iris Eisenberger, Professorin für Innovation und Öffentliches Recht an der Universität Wien, ausführt: Denn darauf basierend wird festgelegt, für wen die Regeln gelten – und für wen nicht. Zu bedenken sei auch etwa, dass der AI Act ein Verbot von Social Scoring vorsieht, dieses in gewisser Form aber bereits jetzt von Banken und Versicherungen verwendet wird, um etwa die Bonität eines Kunden zu berechnen. Gleichzeitig sei beachtlich, dass ein Modell wie ChatGPT ohne jegliche Qualitätskontrollen auf den Markt geworfen werden konnte. 

Die Frage, die wirklich Sorgen bereitet

Wird die KI uns also vernichten, oder wird sie uns bereichern? Zeit wird es, diese Frage einem Philosophen zu stellen: Julian Nida-Rümelin, ehemaliger deutscher Kulturminister und Professor emeritus für Philosophie und politische Theorie an der Ludwig-Maximilians-Universität in München. Er verweist darauf, dass unsere Gesellschaft von den abrahamitischen Religionen geprägt ist und wir somit gerne zwischen Erlösung und Verdammnis oszillieren. 

Das ist nicht neu. Auch Henry Ford glaubte schon, dass das Automobil der Menschheit den Frieden bringen wird, weil die Menschen dadurch verbunden sind. In den 1980er-Jahren wiederum hieß es, dass die Mechanisierung bald 80 Prozent aller Arbeitsplätze vernichten würde. Eingetreten ist keine von beiden Prognosen, und entgegen manchen Schreckensszenarien ist es auch in der aktuellen Entwicklung nur schwer denkbar, dass in wenigen Jahren nur noch 20 Prozent der Gesellschaft arbeiten: Tatsächlich, so der Philosoph, wird es bestimmte Tätigkeiten nicht mehr geben, dafür werden andere aber massiv nachgefragt werden.

Alarmiert ist er dennoch. Doch nicht in der sachlichen Perspektive, sondern in Bezug auf die Stimmung. So komme es immer wieder vor, dass die Software anthropomorphisiert werde. Dass wir ihr also menschliche Eigenschaften zuschreiben, obwohl es sich lediglich um besonders ausgeklügelte Computerprogramme handelt, die mit extrem großen Datenmengen trainiert wurden. Wenn wir diesen Programmen aber tatsächlich eine personale Identität zuschreiben, dann müssten wir ihnen auch entsprechende Rechte zugestehen. Und das würde schließlich jeglichen Fortschritt radikal bremsen. (Stefan Mey, 26.6.2023)