Im Gastblog empfiehlt Sarah Spiekermann den politischen Akteurinnen und Akteuren bei KI generell eine national eigenständigere Politik im Sinne der Bürgerinnen und Bürgern.

Im ersten Teil dieser KI-Serie schrieb ich, dass die Einführung von ChatGPT ein Wahrheitsereignis gewesen ist. Der Philosoph Alain Badiou analysiert in seinem Buch "Das Sein und das Ereignis" drei verschiedene Typen von Umgang mit solchen Wahrheitsereignissen:

Roboter in Denkerpose
Es braucht Maßnahmen, um die Gesellschaft in ihrem Umgang mit GenAIs und KI zu stärken.
Getty Images/iStockphoto/PhonlamaiPhoto

Ich würde mir von den politischen Akteurinnen und Akteuren in Österreich die Zugehörigkeit zur ersten Gruppe wünschen. Allerdings nicht in naiver Form, was heißen würde, wie die zweite Gruppe zu agieren, wie in den letzten 25 Jahren IT-Gesellschaftspolitik. Hier hat man die Linie verfolgt, alles Neue automatisch als fortschrittlich gutzuheißen und IT-Services so zu akzeptieren wie von den US-amerikanischen IT-Konzernen vorgesetzt beziehungsweise von Brüssel aus reguliert. Ich würde den politischen Akteurinnen und Akteuren bei KI generell eine national eigenständigere Politik im Sinne der Bürgerinnen und Bürgern raten.

Die KI-Verordnung der EU ist kein effektiver Bürgerschutz

Anlässlich des Parlamentarischen Forums, das Wolfgang Sobotka am 26. Juni im Nationalrat zur KI organisiert hat, führten Iris Eisenberger, Professorin für Innovation und Öffentliches Recht Universität Wien, und Meinhard Lukas, Professor für Zivilrecht und Rektor der Universität Linz, messerscharf an, warum die in Brüssel dieser Tage ratifizierte KI-Verordnung keinen effektiven Schutz der Bevölkerung vor KI darstellt. In einem internen Meeting mit EU-Kommissionsmitgliedern, dem ich selbst kürzlich beigewohnt habe, rühmte sich eine EU-Kommissionarin damit, dass 85 Prozent der KI-Anwendungen von der Verordnung nicht betroffen sein werden. Vor diesem Hintergrund schlage ich ein paar Maßnahmen vor, die ich in Teilen auch dem Parlamentarischen Forum im Nationalrat unterbreitet habe, um die österreichische Gesellschaft in ihrem Umgang mit GenAIs und KI generell zu stärken.

Automatisierung von Entscheidungen

Fundamental ist aus meiner Sicht, dass man schon bei der Definition von KI nicht anfängt, Verantwortungsschlupflöcher zu schaffen. In dem Moment, wo eine Bürgerin oder ein Bürger von automatischen Entscheidungen eines IT-Systems betroffen ist, die sie nicht beeinflussen kann, die aber ihre Grundrechte negativ betreffen, sollte ein Rechtsschutz einsetzen. Dabei sollte unerheblich sein, dass vielleicht noch ein Mensch zwischen den Betroffenen und KI gesetzt wird, der die Maschinenentscheidung so aussehen lässt, als käme sie von einem Menschen.

Alle Automatisierer haben Verantwortung zu tragen

Alle Unternehmen sollten bei der vollen oder teilweisen Automatisierung von Entscheidungen die Verantwortung tragen, der EU-Grundrechtscharta zu genügen, und zwar unabhängig von der Unternehmensgröße oder Servicereichweite oder den in der EU-Verordnung vorgesehenen Risikoklassen. Da die Grundrechtsimplikationen einer jeden KI-Anwendung einzigartig sind, sollte vor der Nutzung der Technologie eine Prüfung und Anpassung durch standardisierte Werte-basierte Impact Assessments erfolgen, so wie es von der Digitalen Humanismus Initiative in Österreich verfolgt wird.

Inspiration holen in China

In ihrer eigenen Regulierung der GenAIs verbieten die Chinesinnen und Chinesen das Verteilen von falscher Information, ansonsten winken unliebsame Strafen. Dasselbe gilt für GenAI-Informationen, die nicht das geopolitische Wertkorsett teilen und die Nutzer aufhetzen. Ein persönliches Haften der europäischen Geschäftsführenden oder nationalen Firmenvertretungen für Falschinformationen oder Hetze würde bei GenAI-Anbietenden in Österreich sicherlich auch Anreize setzen, bessere Technik zu bauen und die Nation nicht mit Falschinformationen zu irritieren.

Sicherlich ist ein starkes und einfach zugängliches Schutznetz für IT/KI-Missbrauchsopfer mit kurzen Wegen aufzubauen. Beschwerden und effektive Rechtsdurchsetzung mit Schadensersatzansprüchen sollten für Bürgerinnen und Bürger einfach zugänglich sein. Aber Regierungen sind nicht dazu da, mit Steuergeldern hinter IT-Konzernen aufzuräumen, weil diese keine Qualität liefern. Auch GenAI-Betreibende müssen Anreize haben, sich genuin und mit Hochdruck der Qualität ihrer Systeme zu widmen, was durch Haftung, Schadensersatz und gegebenenfalls Domainsperren gefördert werden kann.

Gleichzeitig sollten die österreichischen Regierungskräfte die Eindämmung der Nutzung von KI-gesteuerten Systemen in Erwägung ziehen, so wie China es heute schon mit den Spielewelten tun. KI-generierte Services wie Games, Soziale Netzwerke, ChatGPT sollten in ihrer täglichen Nutzungsdauer massiv eingeschränkt werden. Eine Alternative wäre eine Eindämmung der Nutzung über entsprechend hohe Preise und Steuern.

Technologievorgaben im Interesse der Umwelt und der Wettbewerbsfähigkeit

Weniger Falschinformation und servicegerechte Bepreisung von GenAIs könnten auch erreicht werden, wenn der Staat Vorgaben machte zur Güte und Natur der KI-Trainingsdaten. Trainingsdaten könnten etwa konsequent auf Qualität und Urheberrecht geprüft und entsprechend markiert sein. Personenbezogene Daten könnten im Zuge dieses Datenbereinigungsprozesses sogar ganz ausgeschlossen werden, so dass es gar nicht mehr zu Aussagen über einzelne lebenden Individuen durch die GenAIs kommt (wozu auch?).

Die Qualität und Richtigkeit der Trainingsdaten ist jedoch nur ein erster Schritt. Bedeutsam ist in den Augen vieler Expertinnen und Experten heute die relative Effizienz und Richtigkeit von GenAIs im Verhältnis zu ihrem jeweiligen Energieverbrauch. Hier wäre die Veröffentlichung entsprechender Kennzahlen durch die GenAI-Anbietenden einzufordern, damit Einkaufs- und Betriebsentscheidungen rational im Sinne des Umweltschutzes gefällt werden können.

Wie man so eine Verbesserung der Daten und des KI-Betriebs herbeiführen kann, könnte von österreichischen Forschenden untersucht werden. Letztere sollten dadurch national gefördert werden, dass GenAI-Anbietende ihre Dienste nur dann in Österreich anbieten dürfen, wenn sie auch national die dafür notwendigen Cloud-Systeme betreiben und sich zu Ausbildungskooperationen mit österreichischen Universitäten verpflichten. Wo dann GenAI-Anbietende meinen, dass Österreich womöglich zu klein sei, um solche Forderungen zu stellen, könnte sich Österreich mit Nachbarstaaten zusammentun, die vor denselben Herausforderungen stehen.

Realität verfolgen statt von Übermenschen träumen

Um die Datenmacht der großen IT-Konzerne und GenAI-Anbietenden zu brechen, ist es nötig, unabhängige Cloudanbieter und MyData-Initiativen zu fördern, die als Schutzlayer zwischen den Nutzern und den GenAIs auftreten können. Das Potenzial dieser Technologien ist unbedingt weiter auszuloten und zu fördern, um eine nationale Daten- und Datenverarbeitungssouveränität wieder herzustellen. Und auch dafür ist es notwendig, GenAI-Datacenter und Forschungsstellen nach Österreich zu bekommen.

Wo man bei all solcher Technologieförderung und -forschung jedoch die Spreu vom Weizen trennen sollte ist, wenn Projekte beantragt oder in Betrieb genommen werden, die die GenAIs glorifizieren. Mit GenAIs ist keine großartige Intelligenz geschaffen worden, die es rechtfertigen könnte, die alte Diskussion wieder anzufachen, ob man KIs nicht doch Rechtspersönlichkeiten zuweisen sollte, da sie doch so klug und so menschlich sind. Im Teil 5 dieses Blogs habe ich aufgezeigt, warum das nicht der Fall ist. Die Politik sollte sich daher auch nicht in die Irre führen lassen. Es gilt unorthodox harte, unkonventionelle aber dabei realitäts- und techniknahe Politik zu betreiben. (Sarah Spiekermann, 28.7.2021)