Der AI Act der EU ist nach Ansicht von Experten gut gemeint, könnte aber die Falschen treffen.


(Dieses Bild wurde mit der Bild-KI Midjourney generiert. Der Prompt lautete: "a robot dressed up as a lawyer standing in front of the EU-buildings in bruxelles. --ar 16:9".)

Foto: Midjouney/Stefan Mey

Künstliche Intelligenz hat in den vergangenen Monaten durch massentaugliche Anwendungen wie ChatGPT oder Midjourney die Schlagzeilen diverser Medien dominiert, im Hintergrund bestimmt sie jedoch schon längst weite Teile unseres Alltags: Von Empfehlungen zu Artikeln in sozialen Medien bis zur Optimierung von Logistikabläufen, überall sorgen Algorithmen für eine vermeintliche Optimierung – und damit einhergehend für die Sorge, dass die Technologie diskriminierend gegenüber bestimmten Personengruppen oder anderweitig schädlich sein könnte.

Grund genug für die Europäische Union, am sogenannten AI Act zu arbeiten – einem Regelwerk, das den Einsatz von künstlicher Intelligenz innerhalb der EU stärker regulieren soll. Zu diesem Paket haben sich EU-Kommission und EU-Rat bereits geäußert, nun wird im Europäischen Parlament eifrig über das Thema debattiert.

Es wird damit gerechnet, dass dessen Position im Mai feststeht, im Sommer sollen dann die Verhandlungen im Trilog zwischen den Institutionen beginnen. Anzuwenden ist der AI Act frühestens ab 2025, was noch in weiter Ferne steht. Das Thema polarisiert allerdings vor allem jetzt, da nun die politischen Weichen für die Zukunft gestellt werden.

Was ist ein "hohes Risiko"?

Daniel Abbou, Geschäftsführer des KI Bundesverband Deutschland, sieht einen essenziellen Kritikpunkt am AI Act in der Unterteilung der Anwendungen in vier Risikogruppen, die von inakzeptablen Risiken über ein hohes und limitiertes Risiko bis zu minimalem Risiko reichen.

Als inakzeptables Risiko gelten alle Modelle, welche die Sicherheit und Rechte der Bevölkerung bedrohen, dazu gehören die in China bereits praktizierten Social-Scoring-Modelle ebenso wie Spielzeuge mit Sprachassistenten, die zu gefährlichem Verhalten animieren. Sie sollen verboten werden. Für Hochrisiko-Anwendungen soll es hingegen starke Einschränkungen geben, bei ihnen gelten etwa Vorgaben in puncto Transparenz und Sicherheit.

Hier kritisiert Abbou, dass es keine ausreichende Differenzierung zwischen Großunternehmen und innovativen Start-ups gebe. Während ein großer US-Konzern, welche aktuell den KI-Markt dominieren, über eine Armee an Anwälten verfüge, würden europäische Neugründungen im KI-Segment bereits im Keim erstickt. "Die Intention ist gut, sie kann aber die falschen treffen", sagt Abbou.

Das Problem der Blackbox

Ein weiterer Knackpunkt ist die Transparenz, also die Aufforderung zur Offenlegung des Algorithmus. Denn man könne zwar die Eingabe – den Input Layer – und den Output Layer transparent gestalten. Alles dazwischen – und somit das, wo die eigentliche Arbeit der Algorithmen wirkt – ist jedoch eine regelrechte Blackbox: ein schwer zu durchschauendes Konstrukt, das entsprechend auch nicht einfach offenzulegen ist. Erst recht nicht für Start-ups mit beschränkten Ressourcen.

Generell ist es aber natürlich essenziell, den sogenannten AI Bias in den Griff zu bekommen. Darunter versteht man, dass auch KIs diskriminierend sein und bestimmte Bevölkerungsgruppen benachteiligen können – sei es etwa bei der Vergabe von Krediten oder in Bewerbungsprozessen.

Dabei hat die KI häufig ein ähnliches Weltbild wie ihre Erschaffer – und das sind meistens weiße Männer. Das Gute ist aber, so Abbou, dass man einen Algorithmus bei Bedarf auch umprogrammieren kann, wenn Fehlverhalten festgestellt wird.

Schlusslicht Europa

"Die Frage ist nun also, ob die Entwicklung in Europa stattfindet oder nicht", bestätigt Alexander Wrabetz die Bedenken Daniel Abbous. Der ehemalige Generaldirektor des ORF beschäftigt sich nun unter anderem als Leiter der Expert Group Digitalisierung und KI des Thinktanks Future Vienna des Sozialdemokratischen Wirtschaftsverband Wien mit dem Thema künstliche Intelligenz. Die USA seien derzeit globaler Vorreiter in puncto Technologie, die EU hingegen "Vorbereitungsweltmeister bei der Regulierung", so Wrabetz.

Schon jetzt seien unsere privaten Daten nach Westen und Osten abgewandert, ergänzt Abbou: Wenn man nun nicht künstliche Intelligenz in Europa etabliere, dann drohe die Gefahr, dass auch Industriedaten und -anwendungen zunehmend in Drittstaaten verschwinden. Ein Problem sieht er dabei neben der Politik auch in der Wirtschaft: In Deutschland führte sein Verband eine Umfrage durch, laut der gerade einmal sechs Prozent der befragten Unternehmen derzeit KI nutzen.

Aber die Arbeitsplätze?

Doch was ist mit der Befürchtung, dass Arbeitsplätze durch die Automatisierung über künstliche Intelligenz ersetzt werden? Hier gibt man sich auf sozialdemokratischer Seite offen. Jede neue Technologie koste keine Jobs, sondern verändere Arbeitsplätze, heißt es von Elisabeth Hakel, Geschäftsführerin des Sozialdemokratischen Wirtschaftsverbands Wien. Es helfe nicht, sich zu verstecken – stattdessen solle aktiv an der Schaffung neuer Jobs in diesem Umfeld gearbeitet werden.

Als ein Feld, in dem sich die Jobs verändern werden, nennt Ex-ORF-Generaldirektor Wrabetz den Journalismus: Dieser bestehe auch zu einem guten Teil aus repetitiven Aufgaben, rund 50 Prozent der medialen Arbeitsbilder könnten sich demnach verändern, vor allem in Bezug auf den Umgang mit Text, Bild und Daten. Im Gegenzug werde es essenziell, vertrauenswürdige Wissensräume zu bilden. Stichwort: Fake News und Deepfakes.

Der Titel für diesen Artikel ist in Kooperation mit ChatGPT entstanden.
Foto: Screenshot

Dabei sei auch zu bedenken, dass vor allem Medienhäuser nach wie vor "Probleme mit der Wertschöpfung" haben. Dies könnte mit KI kompensiert werden, und es könnten etwa durch Pensionierungen frei gewordene Stellen durch KI ersetzt werden.

In diesem Punkt erwähnt Abbou auch das Stichwort Fachkräftemangel: Im Gesundheitsbereich könnte die Dokumentation etwa automatisiert werden, damit das menschliche Personal mehr Zeit für die Patientinnen und Patienten hat.

Eine Frage der Bildung

Teil dieses Umbruchs ist auch ein Umdenken im Bildungsbereich, betont Hakel: Wie bereiten wir die jungen Menschen auf die Jobs der Zukunft vor? Hier die Weichen zu stellen, sollte auch Aufgabe der Politik zu sein, anstatt sich lediglich auf den Ausbau des 5G-Netzes zu konzentrieren.

Das EU-Parlament sei nun am Zug, hier einen guten Weg zu finden, schließt Abbou. Fragen wie jene zu den Hochrisiko-Anwendungen seien noch offen. Die nächsten Wochen und Monate werden in dieser Hinsicht entsprechend spannend – und darüber entscheiden, ob Europa in Zukunft ein relevanter Standort in diesem Feld ist oder ein weiteres Mal mehr reguliert als innoviert. (Stefan Mey, 10.3.2023)