Schäden, wie sie KI-Systeme bereits verursacht haben, müssen in Zukunft verhindert werden.

Foto: Imago/Ralph Peters

Künstliche Intelligenzen und Algorithmen sind zunehmender Bestandteil unseres Alltags. Basierend auf dem Sammeln, Interpretieren und Neubewerten von Daten legen KI-Systeme jetzt schon wichtige Entscheidungen fest: Welche Nachrichten in Feeds landen, wie kreditwürdig Personen sind oder welcher Lebenslauf am besten zu einer Jobausschreibung passt.

Schäden, wie sie solche Systeme bereits verursacht haben, etwa durch Diskriminierung von Geschlecht oder Herkunft, müssen in Zukunft verhindert werden. Ein diese Woche neu vorgestellter Gesetzesentwurf der EU, der frühestens nächstes Jahr beschlossen wird, ist Teil des europäischen Vorstoßes im Rahmen des "Artificial Intelligence Acts" (AI Act). Der Act soll Künstliche Intelligenz regulieren und Entwickler sogar daran hindern, zu riskante Systeme überhaupt zu veröffentlichen.

Mehr Rechte für Betroffene

Bislang im Entwurf des AI Acts nicht vorgesehen war ein Schadenersatz für Betroffene. Das nun vorgeschlagene Haftungsgesetz würde Personen und Unternehmen das Recht geben, Schadenersatz zu verlangen, nachdem sie durch ein KI-System geschädigt worden sind. Entwickler, Hersteller und Nutzer solcher Technologien müssten dabei auch dokumentieren, wie ihre Systeme gebaut und trainiert worden sind. Tech-Unternehmen, die sich nicht an diese Regeln halten wollen, müssen mit EU-weiten Sammelklagen rechnen.

Weisen Arbeitssuchende in Zukunft also beispielsweise vor Gericht nach, dass sie bei der Überprüfung von Lebensläufen durch eine KI benachteiligt worden sind, können sie das betroffene Unternehmen zur Herausgabe der Informationen zwingen, die Verantwortlichen identifizieren und gegebenenfalls verklagen.

Expertinnen befürchten allerdings, dass genau dieser Nachweis ein Problem für Verbraucherinnen darstellen könne. "In einer Welt hochkomplexer und obskurer ‚Black Box‘-KI-Systeme wird es für den Verbraucher praktisch unmöglich sein, die neuen Regeln anzuwenden", sagt Ursula Pachl, stellvertretende Generaldirektorin der Europäischen Verbraucherorganisation, auf Nachfrage des MIT Technology Review. So sei es zum Beispiel bei einem Kreditvergabesystem besonders schwierig, die rassistische Diskriminierung einer Person nachzuweisen.

Risikobasierte Auflagen

Der AI Act ist das erste Gesetz weltweit, das eine umfassende Regulierung von Künstlichen Intelligenzen in allen Lebensbereichen vorsieht. Ein risikobasierter Ansatz soll gewährleisten, dass der Einsatz KI-basierter Systemen keine negativen Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen hat.

Risikobasiert bedeutet in diesem Fall, dass das jeweilige Risikopotenzial über die gesetzlichen Auflagen entscheidet. Demnach sollen inakzeptable risikoreiche Systeme zur Gänze verboten werden, Hochrisiko-Systeme bestimmten Regeln unterliegen und risikoarme KIs ohne Beschränkungen genutzt werden.

Ein weiter Weg

Veröffentlicht wurde der Vorschlag von der EU-Kommission bereits im April letzten Jahres, der AI Act hat aber noch einen weiten Weg vor sich. Nach Kompromissanträgen sollen im November alle Mitglieder des EU-Parlaments über seine Version des Gesetzesentwurfs abstimmen, der EU-Rat will eine Einigung im Dezember erzielen. Kommen beide Institutionen intern zu einem Konsens, beginnen erst die Trilogverhandlungen für eine abschließende Einigung.

Dieser Prozess wird in den kommenden Monaten weltweit genau beobachtet, weil die Gesetzgebung der EU einen großen Einfluss darauf haben wird, wie KI auf der ganzen Welt reguliert wird. Immer häufiger kommt es durch den Einsatz von Künstlicher Intelligenz zu rechtlichen Herausforderungen, zuletzt under anderem wegen der Urheberrechtsfrage von Bildern, die durch KI-Software erstellt worden ist. (bbr, 2.10. 2022)