Florian Tursky, Staatssekretär für Digitalisierung: "Es darf nicht sein, dass jemand aufgrund der Bewertung von KI-Systemen keine Kranken- oder Lebensversicherung oder keinen Kredit bekommt."

Foto: IMAGO/SEPA.Media

Die EU regelt erstmals den Einsatz von künstlicher Intelligenz (KI), etwa im Umgang mit Kunden- oder Patientendaten sowie im Bereich der Strafverfolgung. Für Dienstag ist beim EU-Ministerrat für Telekommunikation in Brüssel die "Annahme einer vorläufigen Ratsposition" zum bisher erarbeiteten Textvorschlag geplant, berichtete Digitalisierungs-Staatssekretär Florian Tursky (ÖVP) am Freitag. Nach weiteren politischen Prozessen soll die Verordnung ab 2025 zur Anwendung kommen.

Artificial Intelligence Act

"Der Artificial Intelligence Act (kurz AI Act, Anm.) ist die erste rechtliche Regelung von künstlicher Intelligenz, die weltweit aktuell verhandelt wird", erläuterte Tursky bei einem Hintergrundgespräch in Wien. Dabei betreffe der Einsatz von KI-Systemen schon heute viele Bereiche des täglichen Lebens.

Der Staatssekretär verwies etwa auf Empfehlungen auf Online-Plattformen wie Amazon oder Netflix aufgrund eigener und anderer Nutzerverhalten, auf die Erfassung und Analyse von Gesichtsdaten oder auch auf KI-Anwendungen zur Diagnose und Behandlung von Krankheiten. Acht Prozent aller Unternehmen in Europa verwendeten bereits KI-Technologien, Österreich sei mit knapp unter zehn Prozent im Mittelfeld.

Vier Kategorien

"Natürlich bergen diese KI-Systeme auch Risiken", sagte Tursky. In dem Verordnungsentwurf werden daher KI-Anwendungsbereiche in vier Kategorien unterteilt. Jene mit "unannehmbarem Risiko" werden verboten, für jene fünf bis 15 Prozent mit "hohem Risiko" brauche es sehr starke Auflagen und für jene mit "geringem Risiko" hohe Transparenzvorschriften, wurde erläutert. Den Großteil der Anwendungen stellen Systeme mit minimalem Risiko dar. Für diese gelte die freie Anwendung auf Basis der bestehenden Rechtslage.

In den Hochrisikobereich fallen beispielsweise die Bewertung der Kreditwürdigkeit von natürlichen Personen oder die Risikobewertung und Preisgestaltung bei Lebens- und Krankenversicherungen. Auch die Auswahl und Einstellung von Personen in Unternehmen sowie Entscheidungen über die Beförderungen oder Kündigungen von Mitarbeiterinnen und Mitarbeitern sollen besonders reglementiert werden.

"Es darf nicht sein, dass jemand aufgrund der Bewertung von KI-Systemen keine Kranken- oder Lebensversicherung oder keinen Kredit bekommt", sagte Tursky. Die KI-Verordnung soll auch nicht über Leben und Tod entscheiden dürfen, etwa ob ein Patient weiterhin künstlich beatmet wird.

"Social Scoring"

Gar nicht erlaubt sein soll auch schädliche oder unterschwellige Manipulation sowie "Social Scoring", also die Bewertung des Verhaltens von Menschen innerhalb einer Gesellschaft, wie dies in China bereits zur Anwendung kommt. Verboten wird laut Turky weiters die "Echtzeit-Fernidentifikation über Videokameras durch Strafverfolgungsbehörden", mit Ausnahmen für solche Gesichts- und Bewegungserkennungssysteme etwa nach Terroranschlägen oder in Hochrisikobereichen.

Der AI Act müsse an "wahnsinnig schnelle Entwicklungen" angepasst werden. Daher werde versucht, "den Rahmen eher allgemein zu halten". Es sei jedenfalls nicht so, dass bisher alles erlaubt ist, es gebe auch jetzt schon Gesetze, die bestimmte KI-Anwendungen verhindern. Tursky sprach aber von einem "gewissen Wildwuchs" in dem Bereich. Fragen zur Haftung von KI-Systemen werden im Rechtsakt nicht verankert, dafür wurde kürzlich eine gesonderte KI-Haftungsrichtlinie vorgelegt.

Regelung für Schadenersatz

Fragen zur Haftung von KI-Systemen wurden im Rechtsakt nicht verankert, hierzu wurde erst kürzlich eine gesonderte KI-Haftungs-Richtlinie vorgelegt. Jede natürliche oder juristische Person, die Grund zu der Annahme hat, dass ein Verstoß gegen die KI-Verordnung vorliegt, kann eine Beschwerde bei der zuständigen Marktaufsichtsbehörde einreichen.

In Österreich ist die Marktüberwachung je nach Produkt bei einer unterschiedlichen Stelle angesiedelt. Darüberhinausgehend sind auch Haftungsthemen von KI in der – ebenso erst kürzlich vorgelegten – Revision der Produkthaftungs-Richtlinie vorgesehen; diese sieht eine verschuldensunabhängige Haftung vor. Damit soll ein effektives Sicherheitsnetz im Bereich KI gewährleistet werden.

Bitte warten

Abhängig von der Dauer der nun anstehenden Trilogverhandlungen dürfte der AI Act frühestens 2025 anwendbar sein. Bei den Verhandlungen zwischen Europäischem Parlament, Rat und EU-Kommission sind noch mehrere Themen zu berücksichtigen. Das umfasst die Definition eines KI-Systems, die KI-Systeme für allgemeine Zwecke sowie KI-Systeme, die von öffentlichen Behörden verwendet werden. Aber auch die Frage nach Zuständigkeiten und die Durch- und Umsetzung der KI-Verordnung müssen noch im Detail geklärt werden. (APA, red, 2.12.2022)