Mehr als ein Dutzend der führenden Unternehmen im Bereich Künstlicher Intelligenz (KI) haben sich bei einem Gipfel im südkoreanischen Seoul zur Entwicklung sicherer Anwendungen verpflichtet. "Diese Verpflichtungen stellen sicher, dass die weltweit führenden KI-Unternehmen Transparenz und Rechenschaft über ihre Pläne zur Entwicklung sicherer KI ablegen", erklärte der britische Premierminister Rishi Sunak am Dienstag.

Demnach müssen die Firmen auch mitteilen, wie sie die Risiken von KI bewerten und wo Grenzen bei der Entwicklung liegen. Ebenso am Dienstag hatten die EU-Staaten in Brüssel einstimmig für die Regulierung von Künstlicher Intelligenz (KI) gestimmt und damit den sogenannten AI Act final abgesegnet.

Das Treffen in Seoul, an dem neben dem ChatGPT-Hersteller OpenAI auch Google DeepMind und Anthropic teilnehmen, baut auf einen ersten globalen KI-Sicherheitsgipfel im vergangenen Jahr in Großbritannien auf. Auch jetzt ist Großbritannien Mitveranstalter.

Das Bild zeigt, wie ein Mann den AI-Schriftzug betrachtet
Ein Mann betrachtet einen KI-Schriftzug.
APA/AFP/Lago

"Nicht tolerierbare" Risiken

Die Unternehmen verpflichten sich, zu veröffentlichen, welche Risiken künstlicher Intelligenz für sie als "nicht tolerierbar" eingestuft werden und was die Unternehmen tun werden, um diese Schwellenwerte nicht zu überschreiten, hieß es in der vom britischen Wissenschaftsministerium vorgelegten Erklärung.

Sollten diese Vorgaben nicht gehalten werden können, verpflichteten sich die Hersteller dazu, bestimmte Systeme oder Modelle "nicht einzusetzen oder zu entwickeln". Wie diese Schwellenwerte genau definiert sind, soll beim nächsten Gipfeltreffen in Frankreich im kommenden Jahr festgelegt werden.

Am Treffen in Seoul, das noch bis Mittwoch läuft, partizipieren auch die Technologieriesen Microsoft, Amazon, IBM und die Facebook-Mutter Meta.

Angst vor "Deepfakes"

Die sogenannte Generative Künstliche Intelligenz wird dafür verwendet, beispielsweise in Programmen wie ChatGPT, um Texte, Bilder oder Videos zu erzeugen. Die Programme können dabei mit unterschiedlichen Datenarten gespeist werden, diese auswerten und daraus neue Daten generieren.

Kritiker warnen, dass KI auch dafür genutzt werden könnte, Wahlen zu manipulieren, etwa durch gefälschte Nachrichten oder sogenannte "Deepfakes", also täuschend echte aber manipulierte Bilder oder Videos. Aktivisten und viele Regierungen fordern daher internationale Standards für die Entwicklung und den Einsatz von KI.

Der Rat der EU verabschiedete am Dienstag ein KI-Gesetz, das die Nutzung der Technologien etwa in der Videoüberwachung, Spracherkennung oder bei der Auswertung von Finanzdaten regelt. Vorgesehen ist etwa eine Kennzeichnungspflicht: Entwickler sollen mit Künstlicher Intelligenz erzeugte Texte, Töne und Bilder markieren müssen, um Menschen nicht in die Irre zu führen. Das Gesetz greift allerdings erst ab Frühjahr 2026. Experten halten die Vorgaben wegen der Fülle des Materials allerdings ohnehin für schwer kontrollierbar. (APA, 21.5.2024)