Ein künstliches Gehirn mit Zahnrädern und Maschinen
Generative KI kann Menschen augmentieren, wenn diese mit Freude mit ihr experimentieren können, sagt die Expertin.
Bing Image Creator, Dall E

Kirsten Rulf hat bereits Angela Merkel in KI-Fragen beraten und den AI Act mitverhandelt. Jetzt bereitet sie Unternehmen auf die technologische Revolution vor. Ein Interview über Chancen, Risiken, Überregulierung – und darüber, warum wir mit mehr Neugier an neue Technologien herangehen sollten. Und zwar noch heute.

STANDARD: Europa ist mit dem AI Act ja weltweit vorgeprescht. Das hat nicht nur für Verständnis gesorgt, sondern auch den Vorwurf eingebracht, man würde überregulieren. Wie wichtig sind rechtliche Spielregeln für KI?

Rulf: Dass eine Regulierung kommen muss, ist global unumstritten. Selbst die Amerikaner denken darüber nach, wie sie regulieren können. Präsident Biden zitiert ja nicht umsonst regelmäßig die Chefs der großen KI-Firmen zu sich ins Weiße Haus. Die Frage ist, wie streng muss sie sein und wie horizontal? Die EU hat sich für einen horizontalen Ansatz entschieden mit dem AI Act und verfolgt einen den zweiteiligen Ansatz: Zuerst steht da die Definition für KI in der EU. Das war anfangs sehr breit, ein besserer Taschenrechner war da schon KI. An der Definition wird also noch gearbeitet. Der zweite Teil ist das Risiko-Framework, das reguliert, wie mit Use-Cases umgegangen wird. Da wird die große Frage sein, in welche Risikoklasse fällt beispielsweise die generative KI, also etwa ChatGPT oder Midjourney. Die zentrale Frage ist jetzt: Wie kann man hier Grenzen setzen, ohne die generative KI gleichzeitig kaputt zu regulieren, indem wir sie etwa mit extrem viel Bürokratie vollladen und damit für Europa unattraktiv machen? China hat bereits eine vorläufige KI-Regulierung veröffentlicht, die haben darin bewusst manche generativen KI-Anwendungen von Regulierung ausgenommen. Also alles, was etwa nur firmenintern benutzt wird. Etwa KI-Anwendungen, die große Textmengen zusammenfassen, Callcenter produktiver machen. Das sind alles Dinge, die menschliche Intelligenz augmentieren und in den Firmen sehr intern gehalten sind. Damit kann man experimentieren. Das ist eigentlich ganz clever.

STANDARD: In Europa und gerade in Österreich wird häufig vor chinesischer KI gewarnt. Gibt es die Gefahr einer ideologischen KI aus China wirklich?

Rulf: Also erstens sind chinesische KIs vor allem auf Chinesen trainiert. Das heißt, ob das bei uns so funktionieren würde, ist nochmal eine ganz andere Frage, nämlich eine technische. Ich glaube, hinter der Angst vor chinesischer KI steckt die Angst, hinter anderen geopolitischen Werteräumen zurückzubleiben und als Europa wieder Platz drei hinter den USA und China einzunehmen. Die Angst ist schon berechtigt. Zuerst mit Regulierungen und dann erst mit Innovationen zu kommen, ist eine sehr europäische Sache. Die hat in manchen Bereichen nicht so gut funktioniert, in anderen aber sehr wohl.

Portrait von Kirsten Rulf
Kirsten Rulf ist Expertin für Regulierung, künstliche Intelligenz, Datenökonomie sowie Deep- und Climate-Tech. Für das deutsche Bundeskanzleramt hat sie den AI Act der EU mitverhandelt.
BCG

STANDARD: Wie kann man verhindern, dass aus einer sinnvollen Regulierung ein bürokratisches Monster wird?

Rulf: Da ist die Wirtschaft gefragt. Die Regulierer brauchen Erfahrungen aus der Praxis. Daher ist es sehr wichtig für Unternehmen, sich jetzt auch einmal stark einzubringen. Noch ist alles drin, und die Experten in Brüssel sind angewiesen auf Experten aus der Wirtschaft, die eng an der Technologie arbeiten und die technische Expertise haben. Das muss jetzt passieren. Im September oder Oktober ist das zu spät. Wenn sich die Wirtschaft im nächsten halben Jahr nicht noch einmal voll engagiert in diesem Gesetzgebungsprozess, wenn es da keine kräftige Stimme gibt, kann da eine Regulierung rauskommen, die sehr bürokratisch ist und die keiner will oder umsetzen kann. Sam Altman war ja nicht umsonst auf Europatour. Da wäre jetzt eine Initiative mit konkreten Vorschlägen beispielsweise der CEOs aus dem deutschsprachigen Raum keine schlechte Idee. Alles ist besser als bis zum letzten Tag zu warten, um dann am letzten Drücker wie bei der Datenschutz-Grundverordnung in Hektik zu verfallen.

STANDARD: Welche Anwendungsfälle für generative KI-Systeme gibt es jetzt schon? Oft hat man das Gefühl, es wird über die Technologie geredet, ohne sie zu verstehen.

Rulf: Es gibt aus meiner Perspektive drei Sichtweisen auf generative KI-Anwendungen. Da wäre etwa das vollkommen offene ChatGPT, das wahrscheinlich Sie und ich auch schon ausprobiert haben. Schnell mal was zusammenfassen, ein leeres Blatt mit einem Entwurf füllen. Jeder von uns hat wahrscheinlich schon mal mit Midjourney ein lustiges Fotos für eine Einladung generiert. Das ist ja eine Möglichkeit für Menschen zu lernen, mit KI umzugehen. Trotzdem wären auch das nach dem AI Act derzeit Hochrisikoanwendungen. Die zweite Perspektive ist die von Unternehmen, und da gibt es einerseits die Effizienz-Use-Cases. Sagen wir, ich bin eine Bank und will mein Callcenter effizienter machen, und ChatGPT schreibt Skripts für meine Mitarbeiter. Da habe ich ja immer noch einen Menschen in dem Prozess. Ein Mitarbeiter entscheidet, ob er das vorlesen möchte, er erkennt auch Fehler. Solche einfachen Beispiele könnte man meiner Ansicht nach aus der Risikokategorie des EU-AI-Act ausnehmen. Erst wenn kein Mensch mehr in dem Prozess ist, gelten dann andere Regeln. Dann gibt es noch eine zweite Kategorie von Use-Cases in Unternehmen, den wir gerade erst anfangen zu entdecken: Wir bei BCG nennen diese Anwendungsfälle "Golden Use-Cases". Von diesen wissen wir noch nicht ganz genau, wie sie eigentlich aussehen. Das sind disruptive Anwendungen, und damit müssen wir experimentieren können. Wenn wir das nicht mehr können in Europa, dann fallen wir zurück. Dafür muss es unbürokratische Sandbox-Lösungen geben. All das ist schon angelegt in der KI-Verordnung, aber wenig konkretisiert und ehrlich gesagt nicht besonders stark.

STANDARD: Politisch ist die KI-Regulierung ja ein heißes Eisen. Die Innenminister vieler europäischer Länder haben schon Überwachungsfantasien, über die Wirtschaft wird aber recht wenig geredet, kommt mir vor. Täuscht das?

Rulf: Die größte politische Diskussion gibt es um biometrische Überwachung im öffentlichen Raum. Die Punkte, die die Wirtschaft betreffen, werden weniger heiß diskutiert, das würde ich mir umgekehrt wünschen. Ich würde mir wünschen, dass da ein Ringen stattfindet, damit wir in Europa mit der Technologie experimentieren können. Wenn wir das nicht machen, wird genau das Gegenteil eintreten, was die KI-Verordnung beabsichtigt. Mit ihr sollen ja eigentlich die Menschen geschützt werden vor möglichen negativen Auswirkungen. Aber wenn Menschen von KI ferngehalten werden, dann kann man auch nicht lernen damit umzugehen. Dann haben wir zu wenig Erfahrung mit der Technologie und können auch die Risiken vielleicht nicht richtig einschätzen, die es natürlich gibt.

STANDARD: In Österreich wird gerade über die Einführung einer eigenen KI-Behörde diskutiert, die noch in diesem Jahr ihren Dienst aufnehmen soll. Kann das funktionieren?

Rulf: (lacht) Das kommt darauf an, wer dort arbeitet. Ich war ja auch in der Verwaltung, deshalb kann ich das mit ganz viel Liebe zu meinen Kollegen sagen, dass die tiefe Fachexpertise, die man braucht, um mit einem Unternehmen über KI auf Augenhöhe zu diskutieren, in einer Verwaltung eher selten ist. Wenn ich versuchen würde, diese Fachexpertise einzustellen, ist man am Markt wohl auch nicht so konkurrenzfähig wie die Unternehmen, die man versucht zu überwachen. Grundsätzlich finde ich so eine Behörde sehr gut, das wäre ein Knaller, wenn Österreich das hinkriegt. Ich glaube nur nicht, dass das besonders realistisch ist. Zumindest in der deutschen Verwaltung wäre es das nicht.

STANDARD: In der österreichischen wohl auch nicht. Was man soll so hört, soll die KI-Aufsicht wohl in eine schon bestehende Behörde integriert werden.

Rulf: (lacht) Das ist ja fast noch schwieriger. Da prallen dann erst recht zwei Kulturen aufeinander – die Techies und die Verwalter. Ich weiß noch, als die Leute aus dem Chaos Computer Club im Kanzleramt einmarschiert sind. Aber das würde ich eigentlich sehr gerne sehen, einen Versuch wäre es wert!

STANDARD: Welche Risiken sehen Sie für oder mit der Technologie der künstlichen Intelligenz?

Rulf: Da wäre zuerst einmal der regulatorische Block. KI ist ja de facto schon in Teilen reguliert. Urheberrechtsgesetze gibt es schon, Plattformregulierung gibt es schon, die Datenschutzgrundverordnung gilt seit Jahren. Nach diesen Gesetzen kann es jetzt schon jetzt zu Strafen kommen. Der zweite Block sind die technologieinhärenten Gefahren wie etwa Halluzinationen (wenn eine KI Informationen erfindet, Anm.). Ich hatte einen Fall, wo KI ein Produkt erfunden hat, das sich vielfach verkauft hat. Das Problem: Das Produkt gab es nicht. Wir brauchen also Feedback-Schleifen und Verhaltensregeln. Natürlich gibt es auch Cybersicherheitsrisiken. Mit generativer KI kann jeder Deepfakes mit Stimme, Video und Foto generieren und ein Bankkonto leerräumen. Sich davor als Unternehmen zu schützen ist sehr schwer. Dann gibt es noch das Problem der sogenannten "Shadow AI". Wenn ein Viertel aller Mitarbeiter einmal pro Tag bei ChatGPT ist, dann ist das einerseits positiv, wenn die Mitarbeiter technikfreundlich sind und damit experimentieren. Aber natürlich ist es ein Risiko, wenn etwa wie bei Samsung plötzlich die Firmenstrategie geleakt wird. Da ist es wichtig, klare Regeln mit den Mitarbeitern zu erarbeiten, damit sie auch verstehen, warum das sinnvoll ist. Das muss aber auch gelebt werden. Ein KI-Gremium, das alle drei Monate einmal tagt und sowieso keinen interessiert und Regeln ausarbeitet, die sich jeder irgendwo abheftet, wird nicht die Lösung sein.

STANDARD: Werden wir also in den kommenden Jahren eine ganze Menge KI-Expertinnen und -Experten brauchen? Woher sollen die kommen?

Rulf: Eigentlich ist es ja genau umgekehrt. Die generativen KI-Modelle machen es einem ja so leicht, dass plötzlich Industrien mit großem Fachkräftemangel wie IT und Data-Science jetzt die Möglichkeit haben, wirklich vorwärts zu kommen. Es gibt Menschen wie mich, die können nicht den schönsten Code schreiben, aber mit ChatGPT dennoch große Schritte machen. So kann man Mitarbeiter motivieren und augmentieren und so auch Sprunginnovationen hinlegen.

STANDARD: Wohin geht die Reise. Wo stehen wir mit der KI-Entwicklung in fünf Jahren?

Rulf: (lacht) Das traue ich mich nicht zu sagen. Denken Sie dran, erst vor einem Jahr wäre dieses Gespräch ganz anders verlaufen. Aber: Wer bis Ende des Jahres nicht die ersten Anwendungsfälle für generative KI integriert hat, wird superschnell abgehängt werden. Erstens als attraktiver Arbeitgeber, denn warum sollten da Talente noch hingehen? Selbst wenn ich kein Supertalent bin, warum sollte ich mühevolle Arbeit mit der Technologie nicht einfacher und mit mehr Spaß erledigen können, warum sollte ich mir da einen Arbeitgeber aussuchen, der mir das nicht bietet? Zweitens, wir werden auch ganz schnell Produktivitätszuwächse sehen, und Firmen, die sich nicht mit Lust am Experimentieren draufstürzen, werden abgehängt werden. Wir werden außerdem bis Ende des Jahres Anwendungsfälle in Unternehmen sehen, die uns überraschen werden. Jedes Unternehmen, das da auch mit dem Bewusstsein für Risiken und Grenzen reingeht, hat das eine große Chance, zum Vorreiter zu werden.

STANDARD: Wann ist die Zeit, sich mit KI-Technologie auseinanderzusetzen?

Rulf: Heute.

STANDARD: Viel Zeit bleibt da aber nicht.

Rulf: Nein, denn wer sich jetzt hinsetzt und mal bis Weihnachten die Situation beobachtet, verpasst die Chance mitzugestalten. Und der Regulierungszug ist bis dahin auch abgefahren. Der Kampf um die besten Talente wird sehr heiß werden, genauso die Frage, wer die geopolitische Nase vorne hat.

STANDARD: Hat Europa da überhaupt noch eine Chance?

Rulf: Ja, na klar. Wenn ich nicht an Europa glauben würde, hätte ich ja nie im Kanzleramt arbeiten dürfen. Komplexe Systeme sind Europas Stärke. Da müssen wir jetzt ran. (Peter Zellinger, 31.7.2023)