Diane Coyle warnt in ihrem Gastkommentar davor, dass Großunternehmen allein über KI-Technologie bestimmen könnten. Die Cambridge-Professorin sieht die Politik gefordert.

Wie sollen demokratische Regierungen auf neue KI-Technologien reagieren?
Illustration: Fatih Aydogdu

ChatGPT, der neue Chatbot für künstliche Intelligenz, hat die Welt im Sturm erobert. Die Veröffentlichung durch das in San Francisco ansässige Forschungslabor OpenAI im November letzten Jahres wurde schnell zu einer weltweiten Sensation, die Millionen von Nutzerinnen und Nutzern anzog und angeblich den Tod der studentischen Seminararbeit bedeutet. Die berühmteste generative KI der Welt, die bereits als Meilenstein in der Entwicklung sogenannter großer Sprachmodelle gefeiert wird, wirft aber auch wichtige Fragen darüber auf, wer diesen im Entstehen begriffenen Markt kontrolliert und ob diese leistungsstarken Technologien dem öffentlichen Interesse dienen.

Die Antworten, die ChatGPT gibt, sind flüssig und überzeugend. Trotz der sprachlichen Fähigkeiten kann die App jedoch manchmal Fehler machen oder faktische Unwahrheiten erzeugen – ein Phänomen, das unter KI-Forschenden als "Halluzination" bekannt ist. Die Angst vor gefälschten Referenzen hat in letzter Zeit mehrere wissenschaftliche Zeitschriften dazu veranlasst, die Verwendung von ChatGPT und ähnlichen Tools in wissenschaftlichen Arbeiten zu verbieten oder einzuschränken. Doch während der Chatbot bei der Faktenüberprüfung noch Probleme zu haben scheint, ist er bei der Programmierung offenbar weniger fehleranfällig und kann problemlos effizienten und eleganten Code schreiben.

Lockere Struktur

Trotz aller Mängel stellt ChatGPT offensichtlich einen bedeutenden technologischen Durchbruch dar. Und obwohl OpenAI als eine gemeinnützige Organisation begonnen hatte, ist es heute ein gewinnorientiertes Unternehmen mit einem Wert von 29 Milliarden US-Dollar. Es hat sich zwar verpflichtet, seine Gewinne zu begrenzen, aber die lockere Struktur begrenzt die Rendite der Investoren auf 10.000 Prozent.

Natürlich könnten böswillige Akteure diese Werkzeuge für verschiedene illegale Zwecke missbrauchen, zum Beispiel für raffinierte Online-Betrügereien oder das Schreiben von Malware. Aber die künftigen Anwendungen der Technologie, von der Programmierung bis zur Protein-Entdeckung, geben Anlass zu Optimismus. McKinsey beispielsweise schätzt, dass 50 bis 60 Prozent der Unternehmen bereits KI-gestützte Tools wie Chatbots in ihre Abläufe integriert haben. Durch die Ausweitung des Einsatzes könnten Unternehmen ihre Effizienz und Produktivität steigern.

"Die generative KI ist zu mächtig und potenziell transformativ, um ihr Schicksal in die Hände einiger weniger dominanter Unternehmen zu legen."

Doch die massive, immens teure und schnell wachsende Rechenleistung, die für das Training und die Wartung generativer KI-Tools erforderlich ist, stellt eine erhebliche Eintrittsbarriere dar, die zu einer Marktkonzentration führen könnte. Das Monopolisierungspotenzial und das Risiko des Missbrauchs unterstreichen die dringende Notwendigkeit für die politischen Entscheidungsträger, die Auswirkungen dieses technologischen Durchbruchs zu berücksichtigen.

Glücklicherweise scheinen sich die Wettbewerbsbehörden in den USA und anderswo dieser Risiken bewusst zu sein. Die britische Kommunikationsaufsichtsbehörde Ofcom hat Ende letzten Jahres eine Untersuchung des Cloud-Computing-Marktes eingeleitet, auf den alle großen KI-Modelle angewiesen sind, während die US Federal Trade Commission derzeit gegen Amazon Web Services ermittelt, das mit Google und Microsoft Azure den Markt beherrscht. Diese Untersuchungen könnten weitreichende Auswirkungen auf KI-gestützte Dienste haben, die auf enorme Größenvorteile angewiesen sind.

Rasantes Tempo

Die generative KI ist zu mächtig und potenziell transformativ, um ihr Schicksal in die Hände einiger weniger dominanter Unternehmen zu legen. Es besteht zwar ein eindeutiger Bedarf an regulatorischen Maßnahmen, doch sind die Regierungen durch das rasante Tempo des technologischen Fortschritts stark benachteiligt.

Um sicherzustellen, dass an der technologischen Grenze auch das öffentliche Interesse vertreten wird, braucht die Welt eine öffentliche Alternative zu gewinnorientierten LLM-Sprachmodellen. Demokratische Regierungen könnten ein multilaterales Gremium gründen, das Mittel entwickelt, um Fälschungen, Trolling und andere schädigende Online-Inhalte zu verhindern, wie ein Cern für generative KI. Alternativ dazu könnten sie einen öffentlich finanzierten Konkurrenten mit einem anderen Geschäftsmodell und Anreizen zur Förderung des Wettbewerbs zwischen den beiden Modellen gründen.

Welchen Weg die politischen Entscheidungsträgerinnen und Entscheidungsträger weltweit auch einschlagen werden, Untätigkeit ist keine Option. Dem Markt die Entscheidung zu überlassen, wie und von wem diese leistungsstarken Technologien eingesetzt werden, ist ein offenkundiges Risiko. (Diane Coyle, Übersetzung: Andreas Hubig, Copyright: Project Syndicate, 12.2.2023)