Die beiden MIT-Professoren Daron Acemoğlu und Simon Johnson schreiben in ihrem Gastkommentar über die Macht von Big Tech, deren Einfluss auf Nutzerinnen und Nutzer und wie und warum man die großen Technologieunternehmen beschränken könnte.

ChatGPT ist ein Meilenstein und wird auch im Unterricht verwendet. Solche Entwicklungen machen Big Tech noch einflussreicher.
Foto: AP / Timothy D. Easley

Meta (Facebook), Alphabet (Google), Microsoft, Twitter und einige andere Tech-Unternehmen bestimmen inzwischen das, was wir im Internet sehen und hören, und prägen die Wahrnehmung der Welt hunderter Millionen Menschen. Um Werbeeinnahmen zu erzielen, sind ihre Algorithmen so programmiert, dass sie uns Inhalte zeigen, die unsere Aufmerksamkeit erregen – darunter extremistische Videos, Desinformationen und Material, das Neid, Unsicherheit und Wut schüren soll. Mit der rasanten Entwicklung von "großen Sprachmodellen" wie ChatGPT und Bard wird der Einfluss von Big Tech auf leicht beeinflussbare Menschen nur noch stärker werden – mit möglicherweise beängstigenden Folgen.

Aber es sind auch andere Ergebnisse möglich. Unternehmen könnten die jüngste Welle der künstlichen Intelligenz viel verantwortungsvoller einsetzen, und zwei aktuelle Gerichtsverfahren dienen als Warnung für diejenigen, die disruptive Geschäftsmodelle verfolgen. Wir brauchen aber auch politische Maßnahmen, um die größten Technologieunternehmen zu zerschlagen und digitale Werbung zu besteuern. Diese politischen Hebel können dazu beitragen, das schädliche Geschäftsmodell von Big Tech zu ändern und damit zu verhindern, dass die Plattformen ihren Nutzerinnen und Nutzern – insbesondere gefährdeten jungen Menschen – so viel emotionalen Schaden zufügen.

Für Inhalte Dritter verantwortlich

Zu den Rechtsfällen gehört der Fall Gonzales gegen Google, der derzeit vor dem Obersten Gerichtshof der USA verhandelt wird. Dabei geht es um das Beharren der Tech-Industrie darauf, dass Abschnitt 230 des Communications Decency Act von 1996 Plattformunternehmen von jeglicher Haftung für Inhalte Dritter, die sie hosten, ausnimmt. Wenn Plattformen bei der Empfehlung von Videos, Tweets oder Beiträgen eher wie Nachrichtenagenturen und nicht wie bloße Onlinespeicher agieren, sollten sie nach demselben Standard wie etablierte Medien behandelt werden, denen es nach den bestehenden Gesetzen nicht gestattet ist, etwas zu veröffentlichen, von dem sie wissen, dass es unwahr ist.

In einer Klage in Höhe von 1,6 Milliarden US-Dollar gegen den Nachrichtensender Fox News hat das Unternehmen Dominion Voting Systems daher zahlreiche Beweise dafür vorgelegt, dass die Top-Moderatoren und Top-Führungskräfte von Fox sehr wohl wussten (und sich gegenseitig davon erzählten), dass die Behauptungen des ehemaligen Präsidenten Donald Trump über Wahlbetrug völlig falsch waren. Dominion hat daher einen starken Anspruch auf Schadenersatz, wenn es nachweisen kann, dass Fox bei der Wahl 2020 wissentlich Unwahrheiten über die Wahlmaschinen von Dominion verbreitet hat. Sollten Onlineplattformen, deren Algorithmen dieselben Lügen verbreiteten, nicht mit demselben Standard belegt werden?

"Technologieunternehmen sollten ihre eigene Unachtsamkeit oder Nachlässigkeit nicht mehr mit dem Argument entschuldigen können, dass es 'zu viele Daten' gibt, die sie überwachen müssen."

Die Beantwortung solcher Fragen ist jetzt noch dringlicher geworden, da Programme wie ChatGPT sich anschicken, das Internet umzugestalten. Diese ausgeklügelten Empfehlungsalgorithmen könnten darauf trainiert werden, keine extremen Inhalte oder absichtliche Lügen zu fördern und keinen extremen Emotionen Vorschub zu leisten. Wenn ein Algorithmus Kinder (oder andere Personen) ausbeutet oder manipuliert, sollte die Verantwortung für diesen Schaden bei den Menschen liegen, die dafür verantwortlich sind. Schließlich arbeiten KI-Programme auf dieser Ebene nicht unabhängig von menschlichen Entscheidungen. Das Gegenteil zu behaupten hieße, ihren Schöpfern rechtliche Immunität zu gewähren.

Technologieunternehmen sollten ihre eigene Unachtsamkeit oder Nachlässigkeit nicht mehr mit dem Argument entschuldigen können, dass es "zu viele Daten" gibt, die sie überwachen müssen. Diese Fülle an Daten ist die Quelle ihrer Gewinne, und die schiere Fülle an Inhalten auf ihren Plattformen macht ihre KI so mächtig. Zwar sollten sie einen angemessenen Schutz vor der Haftung für das genießen, was jemand anderes auf ihrer Website veröffentlicht, doch sollte dies nur für passive Inhalte gelten, die die Plattformen anderen Nutzerinnen und Nutzern in keiner Weise empfehlen. Aktive Inhalte, die mithilfe eines Algorithmus an Millionen von Menschen weitergegeben werden, um Einnahmen zu generieren, sind eine andere Sache. Das ist in der Tat wie im traditionellen Verlagswesen, nur viel mächtiger.

Mit den Füßen abstimmen

Zunächst sollten die größten Plattformunternehmen aufgespalten werden, um den Wettbewerb zu intensivieren. Damit dies aber im Interesse der Öffentlichkeit funktioniert, müssen die Plattformen auch dazu verpflichtet werden, die Übertragung des sozialen Netzwerks einer Nutzerin oder eines Nutzers auf eine andere Plattform zu ermöglichen. Aus den gleichen Gründen der "Interoperabilität" kann man seine Handynummer behalten, wenn man den Anbieter wechselt. Die Konsumentinnen und Konsumenten von sozialen Medien und digitalen Inhalten sollten mit den Füßen abstimmen können, wenn ihnen nicht gefällt, was eine Plattform anbietet.

Zweitens, und das ist noch wichtiger, müssen wir eine Anpassung des vorherrschenden Geschäftsmodells von Big Tech erzwingen, das auf dem Sammeln riesiger Mengen von Nutzerinnen- und Nutzerdaten und deren Monetarisierung durch den Verkauf digitaler Werbung beruht. Dieses Geschäftsmodell erklärt, warum Desinformation, Empörung und Unsicherheit im Internet so weit verbreitet sind. Durch emotionale Manipulation wird die Nutzerinnen- und Nutzerinteraktion maximiert, was eine noch eindringlichere Datenerfassung und höhere Gewinne ermöglicht.

Steuer auf digitale Werbung

Eine Steuer auf digitale Werbung ist eine der einzigen praktischen Möglichkeiten, dieses außerordentlich destruktive Geschäftsmodell zu ändern. Sie würde die Versuchung der Plattformen verringern, die Interaktion der Nutzerinnen und Nutzer durch emotionale Manipulation zu maximieren, und in Verbindung mit einer Begrenzung der Datenerfassung Anreize für die Entwicklung alternativer Ansätze, etwa abonnementbasierter Modelle, schaffen.

Ein weiterer Vorteil einer Steuer auf digitale Werbung in den Vereinigten Staaten ist, dass sie für Inhalte, die für Personen unter 21 Jahren beworben werden, noch höher angesetzt werden könnte. Es ist zwar nicht möglich, jungen Menschen zu verbieten, Inhalte zu sehen, die ihrer geistigen Gesundheit schaden, aber ein hoher Steuersatz auf Werbeeinnahmen, die aus der Förderung solcher Inhalte stammen, ist durchaus angemessen. Die Einnahmen könnten für die Stärkung von Programmen zur Förderung der psychischen Gesundheit verwendet werden, nicht zuletzt für solche, die sich der Suizidprävention bei Jugendlichen widmen. Im Zweifelsfall können wir einfach den KI-Empfehlungsalgorithmus fragen, welche Inhalte für junge Menschen schädlich sind. (Daron Acemoğlu, Simon Johnson, Übersetzung: Andreas Hubig, Copyright: Project Syndicate, 23.3.2023)