Foto: privat

Künstliche Intelligenz wird als soziotechnisches Phänomen unser gesellschaftliches Zusammenleben stark mitbestimmen. In meinem Blog-Beitrag "Anreize für die Regulierung digitaler Plattformen" habe ich argumentiert, dass KI und Algorithmen keine moralischen Akteure im Sinne einer rationalen und aufgeklärten Ethik sein können und es vor allem darum gehen wird, Maschinen und KI-Systeme so zu konstruieren und auch politisch und rechtlich zu steuern, dass deren unterstützende Funktion erhalten bleibt, aber mögliche (und oft auch jetzt schon sichtbare) "unintended consequences" vermieden werden. Tugendethik, deontologische Überlegungen und die bekannten Designprinzipien (Ethics in/by/for Design) können uns helfen, ethischem Kontrollverlust vorzubeugen.

Der Einfluss, den algorithmisch gesteuerte Entscheidungs- und Geschäftsprozesse auf unsere Entscheidungsfreiheiten, Lebenschancen oder gar den demokratischen Zusammenhalt haben, darf nicht unterschätzt werden. Beispiele aus jüngster Vergangenheit zeigen dies deutlich auf: Seien es vermutlich durch Social Bots beeinflusste Wahlen wie 2016 in den USA, das in China vorexerzierte Social-Credit-System oder die österreichische Debatte über Arbeitsmarktchancen, die der AMS-Algorithmus einschätzt, aber auch unsere negativen Alltagserfahrungen mit Privacy-Verletzungen durch digitale Medien, Filterblasen durch Recommendersysteme wie auf Youtube, letztlich das von vielen beklagte Auseinanderdriften gesellschaftlicher Teilbereiche, weil Fake News und Wissenschaftsfeindlichkeit auf Social Media durchaus befeuert werden. Die Liste ist leider nicht einmal vollständig.

KI, Algorithmen und ethische Überlegungen

Viele der genannten sozial unerwünschten Phänomene finden wir auf den großen digitalen Plattformen; es war somit naheliegend, dass die EU auf der ihr möglichen, also europäischen, Ebene verstärkt Regulierungsanstrengungen unternimmt, was sie mit dem Digital Services Act (DSA), über den vor kurzem Einigung erzielt wurde und der nach einigen noch ausständigen Formalakten vermutlich ab 2024 gelten wird, auch getan hat. Während die für Verbraucherinnen, Verbraucher, gewerblichen Nutzerinnen, Nutzer und Plattformen dann geltenden Regeln bereits öfter präsentiert und diskutiert wurden, sollten wir bei jenen Regeln, die laut Gesetzestext für "besonders große" Anbieter digitaler Dienstleistungen gelten, einen genaueren Blick darauf werfen, ob erstens KI und Algorithmen ausreichend bedacht wurden und zweitens sich ethische Überlegungen wiederfinden, die der Expertise der vielen Fachleute, die an dem Gesetz mitgewirkt haben, auch gerecht werden.

Die Ziele der Regulierung sind klar formuliert: besserer Schutz der Grundrechte der Verbraucherinnen und Verbraucher, weniger illegale Inhalte, Aufsicht über systemische Plattformen, Minderung der Risiken für Manipulation und Desinformation. Für Plattformen, die mehr als zehn Prozent der circa 450 Millionen Verbraucherinnen und Verbraucher in Europa erreichen, sind besondere Vorschriften vorgesehen ("sehr große Online-Plattformen"). Diese beinhalten die Verpflichtung zu einem Risikomanagement, zur externen unabhängigen Prüfung, interne Compliance-Maßnahmen, eine öffentliche Rechenschaftspflicht, eine Ablehnungsfunktion für Empfehlungen durch Profiling und letztlich auch den von Forscherinnen und Forschern seit langem verlangten Datenaustausch sowie die Einführung von Verhaltenskodizes (die wohl über sogenannte Verhaltensrichtlinien, wie sie die meisten Plattformen anwenden, hinausgehen müssen).

Im uns hier interessierenden Zusammenhang der künstlichen Intelligenz und der Algorithmen sind vor allem die Regelungen zum Verbot bestimmter Micro-Targeting-Arten (beispielsweise bei Kindern) und Transparenzvorschriften bei Recommender-Algorithmen zu nennen. Hierzu sind unter anderen die Artikel 23 zu Transparenzpflichten bei automatisierten Mitteln zur Content-Moderation (Genauigkeit der Mittel, Schutzvorkehrungen), Artikel 24 zur Transparenz in der Online-Werbung (es müssen nun unter anderem die wichtigsten Parameter zur Bestimmung der Nutzerinnen und Nutzer, denen die Werbung angezeigt wird, angegeben werden) sowie die Artikel 26 und 27 zu Risiken der Automatisierung der Online-Dienstleistungen zu nennen. Artikel 26 verlangt eine Risikobewertung automatisierter Content-Moderation und eine Analyse systemischer Risiken bezüglich demokratischer Mitwirkung (Einfluss auf Wahlentscheidungen, Grundrechte, öffentliche Gesundheit, Privacy und anderes mehr); Artikel 27 zeigt Risikominderungsmaßahmen bezüglich dieser systemischen Risiken auf, etwa bei der Moderation von Inhalten, Werbebeschränkungen, interne Prozesse, Verhaltenskodizes.

Spielraum

Freilich lassen diese Bestimmungen Spielraum für die Plattformen hinsichtlich gewählter Maßnahmen im Sinne einer Ko-Regulierung, was aber auch angesichts der vorhandenen Informationsasymmetrien (Plattformen wissen über Probleme, die durch ihre Geschäftsprozesse und Technologieanwendungen entstehen, oft besser Bescheid als die NutzerInnen) auf diesen zweiseitigen Märkten angebracht sein kann. Artikel 29 verlangt von Online-Plattformen, dass sie in ihren Geschäftsbedingungen die Parameter ihrer Empfehlungssysteme sowie die Optionen, aus verschiedenen Ranking-Möglichkeiten zu wählen, verständlich darlegen. Zwar wird hier klarerweise der verwendete Algorithmus angesprochen, ob dieser allerdings selbst oder nur dessen Zielrichtungen offen zu legen sind, bleibt zunächst unklar, ebenso, wie die verlangte "Verständlichkeit" für die Userinnen und User erreicht werden soll.

Wenn der vorliegende Verordnungsentwurf, der ja bald als bindende EU-Verordnung in den Mitgliedsstaaten umzusetzen ist, ethisch zu beurteilen wäre, würde ich zwei Schlagrichtungen in der Argumentation sehen. Erstens eine eher pragmatische Linie, in der klar wird, dass hier sehr notwendige und zeitkritische (angesichts der anfangs beschriebenen Problemlagen durch große Online-Plattformen) Anstrengungen unternommen werden, um die negativen Auswirkungen der Plattformstrategien und -geschäftsmodelle einzudämmen. Die neuen Transparenzvorschriften, Prüfvorgaben, Risikomanagementsysteme und Schutzmaßnahmen für Grundrechte sind seit langem von Ethikerinnen und Ethikern der Wirtschaft, Medien und Technik verlangte Regelungen.

Auch aus regulatorischer Sicht scheint es klug gewählt worden zu sein, viele der Maßnahmen koregulatorisch zu prägen, indem den Plattformen zur Maßnahmenumsetzung doch einige Freiheiten gelassen wurden. Zuletzt wurde auch das drängende Problem der Automatisierung und KI-Steuerung angegangen, womit selbstverständlich auch Algorithmen künftig eine transparentere Rolle werden spielen müssen. Zweitens sollte ein solcher Text wie jeder Kodex auch eine philosophische Begründungsleistung aufweisen, zumindest auf philosophischen Überlegungen beruhen. Wenn man nur das Themenfeld KI und Algorithmen in der Literatur durchforstet, finden sich hierzu zurzeit vor allem tugendethisch-teleologische Ansätze, die folgende Gedanken beinhalten: Wir müssen uns die Frage nach der Art Mensch, die wir werden sollen, stellen, um in der ständigen Ausübung unserer technologischen Interaktionen zufrieden/glückselig zu sein, also die sogenannte Eudaimonia erreichen zu können.

Neues Wertebewusstsein

Es geht hier um ein neues Wertebewusstsein im Umgang mit digitalen Technologien, die Frage nach dem Warum neuer technologischer Entwicklungen und eine vernünftige Wertepriorisierung und Wertebalancierung (beispielsweise eine wertbewusste Programmierung). Ebenso gängig sind Diskussionen zu einer deontologisch verstandenen (kantischen) Menschenwürde, die eine möglichst komplette Selbstrealisierung unterstützt. Auch die Frage der Autonomie als Bedingung für die Möglichkeit der Übernahme ethischer Verantwortung (nicht als Beschreibung technischer Entscheidungsmöglichkeiten von Maschinen) ist hier wichtig.

Es ist von außen schwer zu beurteilen, ob in den juristisch formulierten Endtext möglichst viele dieser Überlegungen eingeflossen sind, denn dann wäre die Akzeptanz einer rechtlichen Richtlinie vermutlich höher einzuschätzen. Selbstverständlich können solche Gedanken nicht direkt im Text beschrieben werden, das würde dessen Aufgabe verfehlen, jedoch würde es uns Ethikerinnen und Ethiker beruhigen zu wissen, dass die Werte, die unterschwellig (oder oft auch ganz direkt, siehe das Beispiel Transparenz) angesprochen werden, beziehungsweise auch deren Balancierung im Vorhinein durch Inputs von Expertinnen und Experten berücksichtigt wurden. Hier sind vermutlich noch Lücken in der Regulierungsverordnung zu sehen.

Vorreiterrolle

Angesichts der zentralen Rolle digitaler Plattformunternehmen für unser politisches und Wirtschaftssystem war es höchste Zeit, das die EU mit dem DSA eine Vorreiterrolle bei der Regulierung übernommen hat; die normativen Implikationen der in unserem (digitalen) Marktsystem vorzufindenden Beziehungen zwischen Unternehmen, Politik, Endkundinnen und Endkunden sind nicht wegzudiskutieren (werden Recommendersysteme und Prognosemodelle fair und transparent angewendet, wird unsere Privacy gemäß unseren Privacy-Präferenzen eingehalten und können wir hier eine Auswahl treffen, wird Microtargeting in seiner Reichweite beschränkt, werden Fake News und Hate-Speech adäquat bekämpft?).

Ob die Durchsetzungsfähigkeit der Regelungen groß ist und ob globale Plattformunternehmen nun den europäischen Markt schlechter bedienen werden (beziehungsweise Auswege finden werden, wie es bei steuerrechtlichen Vorschriften regelmäßig versucht wird), wird die nächste Zeit zeigen. (Michael Litschka, 2.6.2022)