In den USA läuft langsam der Wahlkampf an. Während bei den Demokraten vorerst noch Ruhe vor dem Sturm herrscht, wetteifert bei den Republikanern ein recht großes Feld um die Nominierung für den Wahlgang im November 2024. Chancen werden freilich aktuell nur zwei bis drei Teilnehmern – allen voran Donald Trump – eingeräumt. Alle anderen dürften wohl primär zwecks Eigenwerbung im Rennen sein oder sich Hoffnungen machen, als Vizepräsidentschaftskandidat oder -kandidatin auserwählt zu werden.

Auch so mancher Wahlwerbespot wurde bereits ausgespielt. Und es zeigt sich, dass künstliche Intelligenz, allen voran Bildgeneratoren wie Midjourney oder Stable Diffusion, ihren Platz in der Werkzeugkiste der Spindoktoren gefunden haben. Als der demokratische Präsident Joe Biden im April seinen erneuten Antritt verkündete, veröffentlichten die Republikaner einen Clip mit dem Titel "Beat Biden", der ausschließlich von KI erstelltes Bildmaterial einsetzt.

Beat Biden
Die KI-generierte "Attack Ad" der Republikaner anlässlich Joe Bidens Wiederantritt.
GOP

Auf Youtube findet sich unter dem Video auch ein Hinweis auf diesen Umstand. Im Clip selber taucht die Information aber nur in kleiner, teiltransparenter Schrift auf. So manch andere Sujets, die von verschiedenen Politikern und Organisationen seitdem veröffentlicht wurden, deklarieren KI-Einsatz gar nicht.

Kennzeichnung muss "klar und deutlich" sein

Bei Google will man nun proaktiv Maßnahmen setzen, um damit auch Desinformation im Rahmen des Wahlkampfs einzudämmen. Dazu wird die "Manipulate Media Policy" ausgebaut. Wer auf einer Plattform des Konzerns, darunter das Videoportal Youtube, politische Werbung mit KI-Inhalten platziert, muss dies ab November klar mit einem Hinweis erkenntlich machen. Nicht nur das, auch andere "digitale Veränderungen", also auch klassische Bildmanipulation mit Photoshop und Co, müssen ausgewiesen werden.

"Angesichts der wachsenden Prävalenz von Werkzeugen, die synthetische Inhalte erzeugen können, weiten wir unsere Regeln um einen Schritt aus und verlangen von Werbern, dass sie offenlegen, wenn ihre Wahleinschaltungen digital verändertes oder generiertes Material enthalten", erklärt Google gegenüber The Hill. Es gibt allerdings Ausnahmen. Kleine, inhaltlich nicht relevante Veränderungen müssen nicht deklariert werden. Dabei geht es etwa um den Einsatz von KI-Tools zur Bildvergrößerung, Farbkorrekturen oder ästhetische Korrekturen des Hintergrunds.

Ein Hinweis auf KI-Inhalte und Bildbearbeitung muss gemäß den neuen Regeln "klar und deutlich" platziert werden, sodass ein Zuseher ihn schwerlich übersehen kann. Auf Moderationsebene sollen vor allem automatisierte Checks erfolgen und bei Bedarf eine Kontrolle durch Mitarbeiter.

Damit greift Google womöglich auch neuen Vorgaben durch die Wahlbehörde FEC vor. Dort arbeitet man bereits an einem Entwurf, der es politischen Kandidaten oder ihren Beauftragten untersagt, "einen anderen Kandidaten oder politische Parteien in fälschlicher Weise darzustellen", was explizit auch auf "absichtlich irreführende Werbung" unter Zuhilfenahme von KI bezogen ist. Aktuell können dazu noch Stellungnahmen eingereicht werden. (gpi, 7.9.2023)