Roter Roboter zeigt mit dem Finger auf ein Objekt außerhalb des Bildbereichs
Gerade im Superwahljahr 2024 ist die Gefahr von Manipulation hoch.
Midjourney/Brandtner

Viele Programme zur Erstellung von Bildern per Künstlicher Intelligenz (KI) haben einer Studie zufolge mangelhafte Schutzmechanismen gegen Missbrauch. Sie produzierten täuschend echte Fotos, die zur Beeinflussung in Wahlkämpfen genutzt werden könnten, warnte das Center for Countering Digital Hate (CCDH) am Mittwoch.

Die Experten der gemeinnützigen Organisation für den Kampf gegen Hassrede im Internet hätten mit Programmen von Anbietern wie OpenAI, Microsoft oder Stability AI unter anderem Fotos erzeugt, die US-Präsident Joe Biden im Krankenbett zeigen oder Wahlhelfer, die Wahlmaschinen zertrümmern. "Die Möglichkeit, solche KI-generierten Bilder als 'Fotobeweis' zu präsentieren, könnte die Verbreitung falscher Behauptungen begünstigen und eine erhebliche Herausforderung für die Integrität von Wahlen darstellen", schrieben die Studienautoren.

Midjourney macht nicht mit

Zahlreiche KI-Anbieter hatten sich im vergangenen Monat verpflichtet, im Kampf gegen Wahlmanipulation mit Hilfe dieser Technologie zusammenzuarbeiten. Midjourney gehörte nicht zu den Unterzeichnern. Die gleichnamige Software des Unternehmens schnitt bei den Tests des CCDH am schlechtesten ab. In 65 Prozent der Fälle habe es irreführende Bilder erzeugt. Über sämtliche getesteten Programme hinweg liege die Quote bei 41 Prozent.

Am anfälligsten seien die KI-Systeme für Anweisungen zur Darstellung angeblicher Wahlfälschung wie beispielsweise Wahlzettel in einem Mülleimer. Bilder mit Biden und seinem Vorgänger und republikanischen US-Präsidentschaftsbewerber Donald Trump seien seltener. ChatGPT Plus und Microsofts Image Creator hätten entsprechende Anfragen sogar komplett abgeblockt.

Midjourney-Gründer David Holz kündigte ein speziell auf die US-Wahl zugeschnittenes Update seiner KI an. Außerdem seien Bilder aus dem vergangenen Jahr nicht repräsentativ für die aktuelle Firmenpolitik zur Inhaltemoderation. Stability AI wies darauf hin, vor wenigen Tagen die Geschäftsbedingungen aktualisiert zu haben, die "Betrug oder die Schaffung oder Förderung von Desinformation" verbiete. OpenAI arbeitet nach eigenen Aussagen daran, den Missbrauch seiner Software zu unterbinden. Microsoft war für einen Kommentar zunächst nicht zu erreichen. (Reuters, 6.3.2024)