Algorithmen haben momentan noch keinen Sinn für Humor und könnten als Uploadfilter Satire zensieren.

Foto: screenshot youtube

Das neue EU-Urheberrecht passierte vergangene Woche das EU-Parlament, der Beschluss im EU-Rat ist nur mehr Formsache. Obwohl er darin nicht explizit erwähnt wird, beschert uns die Reform wohl den umstrittenen Uploadfilter im Internet. Der soll urheberrechtlich geschützte Inhalte erkennen und entfernen, bevor sie auf Plattformen wie Facebook oder Youtube aufscheinen. Kritikerinnen und Kritiker fürchten bereits das Ende des Internets und der Netzkultur, wie wir sie kennen, viele junge Menschen trieb der Protest vor der Abstimmung auf die Straße.

Besonders betroffen vom Uploadfilter wären sogenannte Memes. Das sind meist urheberrechtlich geschützte Bilder oder Videos, versehen mit einer oft ironischen Notiz, die sich rasend schnell viral im Internet verbreiten. Beliebt sind etwa Szenen aus Filmklassikern oder populären Serien wie Game of Thrones, Futurama oder Star Strek, Sportereignissen oder Nachrichtensendungen, die mit Text versehen eine neue witzige Bedeutung bekommen. Memes sind heute im Netz allgegenwärtig.

Die Kabarettgruppe Maschek könnte in das Visier der automatischen Uploadfilter kommen.
APA/HERBERT PFARRHOFER

Zwar sind Satire und Zitat vom neuen Gesetz grundsätzlich ausgenommen und sollten damit vom Uploadfilter eigentlich nicht betroffen sein. Kritiker befürchten allerdings "Overblocking" – dass also auch Inhalte, die eigentlich gesetzeskonform sind, es nicht mehr ins Netz schaffen. Erstens, weil Plattformen aus Angst vor hohen Strafen lieber zu viel als zu wenig blockieren würden. Und zweitens, weil jene Algorithmen, die hinter den Filtern stecken, einfach nicht zwischen Spaß und Ernst unterscheiden können. Die Videos der Kabarettgruppe Maschek, in denen sie Fernsehsendungen humoristisch "synchronisieren", könnten dem Uploadfilter genauso zum Opfer fallen wie satirische Neusynchronisierungen von Hollywood-Filmen auf Youtube. Sind die Sorgen der Kritiker berechtigt?

Schmäh lernen

"Ich habe bisher noch keinen Beweis gefunden, dass wir der Erkennung von Ironie, Sarkasmus oder trockenem Humor mittels künstlicher Intelligenz nahe sind", sagt Missy Cummings, Chefin des Humans and Autonomy Lab an der Duke University, zum STANDARD. Grundsätzlich sind Computer in Disziplinen gut, in denen Menschen schlecht sind – etwa bei komplexen Berechnungen oder der Speicherung großer Datenmengen. Dafür scheitern sie an Fähigkeiten, die für Menschen selbstverständlich sind: Sprache, Empathie oder kreatives Denken. Auch im Erkennen von Humor sind Maschinen noch schlecht.

Das hat mehrere Gründe: Humor ist einerseits eine Frage des persönlichen Geschmacks. Was die eine witzig findet, findet der andere völlig unlustig. Nicht einmal Linguisten sind sich einig, was einen Text lustig, sarkastisch oder ironisch macht. Das macht es schwierig, eindeutige logische Regeln zu entwickeln, die ein Algorithmus braucht, um zu arbeiten. Und etwas zu finden, ohne zu wissen, wonach man sucht, ist schwierig.

Witze erklären für die Wissenschaft

Der Trend gehe allerdings ohnehin weg von regelbasierten linguistischen Ansätzen und hin zu maschinellem Lernen, sagt Peter Knees von der Technischen Universität Wien. Er ist Assistance-Professor am Institute of Information Systems Engineering an der TU_Wien und forscht unter anderem zu künstlicher Intelligenz. Stark vereinfacht lernen Maschinen wie Kleinkinder. Nachdem Erwachsene ihnen hunderte Male gezeigt haben, was eine Katze oder der Buchstabe A ist, verstehen Kinder die Bedeutung auch, wenn die Katze ein andersfarbiges Fell hat oder das A nicht aus Mamas Feder kommt.

Auch wenn es keine genaue Definition von Ironie und Sarkasmus gibt: Die meisten Menschen erkennen sie, wenn sie sie sehen – und können dieses Wissen theoretisch mit der KI teilen. Was gesellschaftlich eigentlich ein Tabu ist, ist zu Forschungszwecken also erlaubt und notwendig: Witze erklären.

Maschinen erkennen Sarkusmus #not

Richtig gut sind Algorithmen trotz Trainings aber noch nicht. Einzelne Beiträge einzuordnen sei auch deshalb so schwer, weil der Kontext oft nicht bekannt oder beschrieben sei, sagt Knees. Neuere KI- Modelle würden auf Social-Media-Plattformen zwar Profil und Historie eines Autors miteinbeziehen, aber Ironie funktioniere eben oft über nonverbale Signale, die es im Internet schlicht nicht gibt. "Allein, dass Ironie und Sarkasmus in Forenkommentaren mittlerweile oft als solche gekennzeichnet werden müssen, entbehrt nicht einer gewissen Ironie – es zeigt aber auch, wie schwierig die Erkennung über ein Medium ist, das viele emotionale Facetten direkter menschlicher Kommunikation nicht ermöglicht."

Auf Twitter kennzeichnen viele ironische Aussagen etwa mit dem Hashtag #not, was eine eben getätigte Aussage ins Gegenteil verkehrt. Ironisch gekennzeichnete Texte in rauen Mengen – das ist Gold für jede Spaßerkennungs-KI. Viele Forscher trainieren ihre Programme deshalb mit Tweets. 50 bis 90 Prozent konnten die Algorithmen korrekt als ironisch oder sarkastisch erkennen – zu wenig für einen Uploadfilter, der auch unbedenkliche Inhalte zensieren könnte.

Gute Wörter, schlecht gemeint

Nicht Uploadfilter sollten allerdings Sarkasmus erkennen. Sogenannte Sentiment-Analysen oder Opinion-Mining werden in einigen Bereichen bereits großflächig eingesetzt: Dabei wird natürliche Sprache analysiert, um daraus strukturierte Daten über die Grundstimmung von Texten zu gewinnen. So können Onlineshops auf Basis schriftlicher Kundenmeinungen etwa eine Bewertung in Zahlen generieren. Schreibt ein Kunde etwa "Gute Ware zu gutem Preis", kann ein Algorithmus den Indikator Preis-Leistungs-Verhältnis mit fünf Sternen bewerten, bei "Gut, aber den Preis nicht wert" mit nur einem Stern. In der Regel basiert der Algorithmus auf einer Liste von Affektwörtern, die eindeutig positiv oder negativ konnotiert sind. Verneinungen versteht die Software meist noch, bei komplizierteren Satzkonstruktionen wird das Ergebnis ungenau.

An Sarkasmus beißt sich die Sentiment-Analyse deshalb die Zähne aus. Eine Bewertung mit dem Text "Paket kam nach nur 14 Tagen komplett durchnässt an. Danke, liebe Post!" würde zu einer Bestwertung in der Kategorie Versand führen. Unternehmen setzen Sentiment-Analyse auch ein, um die öffentliche Meinung zu ihrer Marke – oder jener der Konkurrenz – zu überwachen. Zieht in den sozialen Medien ein Shitstorm auf, können schnell Gegenmaßnahmen gesetzt werden. Im Kundenservice hilft Opinion-Mining, um wütende Kunden in der Warteschlange vorzureihen. Und Parteien, Meinungsforscher oder Wissenschafter können mit Sentiment-Analyse die politische Stimmung im Land überwachen.

Intelligenzquotient eines Sechsjährigen

Knees glaubt nicht, dass Maschinen irgendwann tatsächlich Spaß oder Ironie verstehen können. Man könne ihnen aber beibringen, menschliche Handlungsmuster zumindest teilweise zu erkennen und einzuordnen. "Ihnen die Letztverantwortung dafür zu übertragen, halte ich aber für grob fahrlässig", sagt der Forscher. Eine_Ende 2017 veröffentlichte Studie bescheinigte den KIs von Google, Baidu, Microsoft und Apple einen "Intelligenzquotienten" zwischen 24 und 47. Ein Sechsjähriger kommt auf ca 55 – und tut sich mit sarkastischen Aussagen über Weltpolitik in der Regel ebenfalls eher schwer.

Es könnte zur Gefahr für die Demokratie werden, wenn spaßbefreite Algorithmen die Freiheit der Kunst beschneiden. Dass Computer ausgerechnet am Spaß scheitern, zeigt aber auch, wie weit künstliche Intelligenz uns Menschen noch nachsteht und wie weit wir von der "Menschmaschine" entfernt sind. Computer mögen uns Menschen beim Schachspielen besiegen und im komplexen Brettspiel Go, sie können sich über smarte Lautsprecher mit uns unterhalten, Autos steuern, Flugzeuge und die Aktienmärkte. Über den Schmäh der Maschinen können wir aber nur lachen. Noch. (Philip Pramer, 5.4.2019)