Die Grenzen der Filterblasen zu überwinden ist ein menschlicher, kein technologischer Prozess, sagt Digital-Humanities-Pionierin Jennifer Edmond.

Foto: APA / dpa / Oliver Berg

Jennifer Edmond: "Wir können uns vom Computer nicht erwarten, dass er die Welt weniger komplex macht."

Foto: CC-BY 4.0, Sandra Lehecka

Wien – Soziale Netzwerke filtern den Datenstrom nach persönlichen Vorlieben. Artificial-Intelligence-Systeme lernen anhand großer Datenmengen. Im Rahmen der Digital Humanities finden ähnliche Verfahren aber auch in den Geistes- und Kulturwissenschaften Anwendung. Laut Jennifer Edmond kann etwa die systematische Suche nach Mustern in tausenden Werken für die Literaturwissenschaften neue Perspektiven und bisher verborgene Interpretationsräume eröffnen. Gleichzeitig können aber auch die Big-Data-Technologien selbst von den Geisteswissenschaften profitieren, erklärte die Expertin, die vor kurzem als Gast des Austrian Centre for Digital Humanities an der Österreichischen Akademie der Wissenschaften (ÖAW) für einen Vortrag in Wien war.

STANDARD: Wo liegen Vorteile und Grenzen beim Einsatz von Big Data in den Geisteswissenschaften?

Edmond: Mithilfe der Algorithmen kann man literarische Texte oder historische Sammlungen untersuchen und dabei Vorurteile und Scheuklappen, den menschlichen "Bias", überwinden. Mensch und Computer korrigieren sich gegenseitig. Wenn das Datenmaterial unvollständig oder falsch aufbereitet ist, kann es aber schwer sein, zuverlässige Ergebnisse zu erzielen. Bei Artificial Intelligence sind Ergebnisse kaum zu überprüfen. Das größte Problem ist die Diskrepanz zwischen den Vorstellungen, die Menschen von intelligenten Systemen haben, und den tatsächlichen Einschränkungen der Technologien.

STANDARD: Haben Sie ein Beispiel?

Edmond: Eine Kollegin arbeitete mit einem großen Korpus historischer Dokumente. Sie wollte alle Witwen finden, die erwähnt werden. Die Anzahl, auf die der Algorithmus kam, fand sie zu niedrig. Sie bemerkte, dass viele Frauen, die sie als Witwen identifiziert hatte, erneut geheiratet hatten. Für den Computer waren das keine Witwen mehr. Die Computer sind in ihrer Interpretationsfähigkeit starr und wenig flexibel.

STANDARD: Menschen pflanzen der Technik auch eigene Vorurteile ein.

Edmond: Absolut. Zudem sind die Systeme auf einfache Verwendbarkeit getrimmt. Das heißt auch, dass sie ihren Bias kaum offenlegen. Übersetzungsprogramme funktionieren gut für Englisch oder Deutsch. Bei weniger verbreiteten Sprachen ist das anders. Die Systeme signalisieren aber nicht, dass es nicht genug Datenmaterial gibt und dass das Ergebnis vielleicht falsch ist. Wir können vom Computer nicht erwarten, dass er sie weniger komplex macht. Dieses Bewusstsein müssen wir für das digitale Zeitalter entwickeln.

STANDARD: Sie sagen, digitale Systeme könnten von den Geisteswissenschaften lernen. Inwiefern?

Edmond: Bei der Arbeit im dahingehenden EU-Projekt Kplex machten wir etwa den Umgang mit Quellen zum Thema. Geisteswissenschafter versuchen dabei, sehr präzise zu sein. Es gibt Primär- und Sekundärliteratur, Methodiken und Theorien – viele verschiedene Begriffe, um über Input zu sprechen. In den Computerwissenschaften beschreibt das Wort "Daten" all diese Dinge: Input und Output, Menschen- und Maschinengemachtes, Verlässliches und Unverlässliches. Diese Indifferenz ist Teil einer sozialen Krise: Individuen wissen nicht mehr, was sie der Welt mitteilen, was Gefahren sein könnten, wer ihre Aufmerksamkeit erkauft oder verkauft.

STANDARD: Was sind Gefahren, wenn die Welt allein durch digitale Information beschrieben wird?

Edmond: Als Menschen haben wir viele Arten, unsere Welt zu erschließen: durch Riechen, durch Berühren, durch Hören. Wenn immer mehr in digitale Information gepresst wird, lassen diese Fähigkeiten nach. Maschinelle Übersetzungen lassen einen kulturellen Aspekt von Sprache verlorengehen. Mark Zuckerberg glaubt, dass Kommunikation von Sprache zurückgehalten wird. Ich glaube, Sprache ist die Seele der Kommunikation.

STANDARD: Ein Punkt ist der Einfluss der Technologien auf die Identitätsbildung des Menschen – etwa durch Filterblasen.

Edmond: Die Erforschung von Identitäten ist ein Schlüsselaspekt der Geisteswissenschaften. Wir müssen uns darum sorgen, ob Technologie dabei hilft, gesunde Identitäten zu formen, die tolerant sind, die Gesellschaft reflektieren und sich mit unserer Vergangenheit, unserer Kultur verbinden können. Diese Fähigkeiten werden wichtiger, wenn die Technologie komplexer wird.

STANDARD: Wo kann der Einzelne anfangen, wieder mehr Verantwortung zu übernehmen?

Edmond: Ich mag gerne Krapfen, weiß aber, dass auch Gemüse zu einer ausgewogenen Ernährung gehört. Auch bei Informationen braucht es eine ausgewogene Versorgung. Wir müssen nicht nur unseren eigenen Bias verstehen, sondern auch den Bias der Plattform, die wir nutzen. Wenn wir in unserem Newsfeed nur Meinungen haben, die uns bestätigen, bekommen wir das gute Gefühl, dass wir mit der Welt übereinstimmen. Die Grenzen der Filterblasen zu überwinden ist ein menschlicher, kein technologischer Prozess.

STANDARD: Benötigt die Schaffung neuer Technologien mehr interdisziplinäre Ansätze, die auch Kulturwissenschaften miteinbeziehen?

Edmond: Ja. Die Inklusion verschiedener Wissensarten kann einen großen Unterschied machen. Wenn man zwischen Menschen vermitteln muss, die völlig verschiedene Arten haben, die Welt zu verstehen, kommt man zu Erkenntnissen, die informierter sowie sozial und kulturell robuster sind. Manche Technikunternehmen involvieren bereits Geisteswissenschafter. Aber es wird noch dauern, bis der Bias gegen die Geisteswissenschaften vollständig abgebaut ist. (Alois Pumhösel, 2.2.2018)