Meredith Whittaker ist die neue Präsidentin der Signal Foundation.

Foto: Privat

Meredith Whittaker kann mit einer beeindruckenden Biografie aufwarten. Als Gründerin von Googles Open-Research-Programm war sie jahrelang eine Art Schnittstelle zwischen dem Softwarehersteller und der akademischen Welt. Der weiteren Öffentlichkeit ist sie dann aber wohl im Jahr 2017 bekannt geworden, als sie eine der Hauptorganisatorinnen jener Google Walkouts gegen sexuelle Belästigung und Diskriminierung war, die weit über Google hinaus Wellen in der Tech-Welt schlagen sollten. Für Whittaker selbst war dies aber auch der Bruch mit ihrem langjährigen Arbeitgeber, 2019 verließ sie das Unternehmen im Zwist.

Gleichzeitig ist sie auch Gründerin und Professorin des AI Now Institute der New York University – und somit eine ausgewiesene Expertin zum Thema künstliche Intelligenz, vor allem den damit einhergehenden ethischen Fragen. Und dann fungierte sie auch noch als Beraterin für das Weiße Haus, das EU-Parlament sowie die US-Handelskommission FTC.

Signal ruft

Nun folgt eine weitere Lebensstation: Whittaker übernimmt die Rolle als Präsidentin der Signal Foundation, also jener Stiftung, die die Entwicklung des verschlüsselten Messengers Signal trägt. Dem STANDARD erklärt sie im Interview unter anderem, was sie von Plänen zur Aufweichung von Verschlüsselung hält, wieso es falsch ist, losgelöst über "Online-Hass" zu sprechen, und warum das Geschäftsmodell "Überwachung" das zentrale Problem im Internet ist. Natürlich geht es aber auch um KI und die Frage, was das grundlegende Defizit bei sämtlichen aktuellen Entwicklungen in diesem Bereich ist.

Ein Hinweis: Das Interview gibt es als zusätzlichen Service auch im englischsprachigen Original, das zudem etwas ausführlicher ist.

STANDARD: Derzeit gibt es in einigen Ländern Pläne, über eine "Chatkontrolle" die Ende-zu-Ende-Verschlüsselung von Messengern auszuhebeln. Großbritannien hat bereits einen Gesetzesentwurf, der alle Anbieter dazu zwingen soll, nach Darstellungen von sexuellem Missbrauch von Kindern zu scannen, in der EU wird Ähnliches diskutiert. Lassen Sie mich hier des Teufels Advokaten spielen: Alle argumentieren mit dem Kinderschutz. Was ist daran falsch?

Whittaker: Das ist eine sehr beliebte Variante des magischen Denkens, die alle paar Jahre wie Pilze aus dem Boden zu schießen scheint. Aber die Wahrheit ist: Es gibt keinen Zauber, mit dem man die Verschlüsselung für einen Zweck aufheben kann, ohne sie für jeden anderen Zweck zu zerstören. Entweder sie ist robust, entweder sie funktioniert, oder sie ist kaputt. Und wir stehen eindeutig zu einer starken Verschlüsselung, in diesem Punkt gibt es keine Verhandlung.

"Es gibt keinen Zauber, mit dem man die Verschlüsselung für einen Zweck aufheben kann, ohne sie für jeden anderen Zweck zu zerstören."

STANDARD: Aber wie dem entgegentreten? Es ist eine durchaus realistische Möglichkeit, dass das so kommen könnte ...

Whittaker: Da ich derzeit noch nicht offiziell Teil des Teams von Signal bin, habe ich noch nicht damit begonnen, eine grundlegende Agenda zu erstellen. Das werde ich tun, sobald ich alle Informationen zur Hand habe. Insofern kann ich darauf im Moment keine gute Antwort geben, tut mir leid. Das Thema erfordert eine wirklich präzise Antwort.

STANDARD: All das führt zu einem weiteren großen Thema: Plattformmoderation. Im Moment wird Telegram – zumindest in Europa – stark kritisiert, weil es stark von Covid-Leugnern und rechtsextremen Gruppen benutzt wird, um Hass zu verbreiten. Sollte sich Telegram zu einer stärkeren Moderation entscheiden – oder auch gesperrt werden –, und diese Gruppen wechseln dann zu Signal: Wie würden Sie reagieren?

Whittaker: Es gibt eine Menge Funktionen, die Telegram hat und Signal nicht. Signal ist kein soziales Netzwerk. Es ist keine Plattform mit algorithmisch verstärkten Inhalten. Es ist ein Messaging-Dienst.

STANDARD: Das heißt also: Es ist eine bewusste Entscheidung, bestimmte Funktionen – wie Telegram-Kanäle – nicht zu entwickeln, um gar nicht erst in eine solche Situation zu geraten?

Whittaker: Absolut. Das Team ist extrem klug und überlegt lange, bevor neue Funktionen entwickelt werden. Wir berücksichtigen dabei alle möglichen Variablen – von der Plattform oder dem Betriebssystem, auf dem wir arbeiten, über die Erwartungen der Menschen, die Signal nutzen, bis hin zum allgemeinen politischen Umfeld, in dem ein bestimmtes Feature eingeführt werden soll.

Meredith Whittaker weiß sich Gehör zu verschaffen. Sie war eine der Hauptorganisatorinnen der Google Walkouts im Jahr 2018.
Foto: Bebeto Matthews / AP

STANDARD: Dieses gesamte Thema ist Teil eines größeren Diskurses im Spannungsfeld zwischen Privatsphäre und Sicherheit auf der einen und dem Schutz vor negativen Erscheinungen der Online-Welt auf der anderen Seite. Ich formuliere es einmal bewusst provokant: Ist es gesellschaftlich überhaupt wünschenswert, einen für niemanden einsehbaren Diskussionsraum zu haben, in dem dann in aller Ruhe Hass und Belästigung organisiert werden können?

Whittaker: Ehrlich gesagt, würde ich mich gegen diese Grundannahme wehren. Diskriminierung und Belästigung sind keine Produkte von digitalen Technologien. Sie sind ein Produkt der Gesellschaft, in der wir leben.

Sie manifestieren sich in verschiedenen Formen der Kommunikation und des Handelns sowie in den Strukturen unserer Institutionen. Aber sie entstehen nicht durch digitale Kommunikation oder digitale Technologien, und sie werden auch nicht dadurch gelöst, dass man an den digitalen Technologien herumschraubt, ohne sich um die eigentlichen Probleme zu kümmern. Und das ist nicht die Technologie, sondern die gesamte soziale Struktur, in der wir leben.

"Diskriminierung und Belästigung sind keine Produkte von digitalen Technologien. Sie sind ein Produkt der Gesellschaft, in der wir leben."

STANDARD: Der kürzlich in der EU beschlossene Digital Markets Act (DMA) fordert die Interoperabilität von Messengern. Signal hat sich offen gegen diese Idee ausgesprochen. Gerade die Open-Source-Welt, zu der Signal gehört, hat sich in früheren Jahren immer für die Wahlmöglichkeit zwischen mehreren Clients starkgemacht. Was hat sich also geändert?

Whittaker: Ich weiß nicht, ob sich für Signal etwas geändert hat. Ich denke, es gibt einen Unterschied zwischen der DMA-Definition einer sozialen Plattform und ihren Begriffen der Interoperabilität und dem breiteren Ziel sicherzustellen, dass verschiedene Technologien miteinander interagieren können, sodass es nicht zu einer Marktmonopolisierung kommt. Was Signal betrifft: Unsere Anforderungen an den Datenschutz sind sehr hoch, und dabei werden wir auch keine Kompromisse eingehen – Punktum.

Wenn wir direkt mit iMessage oder Whatsapp zusammenarbeiten würden, müssten wir unsere Datenschutzstandards aufweichen. Wir werden uns aber nicht an jemand anderen anpassen, nur um irgendein Interoperabilitätsziel zu erreichen.

STANDARD: Würden Sie sagen, dass dies ein gutes Beispiel für eine fehlgeleitete Regulierung ist? In dem Sinn, dass sie zwar gut gemeint, aber vielleicht nicht ganz durchdacht ist? Wenn Signal groß genug wird, wären Sie ja auch verpflichtet, mit anderen Clients kompatibel zu sein ...

Whittaker: Ich glaube, ich verstehe die Idee hinter der Verordnung. Und wenn Signal einmal groß genug ist, können wir gerne über eine Form von Interoperabilität sprechen, bei der wir unsere Datenschutzstandards nicht opfern müssen. Unser Ziel ist es schließlich, ein gewisses Niveau an Privatsphäre zu gewährleisten, und dabei ist uns dann ziemlich egal, ob die Nutzer Signal oder einen anderen Dienst verwenden, der mit Signal zu denselben Bedingungen kommuniziert.

STANDARD: Sie beraten auch die US-amerikanische Federal Trade Commission, die eine zentrale Rolle bei der Regulierung von Big Tech spielt. Wie würden Sie die Fortschritte bei der Regulierung von Technologie generell einstufen?

Whittaker: Ich habe gerade meine Amtszeit beendet, und es war eine sehr aufschlussreiche Erfahrung. Ich bin vorsichtig optimistisch, dass politische Entscheidungsträger, Gesetzgeber und andere Personen außerhalb der Branche beginnen, sowohl die technischen Einzelheiten der Funktionsweise der Technologie als auch die materielle Grundlage des Geschäftsmodells zu verstehen. Das mystifizierte Narrativ, dass die Rechentechnik bestimmter Technologieunternehmen ein Synonym für wissenschaftlichen Fortschritt und Innovation darstellt, hat sich in den letzten fünf Jahren aufgelöst – und das ist sehr positiv.

Die Art und Weise, wie die Netzwerkeffekte des Geschäftsmodells "Überwachung" Monopole aus einer Handvoll Unternehmen geschaffen haben, die Art und Weise, wie Daten fließen, die Art und Weise, wie diese Art von Geschäftsmodell die Menschen einschränkt – all das wird immer deutlicher. Früher wurde man oft mit Aussagen konfrontiert, dass Daten uns alle retten würden oder dass die Regierung wie Google funktionieren sollte. Also all diese Perspektiven, die sehr realitätsfern waren und die sehr stark von Lobbyisten genau dieser Technologieunternehmen beeinflusst wurden.

Setzt ganz auf Privatsphäre: der Messenger Signal.
Grafik: Signal

STANDARD: Aber gibt es auch wirklich fassbare Fortschritte? Im Allgemeinen bewegen sich Regierungen und Aufsichtsbehörden nur sehr langsam, und bisher scheinen sich die großen Technologiekonzerne äußerst geschickt allen wirklich substanziellen Konsequenzen zu entziehen, während die neuen Gesetze oft unbeabsichtigte Nebenwirkungen für kleinere Akteure haben ...

Whittaker: Ich denke, es gab viele Fortschritte. Die Datenschutzgrundverordnung (DSGVO) war wesentlich. Ist damit das gesamte Problem gelöst? Nein. War es ziemlich chaotisch? Absolut richtig. Aber das sind wichtige Schritte in Richtung einer besseren Regulierung.

Ich habe aber nie geglaubt – und glaube das auch jetzt nicht –, dass die Lösung für die äußerst beunruhigenden und komplexen Probleme, mit denen die Big-Tech-Hegemonie uns konfrontiert, alleine in der Regulierung liegt. Es wird viel mehr nötig sein. Aber aus meiner persönlichen Erfahrung kann ich sagen, dass es viel einfacher geworden ist, mit diesen (für die Regulierung zuständigen, Anm.) Leuten ein realitätsnahes Gespräch zu führen, als es noch vor fünf oder gar zehn Jahren der Fall war.

"Die Datenschutzgrundverordnung war wesentlich. Ist damit das gesamte Problem gelöst? Nein. War es ziemlich chaotisch? Absolut richtig. Aber das sind wichtige Schritte in Richtung einer besseren Regulierung."

STANDARD: Lassen Sie mich mal einen – vielleicht etwas zynischen Blick – auf die Tech-Welt werfen ...

Whittaker: Diese Perspektive habe ich ja noch nie gehört ... (lacht)

STANDARD: Sagen Sie mir einfach, wenn ich falsch liege. Im Moment sieht die Tech-Welt im Großen und Ganzen so aus: Auf der einen Seite stehen die großen Technologiekonzerne, auf der anderen Seite Start-ups, die von den großen Technologiekonzernen gekauft werden wollen. Am Rand gibt es ein paar Nischenanbieter für auf Privatsphäre bedachte Nutzer. Glauben Sie, dass es eine echte Chance für einen Umbruch gibt? Oder bleibt der Datenschutz etwas für eine Nische von sehr gut informierten Nutzern?

Whittaker: Ich möchte dieser Analyse gar nicht widersprechen. Es ist offensichtlich, dass sich die Branche durch die Netzwerkeffekte des Geschäftsmodells "Überwachung" in Richtung einer Art natürliches Monopol entwickelt hat. Das ist unbestreitbar. Auf der anderen Seite: Wenn man sich den Google Play Store anschaut, dann sieht man, dass Signal über 100 Millionen Mal heruntergeladen wurde – und das sind nur die Android-Nutzer.

Ich denke, dass der Wunsch nach einer sicheren Kommunikation vorhanden ist und den Menschen klar ist, wie wichtig diese ist. Der Bedarf für Signal wird also immer größer. Insofern bin ich wirklich optimistisch, was die Aussichten von Signal angeht, sonst würde ich ja auch nicht künftig meine gesamte Zeit in dieses Projekt investieren.

STANDARD: Allgemeiner gefragt: Wie sehen Sie die Rolle eines vergleichsweise kleinen Akteurs wie Signal in einer Welt, die immer mehr von großen Technologieunternehmen dominiert wird?

Whittaker: Das Umfeld, in dem sich Signal bewegt, wurde durch ein Geschäftsmodell geschaffen, das Signal ablehnt: das der Überwachung. In dieser Situation ist es umso wichtiger, dass es einen Akteur wie Signal gibt – auch wenn es eine ziemliche Herausforderung ist, in diesem Umfeld zu arbeiten.

Die Entwicklung von dauernd verfügbarer Software ist sehr teuer, daher ist es wichtig, dass wir ein nachhaltiges Geschäftsmodell aufbauen. Die meisten Konkurrenten finanzieren ihre Entwicklung und Wartung durch eine Variante von Überwachung – was wir eben ablehnen. Das bedeutet aber nicht, dass der Betrieb für uns billiger ist. Die Entwicklung, Wartung und Pflege von Signal kostet uns jedes Jahr einen zweistelligen Millionen-Dollar-Betrag.

Im Vergleich zu unserer Konkurrenz ist das übrigens ein sehr kleines Budget. Whatsapp hat über tausend Ingenieure – und das sind nur die Ingenieure. Telegram hat mehr als 500 Mitarbeiter und hat mehrere Milliarden Dollar über Kryptowährungen eingenommen. Das Signal-Team ist im Vergleich dazu zwar extrem kompetent, aber auch ziemlich klein. Es sind insgesamt etwa 40 Leute. Und das inkludiert wirklich alle – also Entwickler, Designer, Produktmanager oder auch jene, die Support leisten.

"Das Umfeld, in dem sich Signal bewegt, wurde durch ein Geschäftsmodell geschaffen, das Signal ablehnt: das der Überwachung."

STANDARD: Im Moment sind Sie noch stark von den Spenden von Brian Acton (Whatsapp-Mitgründer und Vorgänger von Whittaker als Signal-Präsident, Anm.) abhängig. Das klingt jetzt nicht nach einem sonderlich nachhaltigen Geschäftsplan. Und Werbung kommt wohl eher nicht infrage, um unabhängiger zu werden, oder?

Whittaker: Nein, wir werden uns nicht am Geschäftsmodell der Überwachung beteiligen. Wir sind Brian sehr dankbar für seine Unterstützung, die es uns ermöglicht, auf einem stabilen Fundament aufzubauen. Für die Zukunft hoffen wir darauf, dass die vielen Millionen Menschen, die Signal nutzen, einen kleinen Beitrag leisten, damit Signal weiter wachsen und gedeihen kann.

STANDARD: Glauben Sie, dass Spenden allein ausreichen werden, um die finanzielle Tragfähigkeit von Signal langfristig zu sichern?

Whittaker: Das ist zumindest der Weg, den wir jetzt einmal ausprobieren. Sie haben vielleicht schon die Badges gesehen, über die symbolisiert wird, wenn jemand Signal unterstützt. Ich kann keine konkreten Zahlen nennen, aber bisher haben wir noch nicht einmal sonderlich viel getan, um die Leute darauf aufmerksam zu machen, dass wir nach Spenden suchen – und trotzdem scheint das sehr gut anzukommen.

Ich denke, dass den Menschen, die Signal nutzen – und zunehmend auch der breiten Öffentlichkeit –, die Notwendigkeit eines Ortes für sichere und geheime Kommunikation außerhalb des Überwachungsapparats von Unternehmen und Regierungen bewusst ist.

Messenger gibt es viele, die meisten sammeln aber erheblich mehr Daten als Signal.
Foto: Damien Meyer / AFP

STANDARD: Sie haben auch mit Kryptozahlungen experimentiert ...

Whittaker: Wir haben eine Option, Kryptozahlungen zu akzeptieren, ja.

STANDARD: Zuletzt ist Krypto immer stärker in die Kritik gekommen. Insofern: Ist das ein Feature, das Sie noch einmal hinterfragen sollten?

Whittaker: Da ich derzeit noch keinen direkten Einblick in diese Details habe, kann ich darauf keine endgültige Antwort geben. Aber die Mobilecoin-Integration ist äußerst experimentell, die Kernfunktion von Signal ist die sichere Kommunikation – und dem fühle ich mich verpflichtet.

STANDARD: Heißt das, Signal sollte sich generell auf seine Kernaufgaben beschränken, anstatt immer neue Funktionen hinzuzufügen?

Whittaker: Wenn eine Funktion notwendig ist, weil sie die Nutzer schlicht von einem Messenger erwarten, dann finde ich es sehr gut, diese auch hinzuzufügen. Aber wir haben das Glück, dass wir nicht von den vierteljährlichen Gewinnberichten und den Erwartungen der Aktionäre abhängig sind. Wir müssen nicht ständig so tun, als ob wir innovativ wären, und immer weiter Funktionen hinzufügen, die niemand will. Um am Ende des Tages wie Microsoft Office auszusehen. Wir können uns wirklich auf die Grundlagen konzentrieren und sicherstellen, dass alles funktioniert, dass die Software robust ist.

Wir werden also das, was wir tun, so gut wie möglich machen. Und wenn das einmal eine gut geölte Maschine ist – und nur dann –, werden wir darüber nachdenken, ob es sinnvoll ist, andere Dinge anzugehen.

"Wir müssen nicht ständig so tun, als ob wir innovativ wären, und immer weiter Funktionen hinzufügen, die niemand will. Um am Ende des Tages wie Microsoft Office auszusehen."

STANDARD: Sie sind auch eine angesehene Expertin – und Kritikerin – beim Thema künstliche Intelligenz. Vor kurzem haben Sie KI als eine "Technik der Mächtigen" bezeichnet ...

Whittaker: Ich habe KI auch als ein "Derivat der Überwachung" bezeichnet. Die Veränderungen, die wir in den letzten zehn Jahren im Bereich der KI erlebt haben, sind nicht auf wissenschaftliche Fortschritte bei algorithmischen Modellen oder KI-Techniken zurückzuführen. Sie sind auf die konzentrierten Datenressourcen und die Recheninfrastruktur zurückzuführen, zu denen die Technologieunternehmen Zugang haben. Das sind jene Zutaten, die zum Wiederaufleben der KI im letzten Jahrzehnt geführt haben.

KI ist ein siebzig Jahre altes Gebiet. Der Grund, warum sie jetzt plötzlich so beliebt ist, ist, dass sie es diesen Unternehmen ermöglicht, auf Basis der ihnen zur Verfügung stehenden Überwachungsdaten mehr Gewinne zu erwirtschaften.

Auch in gut geschützten Chats können Katzenfotos verschickt werden.
Foto: Signal

STANDARD: Firmen wie Apple und Google nutzen Maschinenlernen zunehmend, um komplexe Berechnungen direkt am Smartphone durchzuführen. Die dafür genutzten Daten verlassen also nie das Gerät. Ist das nicht ein Beispiel für eine "gute", die Privatsphäre stärkende Nutzung von KI?

Whittaker: Ich denke, wir müssen wirklich vorsichtig sein, wie wir Privatsphäre definieren. Ich war dabei, als einige Leute bei Google auf die Idee gekommen sind, diese "Differential Privacy" genannte Methode für "On-Device-Learning" zu verwenden. Das sieht dann so aus: Wir trainieren zunächst das genutzte Maschinenlernmodell, führen dann ein Subtraining auf Ihrem Gerät durch und senden diese Erkenntnisse schließlich an unsere Server. Dann haben wir Zugang zu diesen Daten – aber nicht zu Ihren Daten – und können sagen, dass sie privat sind.

Aber die Erkenntnisse aus diesen Daten sind es nun einmal, was an den Daten wertvoll ist. Die Fähigkeit, diese Daten in ein KI-Modell zu pressen und dieses Modell auf uns anzuwenden, um Entscheidungen zu treffen und Vorhersagen und Klassifizierungen über uns zu treffen. Das führt in vielen Fällen zu extrem intimen Daten. Man kann sagen, dass Meredith aufgrund ihrer Gesichtsform wahrscheinlich X, Y oder Z ist – eine Ladendiebin, eine schlechte Arbeiterin, was auch immer. Das muss nicht unbedingt wahr sein, um ernsthafte Auswirkungen auf mein Leben zu haben.

Ich weiß also nicht, ob wir einfach sagen können, dass etwas privat ist, wenn es diesen Unternehmen gleichzeitig die Möglichkeit gibt, uns zu kategorisieren. Kategorien, die dann wieder erhebliche Auswirkungen haben – und von denen wir normalerweise gar nichts wissen und die wir auch nicht anfechten können.

STANDARD: Ist eine "gute" Nutzung von KI trotzdem möglich?

Whittaker: Rein hypothetisch? Ja, natürlich. Aber: Die KI, über die wir jetzt sprechen, ist ein Produkt konzentrierter Überwachungsdaten und Infrastruktur. In Wirklichkeit sind es also jene, die Zugang zu beidem haben – und das sind eine Handvoll Unternehmen –, die in der Lage sein werden, KI zu entwickeln. Und so wird die KI innerhalb einer Struktur geschaffen, die Anreize für bestimmte Anwendungen schafft und andere abschreckt.

Ich habe vor kurzem ein Papier zu diesem Thema verfasst, in dem ich meine Überlegungen zu diesem Thema weiter ausführe. Es heißt "The Steep Cost of Capture". Darin gehe ich auf die Geschichte und einige dieser Dynamiken ein.

Ich denke, dass das Verständnis der materiellen Basis für KI wirklich wichtig ist, um zu verstehen, dass es zwar viele hypothetische gute Anwendungen gibt, aber wenn wir nicht die Machtstrukturen und das Geschäftsmodell, mit dem KI erschaffen wird, beleuchten, werden wir nicht verstehen, warum diese guten Anwendungen so selten und weit entfernt sind. (Andreas Proschofsky, 6.9.2022)