Die Covid-19-Krise kann uns einiges lehren. Vieles davon ist nicht neu, aber gerade jetzt "virulent" geworden: Die weltumspannende Pandemie verstärkt soziale Ungleichheiten, althergebrachte Genderdynamiken, autoritäre Machstrukturen. Sie wirkt als Verstärker von Digitalisierung im Schulsystem und Seniorenheim, am Arbeitsplatz und im Privatleben sowie in Wissenschaft und Politik. Corona-Diagramme und -Kurven sind rasch zu einem zentralen Bestandteil der Abendnachrichten geworden, die uns den Weg aus der Krise weisen. E-Learning-Plattformen und Videokonferenz-Tools haben sich in unserem Alltag eingenistet. Kaum ein Haushalt, der sich dem noch entziehen kann.

Das Verfolgen von Menschen mittels Smartphones – eine altbewährte Praxis digitaler Überwachung – wird nun als probates Mittel zum "Hochfahren" unserer Gesellschaft gehandelt. In welchem Ausmaß diese Technik angenommen wird, werden wir in den nächsten Wochen und Monaten beobachten können. Digitale Technologien spielen also eine zentrale Rolle bei der Bewältigung dieser globalen Pandemie. Die Weichen, die durch den großflächigen Einsatz ganz unterschiedlicher Big-Data-Analysen, Videostreaming-Dienste, E-Learning-Plattformen und Tracking-Apps gestellt werden, werden unsere Gesellschaft und Politik noch lange bestimmen. Die gesellschaftspolitischen Fragen, die mit diesen Technologien verbunden sind, müssen wir uns daher jetzt stellen.

Doch Computermodellierung stellt ein komplexes Unterfangen dar, das nicht frei von Annahmen, Zielvorstellungen und menschlichen Entscheidungen ist.
Foto: https://www.istockphoto.com/de/portfolio/Dmytro Varavin

Gesellschaft als Computermodell

Während wissenschaftliche Kontroversen zuletzt immer häufiger von "Fake News" und "alternativen Fakten" bestimmt waren, scheint sich das Vertrauen in Wissenschaft angesichts der weltumspannenden Gesundheitskrise einer neuen Renaissance zu erfreuen. Medizinisches Wissen und Computermodellierung bilden die Ausbreitung des Virus in der Gesellschaft als Kurve ab, die der Politik in Zeiten hochgradiger Unsicherheit eine konkrete Entscheidungshilfe an die Hand gibt. Diese evidenzbasierte Politikberatung, wie sie im Fachjargon heißt, hat eine noch nie dagewesene Bedeutung erlangt, und das weltweit. Sie versorgt uns mit Diagrammen, die der politischen Entscheidung Legitimität verleihen. Die hohe Zustimmung der Bevölkerung zu den verordneten Maßnahmen, zumindest zu Beginn der Krise, untermauert das.

Doch Computermodellierung stellt ein komplexes Unterfangen dar, das nicht frei von Annahmen, Zielvorstellungen und menschlichen Entscheidungen ist. Niki Popper, einer der zentralen "Modellbauer", hat darüber im STANDARD berichtet. Dies wirft eine Reihe von Fragen auf, die uns noch länger beschäftigen werden: Welche Daten und Annahmen fließen in diese Modelle ein und wie bestimmen sie deren Ergebnisse? Welche Interpretationen und (politischen) Schlüsse können daraus gezogen werden? Wer bekommt Einblick in diese komplizierten Prozesse und wie nachvollziehbar sind daher ihre Berechnungen?

Alltag auf digitalen Plattformen

Ähnlich verhält es sich mit Wirkweisen, Geschäftsmodellen und Besitzverhältnissen von großen Internetplattformen, die unseren Alltag momentan tiefgreifend (um)gestalten. Viele der E-Learning- und Videoplattformen werden von großen amerikanischen Konzernen betrieben, die mit unseren Daten Profit generieren. Gerade in Zeiten der Krise, wo schnell gehandelt werden muss, war keine Zeit für langwierige Datenschutz-Abwägungen oder das Suchen gemeinnütziger Alternativen. Das ist so verständlich wie fatal. Firmen wie Zoom (Videokonferenz), Google (G Classroom) oder Facebook (Whatsapp) sind sehr geschickt darin, ihre Produkte als Werkzeuge der Krisenbewältigung zu positionieren.

Ebenso macht das vom US-Amerikanischen Geheimdienst finanzierte Start-up Palantir derzeit Gesundheitsministerien in ganz Europa verlockende Angebote, um die Krise mittels "Big Data" besser und effizienter zu managen (die österreichische Regierung hat das Angebot abgelehnt, wie DER STANDARD Anfang April berichtete). Welche Auswirkungen eine Verankerung solcher Firmen im Gesundheitssektor nach sich zieht, werden wir erst langfristig begreifen. Handeln müssen wir jetzt.

Drängende Fragen sind daher: Welchen Akteuren wollen wir sensible Gesundheitsdaten überlassen? Welche Technologien wollen wir jungen Menschen näherbringen, die diese noch lange benutzen werden? Und wie können wir alternative Daten-Infrastrukturen fördern und für die Allgemeinheit nutzbar machen?

Freiraum durch Überwachung

Schließlich ist auch das digitale Verfolgen und Vermessen von Personen – das "Tracken" – eine altbewährte Praktik, die wir bereits von Fitness-Apps, aber auch von Geheimdienstaktivitäten her kennen. Um das schrittweise Hochfahren der Gesellschaft sicherer zu gestalten, hat das Rote Kreuz eine App entwickeln lassen, die soziale Kontakte mittels eines "digitalen Handschlags" aufspüren und abspeichern soll. Diese digitale (Ab-)Bilder von Kontaktnetzwerken sollen mögliche Infektionsketten unterbrechen, indem Krankmeldungen an das soziale Netzwerk der Betroffenen mittels der App weitergegeben werden (so diese die App installiert haben). Diese Anwendung wird mit zunehmender Öffnung der Gesellschaft vermutlich an Bedeutung gewinnen, da so neue Infektionsherde im Keim erstickt werden könnten.

Ähnlich wie in den anderen Technologiefeldern ist aber auch hier noch einiges unklar. Welche technischen und rechtlichen Fragen diese Technologie aufwirft, haben zivilgesellschaftliche Akteure rund um epicenter.works ehrenamtlich untersucht und dazu einen umfassenden Bericht verfasst.

Eine Reihe von gesellschaftspolitischen Fragen ist aber noch zu erörtern: Ist das digitale Verfolgen von Menschen legitim, um die Ausbreitung von Krankheiten zu verhindern? Welche gesundheitspolitischen und arbeitsrechtlichen Voraussetzungen sind notwendig, um die Vermessung von Sozialkontakten sinnvoll zu gestalten? Welche Sicherheit vermittelt diese App und welche Unsicherheiten werden durch Falschmeldungen erzeugt? Sollen unterschiedliche Länder ähnliche Apps entwickeln (wie derzeit der Fall) oder brauchen wir nicht vielmehr eine europäische – wenn nicht gar globale – Lösung (wie Kritikerinnen und Kritiker bereits fordern)? Und im Hinblick auf später: Wie können wir vermeiden, dass eingeübte (Überwachungs-)Praktiken nach der Corona-Krise nicht für andere Zwecke missbraucht werden?

Wissen und Expertise fördern

Um diese drängenden Fragen beantworten zu können, brauchen wir ganz unterschiedliche Formen von Wissen und Expertise. Wir brauchen rasche Analysen konkreter Anwendungen wie der Stopp-Corona-App durch unabhängige Akteure. Gleichzeitig benötigen wir langfristige Forschung, die sich mit grundlegenden Herausforderungen der Digitalisierung in Gesellschaft und Politik befasst. Kommerzielle Internet-Technologien werfen oft nicht nur gravierende Datenschutzprobleme auf, sondern greifen tief in unsere sozialen Praktiken und politischen Prozesse ein und gestalten diese zunehmend mit, wie sich in meiner aktuellen Forschung zeigt.

Technologien sind nicht frei von sozialen Annahmen und Wertvorstellungen. Wie diese in Technologien wie Computermodellierung, Algorithmen, künstliche Intelligenz und Überwachungstechnologien eingeschrieben werden und welche gesellschaftlichen Auswirkungen diese nach sich ziehen, untersuchen wir am Institut für Technikfolgen-Abschätzung. Diese Projekte schaffen Wissen, das kurzfristige Technik-Analysen in einen größeren theoretischen und gesellschaftspolitischen Zusammenhang stellen kann. Wie wir diese unterschiedlichen Formen von Wissen und Expertise in Krisenzeiten besser bündeln, fördern und nutzbar machen können, sollten wir uns in Zukunft überlegen.

Was uns die Corona-Krise lehrt, ist, dass wir trotz aller Eile und Handlungsdruck grundlegende technopolitische Fragen nicht aus den Augen verlieren dürfen, weil jetzt die Weichen für die Zukunft gestellt werden. Rasch benötigte Technikbewertungen allein dem Idealismus einzelner Akteure zu überlassen, die dies ehrenamtlich für uns erledigen, sowie Forschungsförderung primär auf direkt anwendbares Wissen zu konzentrieren, ohne soziale Auswirkungen einzubeziehen, wäre grob fahrlässig angesichts der fundamentalen Herausforderungen, die wir derzeit erleben – im Bereich der Digitalisierung und weit darüber hinaus. (Astrid Mager, 18.5.2020)