Autonom fahrende Autos gehören zu den großen Verheißungen künstlicher Intelligenz. Doch werden solche Autos wirklich bald kommen? Dagegen spricht, dass künstliche Intelligenz stabile Umgebungsbedingungen benötigt.

Getty Images / iStockphoto

Wie wird sich die im Vorjahr wegen der Corona-Maßnahmen ausgefallene Grippewelle in diesem Winter entwickeln? Vor gut zehn Jahren hätten besonders schlaue Zeitgenossen vermutlich bei Google Flu Trends nachgeschaut, um eine Antwort zu suchen. Ingenieure des Suchmaschinenherstellers hatten aus 50 Millionen Suchbegriffen 45 herausgefiltert, die mit der Grippe assoziiert waren, und daraus im Jahr 2008 einen Algorithmus entwickelt, der die Ausbreitung der Influenza besser vorherzusagen schien als die jeweiligen staatlichen Gesundheitsbehörden.

Der Erfolg währte aber nur kurz, denn bei der Schweinegrippe 2009 versagte Google Flu Trends. Die trat nämlich im Frühjahr auf und nicht in der grippeüblichen Wintersaison; der Algorithmus wurde quasi saisonal auf dem falschen Fuß erwischt. Daraufhin wurde Google Flu Trends zwar mit noch mehr Big Data aus der Vergangenheit nachjustiert. Doch die prognostischen Fähigkeiten blieben limitiert. Im August 2015 stoppte Google das Angebot.

Gewiss, die Google-Ingenieure könnten heute auf noch mehr Daten zurückgreifen und einen besseren Algorithmus entwerfen. Doch es gibt dabei ein grundsätzliches Problem, dem sich Helga Nowotny in ihrem neuem, bisher nur auf Englisch vorliegenden Buch "In AI We Trust" ausführlich widmet: "In gleichbleibenden Kontexten ist künstliche Intelligenz uns Menschen zwar überlegen, egal ob beim Schach oder bei der Vorhersage von Proteinfaltungen", erklärt die renommierte Wissenschaftsforscherin im Gespräch: "Aber sobald sich die Umgebungsbedingungen verändern, sind wir Menschen besser. Denn wir sind evolutionär quasi darauf programmiert, uns immer wieder auf Neues einzustellen."

Das Problem der autonomen Autos

Dieses Grundproblem zeigt sich nicht nur bei Google Flu Trends, sondern auch bei viel größeren Projekten der künstlichen Intelligenz (KI) wie dem autonomen Fahren. Wenn Elon Musk, der CEO von Tesla, sich noch im Vorjahr zuversichtlich zeigte, dass selbstfahrende Autos – also die höchste der fünf Stufen der Automatisierung – greifbar nahe seien, werden die Zweifel an solchen Versprechungen immer lauter. Denn auch in dem Fall müsste zuerst einmal eine stabilere Umwelt hergestellt werden (im Wesentlichen: Straßen ohne menschliche Autofahrer), ehe autonome Autos den Verkehr übernehmen können.

Wissenschaftsforscherin Helga Nowotny zeigt in ihrem neuen Buch Grenzen der künstlichen Intelligenz auf und plädiert für einen digitalen Humanismus.
Foto: Heimo Aga

Dabei ist Nowotny keine grundsätzliche Gegnerin der neuen Algorithmen. Die emeritierte Professorin der ETH Zürich und frühere Präsidentin des Europäischen Forschungsrats (ERC) hält viele der diesbezüglichen Fortschritte in ihren jeweiligen engen Bereichen für "großartig". Auch die Forschung profitiere von KI, die immer mehr als neue Methode zur Wissenserzeugung zum Einsatz komme.

Doch dass ein solcher Algorithmus in näherer Zukunft für eine Entdeckung einen Nobelpreis gewinnen könnte, wie unlängst im Wirtschaftsmagazin "The Economist" in einem Gedankenspiel spekuliert wurde, ist für die Wissenschaftsforscherin ausgeschlossen – "jedenfalls solange es ein Nobelpreiskomitee in Stockholm gibt, das aus Menschen besteht".

Beeindruckender Großessay

Nowotny hat sich in vielen ihrer bisherigen Publikationen differenziert mit den Chancen und Risiken neuer Technologien befasst, von der Kernenergie bis zum Genome Editing. Und genau das tut sie in ihrem neuen Buch, dessen Titel auch auf einen alten Nasa-Spruch aus den 1980er-Jahren anspielt: "In God we trust. All others must bring data."

Helga Nowotny, "In AI We Trust. Power, Illusion and Control of Predictive Algorithms". € 24,50 / 184Seiten. PolityPress, Cambridge 2021

Ein Kapitel ihres beeindruckenden Großessays, der die Verheißungen der künstlichen Intelligenz aus einer humanistischen Grundposition kritischen Prüfungen unterzieht und dabei mühelos soziologische, philosophische, historische und wirtschaftswissenschaftliche Perspektiven kombiniert, ist entsprechend der Dekonstruktion von Fortschrittserzählungen gewidmet. Diese gehen zwar ganz generell mit dem Einzug neuer Technologien einher und nun eben im Speziellen mit der künstlichen Intelligenz, die unsere Lebenswelt mehr und mehr durchdringt.

Helga Nowotny stellt ihr Buch in einem Vortrag anlässlich der Verleihung des Yehuda Elkana Fellowships an der CEU in Wien vor.
IWMVienna

Im Fall der KI-Versprechungen gebe es einige besondere Paradoxien zu beachten. Einerseits bedienen diese digitalen Technologien unseren Wunsch nach Gewissheit und die Sehnsucht, die Zukunft vorherzusagen. Wenn wir uns andererseits zu sehr auf die Algorithmen verlassen, so Nowotny, "schränken wir unsere Handlungsfähigkeiten und Kontrollmöglichkeiten ein und laufen so letztlich Gefahr, einen gesellschaftlichen Rückfall zu erleben. Denn die Zukunft ist offen und ungewiss, wie wir eben erst wieder durch die Pandemie erfahren mussten."

Das Dilemma der Regulierung

Wie also sollen wir als Gesellschaft mit KI umgehen und ihren Einsatz kontrollieren? Was ist etwa von den aktuellen Bemühungen der EU zu halten, künstliche Intelligenz mit einem risikobasierten Ansatz zu regulieren? Für Nowotny gibt es auf solche Fragen keine einfachen Antworten, was in der Natur der Sache liege: "Die Regulation neuer Technologien ist immer schwierig, weil das Recht immer den technologischen Entwicklungen hinterherhinkt. Im Fall von KI ist dieses Dilemma besonders komplex, weil ständig neue Anwendungsgebiete dazukommen." Es werde also vermutlich ständig neue rechtliche Adaptierungen brauchen.

Der Ausgangspunkt für KI-Systeme, die den Anspruch haben, der Menschheit zu dienen, sollten dabei aber immer "menschliche Werte und Perspektiven sein", verlangt Nowotny und zieht zumindest metaphorisch Parallelen zwischen dem Umgang mit KI und der Erziehung von Kindern: "Bei einer guten Erziehung werden sie in die Verantwortung genommen und befähigt, Beiträge für die Gesellschaft zu leisten. Vernachlässigt man sie hingegen, kann das schlimme Folgen haben." (Klaus Taschwer, 6.11.2021)