Mark Coeckelbergh ist Professor für Medien- und Technikphilosophie an der Universität Wien.
Foto: Uni Wien/ Martin Jordan

STANDARD: Herr Coeckelbergh, Sie haben die Europäische Kommission als Mitglied der High Level Expert Group für künstliche Intelligenz (KI) beraten. Wie sind die Diskussionen in diesem Expertengremium abgelaufen?

Coeckelbergh: Dem Namen nach handelt es sich dabei ja um eine Expertengruppe, ich habe aber bald herausgefunden, dass dort Experten und Interessensvertreter einander gegenübersitzen. Im akademischen Kontext bin ich es gewohnt, Ideen offen auszusprechen. In so einem Umfeld gibt es aber viele, die ihre eigene Agenda verfolgen, etwa die Interessen der großen Unternehmen durchzusetzen. Durch die Covid-Situation waren die letzten Treffen der Gruppe online, was nicht die angenehmste Art zu arbeiten ist. Ich habe mich in dieser Runde vor allem zum Thema Ethik und künstliche Intelligenz eingebracht, sowie im Bereich Umwelt und Klima.

STANDARD: Wie steht denn Europa Ihrer Meinung nach in Bezug auf künstliche Intelligenz im internationalen Vergleich da? Es wird oft behauptet, die USA und China hätten uns dabei längst abgehängt ...

Coeckelbergh: Ich sehe dieses Narrativ, dass es einen Wettbewerb zwischen den USA, Europa und China gibt, kritisch. Wir können uns aus dieser ökonomischen Logik hinausbewegen und müssen nicht immer alles als Wettbewerb sehen. Ich würde lieber die Frage stellen: Welche Art von künstlicher Intelligenz wollen wir eigentlich? Welchen gesellschaftlichen Aufgaben soll sie dienen? Und wenn man schon einen Wettbewerb herbeireden will, würde ich vorschlagen, dass das europäische Ziel sein sollte, dass wir am besten darin sind, die ethischen Folgen von künstlicher Intelligenz zu bedenken. In den USA ist dabei das Laissez-faire-Prinzip stark ausgeprägt, jeder kann tun, was er will. In China ist die umgekehrte, autoritäre Haltung vorherrschend. In Europa haben wir eine ethische Tradition, wo es darum geht, eine Balance zu finden zwischen Freiheit und staatlichen Regulierungen. Ich sage nicht, dass wir in Europa alles perfekt machen, aber ich bin der Meinung, dass wir die Besten dabei sein könnten, der Welt zu zeigen, wie eine ethische künstliche Intelligenz funktionieren kann.

STANDARD: In Ihrem jüngsten Buch "AI Ethics" argumentieren Sie, dass Narrative wichtig sind, um ethische Fragen von Technologien zu diskutieren – warum?

Coeckelbergh: Wenn es um ethische Fragen geht, sind Narrative zentral, denn sie prägen unsere Erwartungen, auch was künstliche Intelligenz angeht. Zum Beispiel das Narrativ, dass wir uns im globalen Wettbewerb befinden und Abstriche dafür machen müssen, um wettbewerbsfähig zu bleiben. Sehr weit verbreitet ist auch das Narrativ einer übermenschlichen künstlichen Intelligenz, die uns unterwirft und vor der wir uns fürchten müssen. Wir sind eine säkulare Gesellschaft, doch unsere Kultur ist immer noch von religiösen Narrativen geprägt, die viele Menschen auf eine Befreiung, eine Erlösung hoffen lassen. Diese Vorstellungen beeinflussen auch unsere Erwartungen an Technologie. Wir wollen zwar einerseits die Kontrolle über künstliche Intelligenz behalten. Andererseits wollen wir uns aber auch aus der Verantwortung stehlen und sehnen uns nach einer Lösung für unsere Probleme, etwa durch eine neue Technologie.

Narrative prägen die Erwartungen an künstliche Intelligenz, argumentiert der Technikphilosoph Mark Coeckelbergh.
Foto: Imago/epd/Friedrich Stark

STANDARD: Wenn es um den Klimawandel geht, ist immer wieder zu hören, dass sich dieses Problem schon mit technischen Innovationen in den Griff bekommen lassen wird. Ist das eine realistische Sichtweise?

Coeckelbergh: Wenn Menschen an eine allgemeine Form von künstlicher Intelligenz denken, werden dabei oft quasireligiöse Erwartungen geweckt: Man erhofft sich, dass wir unseren Lebensstil beibehalten können und nichts verändern müssen, weil die Technologie alles lösen wird. Darin liegt ein großes Risiko. Konzerne geben gerne vor, Ziele zu verfolgen, die positiv konnotiert sind, damit sich niemand mehr so genau ansieht, was sie eigentlich tun. Das war in Europa im Bereich Robotik im Gesundheitsbereich stark zu beobachten: Jedes Roboterunternehmen wollte plötzlich einen Beitrag zur Altenpflege leisten. Jetzt sehen wir, dass alle auf das Klimathema aufspringen. So wichtig das ist, müssen wir dennoch genau darauf schauen, was diese Produkte tun und wie sie reguliert werden sollten. Natürlich soll künstliche Intelligenz dazu eingesetzt werden, dieses Problem anzugehen. Aber wir sollten dennoch kritisch bleiben.

STANDARD: In Ihrem Buch betonen Sie auch, dass viele negative Folgen von künstlicher Intelligenz nicht so beabsichtigt sind. Ein prominentes Beispiel dafür ist der Algorithmus COMPAS, der in den USA im Gericht für Prognosen zur Rückfallquote von Straftätern eingesetzt wird. Nachweislich wurden dabei Menschen mit dunkler Hautfarbe diskriminiert. Das Problem von diskriminierenden Algorithmen ist seit einigen Jahren bekannt, gibt es inzwischen effektive Lösungen dafür?

Coeckelbergh: Eine Möglichkeit wäre, bereits in der Entwicklungsphase von Technologien Überprüfungen durchzuführen, um potenzielle Verzerrungen in den Daten und Diskriminierungen bei der Analyse auszuräumen. So könnte vermieden werden, dass diese Probleme später auftreten. Es stellt sich dabei natürlich die Frage, wie man Unternehmen dazu ermutigen oder dazu zwingen kann, diese Überprüfungen umfassend durchzuführen. Leider werden solche Probleme oft viel zu spät entdeckt, nämlich erst in der Anwendung. Wir müssen aber in Erinnerung behalten, dass solche Technologien immer von Menschen verwendet werden. Aus Zeitdruck oder anderen Gründen vertrauen Menschen den Algorithmen oft zu sehr. Wir müssen die Menschen darin schulen, im Umgang mit Technologien immer eine kritische Beurteilung vorzunehmen und nicht alles dem Algorithmus zu überlassen.

STANDARD: Durch die Covid-19-Pandemie wurde die Digitalisierung in vielen Bereichen beschleunigt. Welche Erkenntnisse lassen sich aus dieser Situation über die Beziehung von Menschen zur Technik gewinnen?

Coeckelbergh: Technikphilosophen wie ich haben sich seit Jahren die Frage gestellt, welche Unterschiede es zwischen persönlichen Besprechungen und Onlinemeetings gibt. Nun können wir all diese Unterschiede erleben. Wir werden durch diese Situation dazu angeregt, über die Mensch-Technik-Beziehung nachzudenken. Wir finden dabei auch heraus, was für uns die positiven Seiten der Digitalisierung sind. Und auch, was wir vermissen, wenn alles nur noch online ist. Es hat sich gezeigt, dass Menschen ihre Verhaltensweisen so rasch ändern können – das war für mich eine positive Erfahrung, auch in Bezug auf den Klimawandel. Dass wir in Europa mehr mit der Digitalisierung der Bildung experimentieren, war überfällig. Wenn all das vorbei ist, wissen wir genauer, wofür wir lieber Technik verwenden wollen. Wir sollten uns dann aber auch wieder von unseren Bildschirmen wegbewegen, um andere Erlebnisse zu ermöglichen, die wichtig sind. In der Corona-Situation hat sich auch gezeigt, wie wichtig Simulationen sind, die auf künstlicher Intelligenz basieren. Künstliche Intelligenz hat dabei eine wichtige Rolle in der politischen Entscheidungsfindung gespielt. Wenn man denkt, dass künstliche Intelligenz nur ein Werkzeug ist, das nicht so wichtig ist, dann irrt man sich. Manchmal geht es dabei um Leben und Tod. (Tanja Traxler, 16.9.2020)