Außer im Film braucht einem der Terminator keine Angst zu machen, meint Martina Mara. Von wirklich menschenähnlichen Maschinen sind wir noch weit entfernt.

Foto: Carolco Pictures/TCD-Studio

Serien- und Filmportale sind voll von dystopischen Szenarien, in denen Maschinen oder Algorithmen die Macht an sich reißen – oder zumindest eine große Kontrolle über unser Leben einnehmen. In dem Film "Her" kann Hauptdarsteller Joaquin Phoenix kaum mehr zwischen einer echten Freundin und dem Sprachprogramm auf seinem Computer unterscheiden. Aber ist das denkbar? Und sollten wir uns deswegen fürchten?

Im Gespräch erklärt Martina Mara, Professorin für Roboterpsychologie an der Johannes-Kepler-Universität Linz, warum viele Ängste vor künstlicher Intelligenz unbegründet sind – und wovor wir uns vielleicht wirklich in Acht nehmen müssen.

STANDARD: Frau Mara, angenommen, Sie würden gleich erfahren, dass Sie nicht mit einem Menschen, sondern mit einem Sprachprogramm über das Telefon sprechen: Wie würden Sie darauf reagieren?

Mara (lacht): Ich wäre sehr erstaunt. Und würde meine eigene Expertise infrage stellen, weil es meines Wissens nach bisher keinen Chatbot gibt, der so gut funktioniert wie Sie. Beispielsweise wenn es um die Schnelligkeit der Reaktion geht, das Verständnis von Dialektwörtern oder den Realismusgrad der österreichischen Stimmfärbung. Ich wäre doch ziemlich beeindruckt, wenn offenbar im Geheimen sowas entwickelt worden wäre.

STANDARD: Sie wären also nur positiv überrascht? Kein bisschen verunsichert?

Mara: Ich bin eine Verfechterin von transparenter Kommunikation. Wir sollten wissen, wann wir es bei der Interaktion mit einer Maschine zu tun haben. Ich wäre daher nicht nur positiv überrascht. Chatbots müssen sich als solche erkenntlich machen. Aus diesem Grund würde ich es als Frechheit empfinden, wenn Sie sich mir nicht gleich zu Beginn des Gesprächs als Bot vorgestellt hätten.

STANDARD: Wo liegt das Problem?

Mara: Wenn ich mit einer künstlichen Intelligenz (KI) spreche, gehe ich davon aus, dass diese während des Gesprächs etwa anhand meiner Sprachmelodie analysiert, wie mein emotionaler Zustand ist und welche Reaktionen in weiterer Folge von mir zu erwarten sind. Ich kann davon ausgehen, dass das, was ich sage, als geschriebener Text irgendwo in einer Datenbank landet. Es wäre so, als würde man mit einem Supermentalisten sprechen. Nicht zwischen Mensch und Maschine unterscheiden zu können kann aus psychologischer Sicht äußerst problematisch werden.

STANDARD: Ich kann Sie beruhigen. Sie sprechen mit einem Menschen. Aber ganz ehrlich: Ist das Szenario realistisch?

Mara: In Teilbereichen sind wir schon sehr nahe dran – wenn es zum Beispiel um den Realismusgrad synthetischer Stimmen geht. Da gibt es gerade im englischen Sprachraum Technologien, die zumindest in kürzeren Gesprächen kaum mehr von realen Menschen unterscheidbar wären. In diesem Bereich werden auch immer mehr große und kleine Firmen aktiv, weil Sprachinteraktion als zentrale Technologie der nächsten Jahre gesehen wird – vor allem deshalb, weil es sehr interaktiv ist und man als Nutzer wenig für die Bedienung lernen muss. Google beispielsweise hat vor rund zwei Jahren das Konzept eines Sprachassistenzsystems namens Duplex präsentiert – eine Stimme, die für Sie etwa beim Friseur anruft und dort einen Termin vereinbart. Das Programm unterhält sich dabei völlig natürlich mit der Dame oder dem Herrn am anderen Ende der Leitung, benutzt Füllworte wie "aha" und "hm" und wird sich eventuell eines Tages auch regionalen Dialekten anpassen können. Diese Konzeptpräsentationen sind aber oft übertrieben in dem, was sie leisten können. Meistens funktionieren Chatbots nach wie vor so, dass sie auf gewisse Keywords reagieren und dann in der gespeicherten Datenbank auf ein paar Antworten oder Fragen zurückgreifen. Das funktioniert noch lange nicht so flüssig, wie wir das von menschlichen Gesprächen gewohnt sind. Eine Frage, die man dazu aber auch stellen muss, lautet: Wollen wir überhaupt, dass die Maschine vom Menschen nicht mehr unterscheidbar ist? In den Ethikrichtlinien für vertrauenswürdige KI der EU-Kommission heißt es beispielsweise, dass sich Maschinen nicht als Menschen ausgeben dürfen. Und die nächste Frage ist dann: Wenn ich ohnehin schon weiß, dass der Bot ein Bot ist, macht es dann noch Sinn, dass der Bot so menschlich klingt, oder komme ich mir da nicht ein bisschen veräppelt vor, wenn er zum Beispiel ein traurig klingendes Seufzen ins Gespräch streut?

STANDARD: Sie beschäftigen sich schon seit einiger Zeit damit, warum Menschen oft Angst vor KI und Robotern haben. Was steckt dahinter?

Mara: Generell gilt: Mehr Menschenähnlichkeit bei Maschinen geht auf einem niedrigen Level zuerst einmal mit einer steigenden Sympathie und Akzeptanz einher. Der Bereich, wo es für viele Menschen gruselig und bedrohlich wirkt, ist der, wo eine Maschine schon so hochgradig menschenähnlich, aber noch nicht ganz perfekt ist, dass man ins Zweifeln kommt. In der Forschung nennt man dieses Phänomen auch Uncanny Valley, das unheimliche Tal. Man weiß nicht, was man von dem Gegenüber erwarten kann und wie sich die Maschine verhalten wird. Da sinkt die Akzeptanz stark ab und würde erst wieder ansteigen, wenn man tatsächlich nicht mehr zwischen Mensch und Maschine unterscheiden kann.

STANDARD: Angst vor neuen Technologien gibt es aber nicht erst, seit es menschenähnliche Maschinen und Chatbots gibt. Liegt die Verunsicherung nicht tiefer?

Mara: Dass wir Angst vor neuen Technologien, über die wir noch wenig wissen, haben, hängt sicher auch mit der generellen Angst vor Fremdem und Neuem zusammen. Die Angst gegenüber KI und Robotern ist teilweise auch mit früheren Ängsten gegenüber den ersten Computern vergleichbar. Dabei gibt es viele abstrakte Ängste, aber auch einige konkrete Ängste, die durchaus berechtigt sein können. Wenn ich Taxifahrer bin und sehe, was im Bereich der autonomen Mobilität weitergeht, dann ist der Jobverlust eine sehr konkrete, rational begründbare Angst. Schauen wir in die hunderten Studien, die zum vergleichbaren Phänomen der Computer-Angst in den vergangenen Jahrzehnten durchgeführt wurden, können Annahmen, dass besonders ältere Menschen oder besonders Frauen davon betroffen werden, nicht klar bestätigt werden. Eine Erkenntnis aber zieht sich quer durch die Bank: Je weniger Menschen wissen, je weniger kompetent sie sich fühlen, desto abstraktere Ängste haben sie und desto mehr Risiken nehmen sie wahr. Je mehr Menschen über Technologien wissen, desto ausgeglichener wird die Chancen- und Risiko-Wahrnehmung.

STANDARD: Wir brauchen also mehr und bessere Informationen zu dem Thema?

Mara: Ja. Wir müssen es schaffen, dass wir mehr Menschen ein Grundverständnis darüber vermitteln, was KI heute ist, was Roboter sind, was sie können und was sie nicht können. Im öffentlichen Diskurs und in der medialen Berichterstattung wird mit vielen Begrifflichkeiten hantiert, die fast magisch oder religiös klingen. Da ist die Rede von neuronalen Netzen, lernenden Maschinen oder dem Algorithmus, der alles kann und entscheidet. Ganz viele können mit diesen Begriffen nichts anfangen. Wenn immer wieder Referenzen zu Terminator und Robotern mit Bewusstsein und eigenen Zielen gemacht werden, entstehen daraus Ängste, die im Moment unbegründet wären, weil es diese Maschinen nicht gibt. Das, wovor man eigentlich Angst haben oder womit man sich beschäftigen sollte, geht im Diskurs unter.

STANDARD: Und was wäre das?

Mara: Wir müssten viel mehr darüber diskutieren, wie wir algorithmische Entscheidungssysteme nutzen. Es werden schon heute in unserem Alltag in vielen Bereichen Entscheidungen durch künstliche Intelligenz getroffen. Etwa in den sozialen Medien, wo Algorithmen Werbeeinschaltungen anhand unseres Verhaltens zielgerichtet auswählen. Aber auch in der Medizin, im Personalmanagement, bei der Kreditvergabe oder im Rechtssystem. Beispielsweise entscheiden Algorithmen immer mehr darüber, wer aus einem Pool an Bewerbern zu einem Vorstellungsgespräch eingeladen werden soll. Was wir mittlerweile wissen, ist, dass es immer wieder dazu kommt, dass gewisse Personengruppen von solchen Algorithmen diskriminiert oder unfair behandelt werden. Amazon hat zum Beispiel einen Recruiting-Algorithmus im Haus entwickeln lassen, der die aussichtsreichsten Kandidaten bei Bewerbern für Software-Engineering-Jobs rausfiltern sollte. Programmiert wurde der Algorithmus auf Basis dessen, wie und wen Amazon in den vergangenen zehn Jahren eingestellt hat. Innerhalb kürzester Zeit hat der Algorithmus systematisch Frauen in Runde eins ausgeschieden. So etwas macht mir mehr Angst als der Terminator.

STANDARD: Wie können wir dann mit dem technologischen Fortschritt umgehen?

Mara: Die Geschichte zeigt, dass sich der technologische Fortschritt nicht einfach abdrehen oder zurückschrauben lässt. Aber wir müssen den Prozess begleiten und uns immer wieder die Frage stellen: Wo wollen wir eigentlich hin? Was wollen wir als Gesellschaft? In welchen Bereichen dürfen Algorithmen entscheiden? Wie können wir Roboter und KI zum Vorteil möglichst vieler Menschen nutzen? Wie schaffen wir es, dass wir KI als Werkzeug betrachten, das uns zur Verfügung steht, während die Handlungs- und Entscheidungsautonomie weiter beim Menschen liegt? KI ist etwas Menschgemachtes. Es sind Systeme, die aus menschlichen Daten lernen und daher nur reproduzieren können, was wir Menschen so treiben. Wenn man davor Angst haben möchte – was teilweise auch berechtigt ist –, dann ist es in Wahrheit auch Angst vor uns Menschen selbst. (Jakob Pallinger, 22.10.2020)