Wie kann man sich eine Welt vorstellen, in der Technologien wie Artificial Intelligence und Machine-Learning flächendeckend eingesetzt werden? Eine Welt, in der sie Unternehmen, Regierungen, Bildungseinrichtungen, Banken und Versicherungen helfen, Entscheidungen schnell und effizient zu treffen? Und wo bleibt dabei der Mensch? Das sind Fragen, denen Andrew Glassner, Forscher und Berater im Bereich Machine-Learning, nachgeht. Bleibt der Wildwuchs ungezügelt, werden die Menschen einem undurchschaubaren, inkonsistenten und ungerechten Netzwerk algorithmischer Systeme gegenüberstehen, die wesentlichen Einfluss auf wichtige Lebensentscheidungen haben. Letztendlich werden wir uns gezwungen sehen, uns "richtig" zu verhalten, um den Computern zu gefallen.

"Diese Systeme werden allgegenwärtig sein und jeden unserer Schritte nachvollziehen können", befürchtet Andrew Glassner.
Foto: Getty Images / iStockphoto

STANDARD: In Österreich gab es vor kurzem eine Debatte über Software, die Chancen von Arbeitssuchenden automatisch bewertet. Ist das für Sie eine bedenkliche Anwendung?

Glassner: Ich weiß nicht genug über diese konkrete Anwendung, um dazu etwas sagen zu können. Ich bin aber beunruhigt, was Systeme dieser Art betrifft. Ich glaube, dass sie mächtiger werden und große Auswirkungen auf unser Leben haben. Wir sehen heute nur die Anfänge dieser Welt. Die Risiken und potenziellen Probleme, die wir mit diesen Systemen in naher Zukunft haben werden, sind noch schwer auszumachen, weil aktuelle Anwendungen noch relativ einfach nachvollziehbar sind.

STANDARD: Wie werden diese Deep-Learning- und Artficial-Intelligence-Algorithmen, die unser Leben bestimmen, beschaffen sein?

Glassner: Es gibt drei Aspekte, die mir Kopfzerbrechen bereiten. Zunächst werden diese Systeme allgegenwärtig sein. Sie werden jeden unserer Schritte nachvollziehen können. Sie werden Entscheidungen treffen, die unser Leben beeinflussen. Wir werden aber nicht einmal wissen, dass sie überhaupt existieren. Wir werden nur mit den Ergebnissen konfrontiert.

STANDARD: Haben Sie ein Beispiel dafür, welche Konsequenzen das haben kann?

Glassner: Sie gehen vielleicht auf eine Homepage, um eine Reise zu buchen. Bestimmte Reiseziele sind für Sie aber nicht verfügbar. Sie wissen nicht, warum. Vielleicht wird Ihnen angezeigt, dass alles ausgebucht ist. Vielleicht entscheidet das System aber aus ganz anderen Gründen, dass Ihr Reiseziel für Sie nicht infrage kommt. Es könnte eine Entscheidung der Regierung sein oder der Luftlinie, die lieber jemanden anderen an Bord ihrer Maschine haben möchte. Solche Systeme können diese Entscheidung treffen, weil sie eine Unmenge Daten zur Verfügung haben. Wir wissen aber nicht, wie diese Entscheidung zustande kommt. Das ist die zweite Sache, die mich beunruhigt: Selbst wenn wir wissen, dass diese Systeme vorhanden sind, wissen wir nicht, welche Kriterien sie verwenden.

STANDARD: Und der dritte Problemaspekt?

Glassner: Er besteht darin, wie weitreichend diese Systeme sind. Ob sich jemand für einen Job eignet, ob jemand in eine Schule aufgenommen wird oder ob man im Restaurant eine Reservierung machen kann, sind jeweils eigene Entscheidungen. Die jeweiligen Informationen könnten aber von den Systemen geteilt werden. Dann wird das Problem größer. Denn werden die Daten weitergegeben, ist es für uns kaum noch möglich, ihre Korrektheit sicherzustellen. Wenn die Datenbanken isoliert sind, hat man die Chance, einen Fehler zu korrigieren. Sind sie vernetzt, werden Daten aufgesplittet und verkauft, werden sich die Informationen schnell verbreiten. Ein Fehler wird dann immer Teil jener Informationen sein, die Sie als Person beschreiben.

"Gehen wir Essen, sage ich vielleicht: Nein, keine Pizza! Meine Tochter will auf eine bestimmte Universität, und die Algorithmen, die den familiären Background checken, könnten das negativ bewerten", sagt Glassner.
privat

STANDARD: Nicht nur falsche Informationen, auch menschliche Vorurteile, die strukturell in die Systeme eingeschrieben werden, können zum Problem werden. Wie sehen Sie diesen sogenannten Bias der künstlichen Intelligenzen?

Glassner: Ja, das ist ein Riesenproblem. Es besteht kein Zweifel, dass diese Vorurteile in den Systemen existieren. Als Menschen brauchen wir vorgefasste Meinungen, Kategorien und Ideen, um in der Welt bestehen zu können. Sonst wären wir hilflos überfordert mit der Information, die auf uns einprasselt. Wenn man nun Algorithmen trainiert, wird diese Art, die Welt zu betrachten, weitergegeben. Wir wissen nicht, wie man Informationen frei von Bias gestaltet. Diese Verzerrungen müssen auch nicht zwangsläufig negativer Natur sein. Als Teil von Technologien haben sie aber oft negative Konsequenzen. Es gibt viele Beispiele für Datenbanksysteme, die einem augenscheinlich unfairen Bias unterliegen.

STANDARD: Haben Sie auch hier Beispiele?

Glassner: In den USA gibt es ein System, das bei Gericht verwendet wird, um das Strafmaß eines Verurteilten zu bestimmen. Viele Faktoren werden dafür in Betracht gezogen. Einer davon ist, wie wahrscheinlich der Verurteilte in Zukunft ein weiteres Verbrechen verüben wird. In vielen Gerichtssälen wird ein Algorithmus verwendet, der dazu eine Schätzung abgibt. Das System hilft dem Richter zu entscheiden, für wie lange eine Person ins Gefängnis gehen soll. Tests haben nun Folgendes ergeben: Wenn alle Daten bis auf die Hautfarbe identisch sind, werden Schwarze mit doppelt hoher Wahrscheinlichkeit als Rückfalltäter eingeschätzt. Ist man weiß, bekommt man eine Chance, als Schwarzer wird man bestraft.

STANDARD: Welche Gegenstrategien stehen uns zur Verfügung, damit wir nicht in einer Welt enden, die von undurchsichtigen digitalen Systemen geprägt ist?

Glassner: Wir müssen Vorkehrungen treffen, um diese Gefahr abzuwenden. Im Nachhinein wird es sehr schwierig sein, die Systeme zu regulieren, weil riesige wirtschaftliche Vorteile damit verbunden sind. Wir können beispielsweise Gesetze schaffen, die dafür sorgen, dass die Datenbanken eher klein, lokal und isoliert bleiben. Wir könnten bestimmen, dass jeder Anwender Trainingsdaten und Algorithmen öffentlich macht. Und wir könnten festlegen, dass uns diese Systeme keine sehr weitreichenden Entscheidungen – etwa bezüglich Krediten, Jobs oder Ausbildungen – abnehmen. Es ist ausreichend, wenn sie Informationen zur Verfügung stellen. Schlüsse daraus müssen dann aber die Menschen ziehen; Menschen, mit denen man reden kann und die als Ansprechpartner zur Verfügung stehen.

STANDARD: Eine andere Möglichkeit wäre zu versuchen, Computern beizubringen, die Menschen besser zu verstehen.

Glassner: Auf die Frage nach dem Sinn künstlicher Intelligenzen hört man oft, dass sie mehr Effizienz und Profit bringen. Das ist nur ein Zwischenschritt. Schlussendlich streben die Menschen doch nach Glück und Freude. Sie wollen ihr Leben zum Positiven verändern, es bedeutungsvoller machen. Im Moment haben Computer aber keine Möglichkeit, diese Aspekte zu messen. Man kann ihnen nicht sagen, diese Entscheidung ist freundlich oder gemein, großzügig oder selbstsüchtig. Diese Begriffe müssten sie aber verstehen, um zu wissen, wie sie unser Leben beeinflussen. Meiner Meinung nach ist Menschlichkeit wichtiger als alles andere. Und diese Maschinen berücksichtigen sie nicht! Wir brauchen Möglichkeiten, um in den Computern moralische und ethische Werte zu repräsentieren. Wenn wir die Algorithmen akzeptieren, sollten wir sicherstellen, dass sie uns so gut wie möglich behandeln.

Bild nicht mehr verfügbar.

"Das chinesische Sozialkreditsystem wird von oben diktiert und ist deshalb vielleicht widerspruchsfreier. Ich habe Angst, dass ein westliches System vollkommen unvorhersehbar und inkonsistent sein wird", meint Glassner.
Foto: REUTERS

STANDARD: Falls wir das nicht schaffen, wie würde das die Gesellschaft verändern?

Glassner: Wenn diese Algorithmen eingesetzt werden, werden sie uns Menschen verändern. Ein Mensch steht in seinem Leben vielen großen Entscheidungen gegenüber. In welche Schule wird man aufgenommen? Wohin kann man reisen? In welchem Haus wird man wohnen? Welcher Arbeit geht man nach? Algorithmen werden diese Entscheidungen mitbestimmen – wenn wir sie lassen. Dadurch würden wir beginnen, uns so zu verhalten, dass der Algorithmus eher Ja sagt, wenn wir vor der Kreditvergabe stehen. Wir werden versuchen, die Daten zu verändern, die der Algorithmus verwendet – indem wir darauf achten, was wir kaufen, mit welchen Freunden wir reden, wo wir mittagessen.

STANDARD: Wir optimieren uns selbst, um dem Computer zu genügen.

Glassner: Sogenannte Search Engine Optimization (SEO) ist heute eine wichtige Dienstleistung im Onlinebereich. Dabei wird versucht, herauszufinden, nach welchen Kriterien eine Suchmaschine ihre Ergebnisse reiht, um eine Homepage möglichst weit oben zu platzieren. Genau das werden wir dann mit unserem Leben machen. Wenn wir zum Essen ausgehen, sage ich vielleicht: Nein, keine Pizza! Denn meine Tochter will nächstes Jahr auf eine bestimmte Universität, und ich glaube, dass die Algorithmen, die den familiären Background checken, das negativ bewerten würden. Es werden Überlegungen sein, die jeden Aspekt unseres Lebens beeinflussen.

STANDARD: China wird für die Einführung eines Sozialkreditsystems kritisiert, das Kreditwürdigkeit, Verhalten oder Sozialkontakte bewertet und gewisse Vor- und Nachteile damit verbindet. Sie sagen also, im Westen droht ein ähnliches, lediglich nicht zentral gesteuertes System?

Glassner: Ja, es wäre genau dasselbe. China versucht es im Moment mit einem Public-private-Partnership, bei dem Regierung und private Organisationen zusammenarbeiten. China arbeitet aber mit einem ausgewiesenen Punktesystem. Wir haben dagegen vielleicht eine große Menge an Systemen, die unterschiedliche Kriterien an die Menschen anlegen und sich auch widersprechen können. Das chinesische System wird von oben diktiert und ist deshalb vielleicht widerspruchsfreier. Ich habe Angst, dass unser System vollkommen unvorhersehbar und inkonsistent sein wird. Wir werden ständig darüber nachdenken, was die Algorithmen von uns wollen und wie wir sie zufriedenstellen können. Es wird uns verrückt machen. Aber nicht alle: Sehr reiche Menschen werden sich Zugang zu den entsprechenden Informationen erkaufen können und auch hier Vorteile haben. (Alois Pumhösel, 30.1.2019)