Einem selbstfahrenden Auto sollte man (noch) nicht blind vertrauen.

Foto: Reuters/ELIJAH NOUVELAGE

Algorithmen – also Programme, die anhand bestimmter Anweisungen ein Problem lösen sollen – sind aus unserem Alltag kaum mehr wegzudenken: Wir vertrauen dem Navigationssystem, dass es uns den kürzesten Weg zum Ziel zeigt, Spotify, dass es uns passende Lieder vorschlägt, und Onlinedating-Plattformen, dass sie uns den perfekten Partner fürs Leben liefern. Einige Menschen scheinen sogar so viel Vertrauen in die Programme zu haben, dass sie während einer Fahrt mit einem selbstfahrenden Auto einschlafen.

Ein Teil dieses Vertrauens ist durchaus berechtigt. Immerhin sind Algorithmen tatsächlich meistens besser darin, analytische Aufgaben zu lösen, als Menschen. Allerdings vertrauen wir den Programmen auch dann, wenn wir es eigentlich nicht sollten. Zu diesem Ergebnis kommt eine aktuelle Studie aus den USA, die drei Experimente mit insgesamt 1.500 Teilnehmern und Teilnehmerinnen durchführte.

Immer wieder kursieren im Netz Videos von Menschen, die anscheinend während einer Tesla-Fahrt eingeschlafen sind. Das kann gefährlich werden.
NBC News

Je komplexer, desto mehr Vertrauen

Darin zeigten die Studienautoren den Teilnehmern eine Reihe von Bildern, auf denen eine bestimmte Anzahl von Menschen zu sehen waren. Die Teilnehmer mussten im Anschluss schätzen, wie viele Personen sie sahen, und konnten ihre Antwort entweder mit der Antwort tausender anderer Menschen oder der eines Algorithmus abstimmen.

Je mehr Menschen auf den Bildern zu sehen waren, desto eher verließen sich die Teilnehmer auf den Algorithmus. Das Problem: Algorithmen sind nicht immer besonders gut darin, viele Objekte und Menschen auf Bildern zu erkennen – vor allem dann nicht, wenn die Menschen nahe beieinander stehen und schwer voneinander zu trennen sind. Laut den Studienautoren könne es problematisch sein, wenn Menschen Entscheidungen einzig und allein deshalb vertrauen, weil sie von einem Algorithmus kommen.

Algorithmen, die diskriminieren

Wie sehr Algorithmen Entscheidungen zum Teil auch negativ beeinflussen können, haben Beispiele in Bewerbungsprozessen gezeigt. Immer wieder haben Algorithmen, die dabei helfen sollten, den oder die geeignetste(n) Bewerber oder Bewerberin für eine bestimmte Position zu finden, in der Vergangenheit Frauen oder andere Gruppen diskriminiert – meist aufgrund der Tatsache, dass die Daten und Anweisungen, die in das Programm eingespeist worden waren, ein ungleiches Bild zeigten.

Die Studienautoren warnen daher davor, Algorithmen zu sehr und zu schnell zu vertrauen, ohne die mögliche Voreingenommenheit und den Entwicklungsstand der Programme zu berücksichtigen. Gerade Politiker und Entscheidungsträger müssten sich laut der Studie besser im Klaren darüber sein, was Algorithmen leisten können und was nicht. (Jakob Pallinger, 14.4.2021)