Wer bei Bewerbungen vom Homeoffice aus ein Bücherregal oder einen Bilderrahmen im Hintergrund hat, hat mehr Chancen, eine Stelle zu bekommen. Zumindest offenbar dann, wenn das suchende Unternehmen die Software des Münchner Start-ups Retorio einsetzt. Zu diesem Ergebnis kommt der Bayerische Rundfunk bei einer Untersuchung der künstlichen Intelligenz (KI) der Firma, bei der diese auf die Probe gestellt wurde.

Die KI soll Unternehmen zu einem möglichst fairen Bewerbungsprozess verhelfen, indem nicht ein Mensch über Bewerber urteilt, sondern eine Maschine. Diese sei anhand der Daten von tausenden Videos und den Einschätzungen von Experten trainiert worden. Sie bewertet Jobsuchende nach den Kategorien "Offenheit", "Gewissenhaftigkeit" "Extraversion" "Verträglichkeit" und "Neurotizismus". Dabei soll ein möglichst präzises Bild der Persönlichkeit der Bewerber anhand einer Aufnahme erstellt werden, die kürzer ist als eine Minute.

Foto: screenshot/BR

Variierende Ergebnisse

Der Bayerische Rundfunk engagierte eine Schauspielerin, die sich möglichst unterschiedlich kleidete und verschiedene Accessoires nutzte – und kam dabei zu teils bizarren Ergebnissen. Beispielsweise wurde die Gewissenhaftigkeit der Frau schlechter eingeschätzt, wenn sie eine Brille aufsetzte. Und mit Kopftuch erhielt sie bei allen Punkten eine gänzlich andere Bewertung.

Das Unternehmen erklärte auf Anfrage, dass die KI ihre Ergebnisse nach der Außenwirkung der dargestellten Person errechne. Es gelang dem Bayerischen Rundfunk allerdings nicht, die Ergebnisse gezielt zu manipulieren – ein bestimmter Hintergrund bedeutete also nicht immer ein besseres Ergebnis, verschiedene Lichtsituationen oder Accessoires auch nicht.

Regulierung

Das zeigt aber laut der Informatikprofessorin Katharina Zweig, die vom BR befragt wurde, die grundsätzliche Problematik bei Gesichtserkennung auf, nämlich dass unklar sei, auf welche Muster die Systeme reagieren. Demnach ist es wichtig, künstliche Intelligenz zu regulieren und auch den Entstehungsprozess solcher Systeme zu beachten.

Derartige Systeme sind immer noch eine Blackbox: So ist zwar nachvollziehbar, welche Trainingsdaten eingespeist wurden und wie das Ergebnis aussieht – der genaue Entscheidungsprozess muss aber noch erforscht werden. Kritiker werfen solchen Systemen daher vor, etwa problematische menschliche Entscheidungen aus der Vergangenheit zu reproduzieren. (muz, 18.2.2021)