Weniger Arbeit für die Personaler, weniger Personal nötig in der HR-Abteilung? Vermeintliche Objektivität kann schaden.

Foto: APA/REUTERS/GONZALO FUENTES

"Vielen Dank für Ihre Bewerbung. Leider haben wir uns für einen anderen Kandidaten entschieden." Ende. Die öffentliche Debatte über Algorithmen in Bewerbungsprozessen kochte im Jahr 2018 hoch, als Amazon diese Methoden anwandte. Man entdeckte, dass Männer eher als passende Kandidaten vorgeschlagen wurden als Frauen, die dadurch systematisch benachteiligt wurden. Um zu verstehen, wie dieser Fehler passieren konnte, muss man in die Welt der künstlichen Intelligenz eintauchen.

Algorithmen werden mit möglichst vielen Datensätzen trainiert. Sie werden in das System eingespielt, es werden Kriterien festgelegt. Bei Amazon nahm man Bewerbungsunterlagen von Personen, die erfolgreich eingestellt wurden. Die KI hat diese Bewerbenden dann miteinander verglichen und Zusammenhänge hergestellt. Da hauptsächlich technikaffine Männer eingestellt wurden, wertete das System diese Merkmale als Vorteil und reihte Männer vor.

Gefüttert von Menschen

Olga Levina, Professorin für Wirtschaftsinformatik der Technischen Hochschule Brandenburg: "Algorithmen können nicht vorurteilsfreier urteilen als Menschen. Die Daten zum Rechnen, also vorausgegangene Entscheidungen, kommen von Menschen. Die Ergebnisse sind also direkt abhängig von den Vorurteilen früherer entscheidender Personen."

Besonders heikel wird es, wenn die Algorithmen nach Persönlichkeitsmerkmalen suchen. Dafür werden auch das Anschreiben, die Stimme und die Mimik analysiert und kategorisiert. Die Annahme, dass Mimik oder Tonlage Emotionen korrekt widerspiegeln und einen Rückschluss auf die Charaktereigenschaften zulassen, ist wissenschaftlich keineswegs erwiesen.

Diese Klassifizierungen hatten schon in der Vergangenheit teils verheerende Auswirkungen, erinnert Levina: "Mimik und Emotionsvermittlung sind kulturell unterschiedlich. Bereits in vielen Diktaturen wurden diese angeblichen und wissenschaftlich nicht haltbaren Zusammenhänge als ‚Begründung‘ zur Abgrenzung und Verfolgung bestimmter Bevölkerungsgruppen herangezogen."

Fehlender Kontext

Doch lange bevor Bewerbende ihre Unterlagen einreichen, können Algorithmen zum Einsatz kommen. Schaltet ein Unternehmen beispielsweise auf Online-Plattformen wie Linkedin oder Xing eine Anzeige für eine Stellenausschreibung, kann relativ genau eingestellt werden, wer die Anzeige überhaupt sehen soll. Da die eingestellten Kategorien für die Arbeitssuchenden verborgen bleiben, ist es schwer abzuschätzen, wie sehr hier bei dem sogenannten "Microtargeting" Diskriminierung stattfindet.

Bewerbungsalgorithmen sind gefinkelt. Sie entdecken Lücken im Lebenslauf und bewerten sie eventuell negativ. "Das kann auch passieren, wenn eine menschliche Personalverantwortliche die Entscheidung trifft. Aber hier gibt es doch eine bessere Chance, den Kontext zu berücksichtigen und gegebenenfalls gerade einen solchen Aspekt positiv oder zumindest nicht negativ zu bewerten", gibt Jessica Heesen, die Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik der Eberhard-Karls-Universität Tübingen, zu denken.

Denn der Grund einer Berufsunterbrechung könnte zum Beispiel auch eine Krankheit gewesen sein. Das macht deutlich, dass Algorithmen Korrelationen herstellen, ohne den kausalen Zusammenhang zu berücksichtigen.

Und das Menschliche?

Bleibt die Frage, wie man verhindern kann, dass Menschen durch Algorithmen ungleich behandelt werden. "Dazu muss die Qualität der Trainingsdaten sichergestellt und regelmäßig überprüft werden. Es ist vor diesem Hintergrund gut möglich, ADM-Systeme (ADM – Algorithmic Decision Making, Anm.) bei der Personalauswahl zu nutzen. Aber die Auswahl sollte nie nur auf ein ADM-System beschränkt sei. Wird ein solches System benützt, sollten die Arbeitssuchenden darüber in Kenntnis gesetzt sein", meint Professorin Jessica Heesen. Auch für Personaler ist es wichtig, zu wissen, nach welchen Kriterien und mit welcher Treffsicherheit die Personen ausgewählt wurden.

Dieses Problem erkannte auch die Europäische Kommission in den letzten Jahren. Sie schlägt deshalb mit dem Artifical Intelligence Act rechtliche Rahmenbedingungen vor, die definieren, in welchen Bereichen künstliche Intelligenz eingesetzt werden darf. Software zur Personalsuche stuft die Europäische Kommission dabei als sehr kritisch ein.

Ob die Lobeshymnen berechtigt sind, beantwortet Barbara Hammer, Professorin für Maschinelles Lernen der Universität Bielefeld: "Wie erfolgreich diese Bewerbungsroboter im Vergleich zu herkömmlichen Hiring-Prozessen sind, ist schwierig zu sagen, da dazu die beiden unter denselben Bedingungen verglichen werden müssten. Zudem müsste gut bewertbar sein, was ‚erfolgreich‘ im Spezialfall bedeutet. Dies ist meiner Ansicht nach nur beschränkt möglich, da Stellen immer zu einem gewissen Grad individuell sind." Ob letztendlich aber auch die Chemie stimmt, weiß der Roboter bisher jedenfalls noch nicht. (Natascha Ickert, 12.3.2022)