Mitarbeiter des Apple Stores in Wien bei dessen Eröffnung im Jahr 2018. Die Verkäufer können von den Kunden bewertet werden: von 1 ("schlecht") bis 5 ("super").

Foto: SEPA.Media | Martin Juen / SEPA.

Hinsichtlich des Fahrerlebnisses seiner Kunden führt der alternative Taxidienst Uber ein strenges Regiment. Nach einer Fahrt von A nach B kann man als Passagier seinen Chauffeur bewerten. Wer von den Fahrgästen mehrmals schlechte Ratings erhält, den zieht Uber buchstäblich aus dem Verkehr.

Lehrer-Rating nach Uber-Vorbild

Dieses Bewertungssystem war auch Vorbild für die Lehrerbewertungs-Handy-App "Lernsieg", die seit Wochen für Aufregung und Schlagzeilen sorgt.

Für die App wurde eine Datenbank mit rund 90.000 Lehrern und den entsprechenden Schulen angelegt. Dort können Schüler nach Registrierung via Handynummer ihre Pädagogen ab der AHS-Unterstufe beziehungsweise Neuen Mittelschule (NMS) in Kategorien wie Unterricht, Fairness oder Pünktlichkeit mit einem Stern bis hin zu fünf Sternen bewerten und bei weniger als fünf Sternen in vorgegebenen Unterkategorien konkretisieren, welche Mängel es gibt. Für jede Schule gibt es dann ein Ranking der "besten" Lehrer und neben dem jeweiligen Schulprofil auch ein Ranking der zehn besten Schulen in Kategorien wie Lehrangebot oder neue Medien.

Die Lehrerschaft ist von der App nicht gerade begeistert. Die Lehrergewerkschaft sieht durch die App nicht nur Datenschutz und Persönlichkeitsrechte verletzt, sondern vermutet dahinter auch eine "riesige Handynummer-Sammelaktion". Daher geht sie juristisch gegen die App vor. Bisher mit wenig Erfolg: Die Datenschutzbehörde sieht keine Probleme.

Verkäufer unter Bewertungsstress

Aber auch im heimischen Handel werden Mitarbeiter von ihren Kunden bewertet. Wer im Apple Store auf der Wiener Kärntner Straße einkauft und sich die Rechnung per E-Mail zusenden lässt, bekommt bald weitere elektronische Post von Apple. Darin wird gebeten, seinen Verkäufer zu bewerten: von 1 ("schlecht") bis 5 ("super"). Auch Kunden des Nike-Stores auf der Mariahilfer Straße können ihre Verkäufer via Online-Voting benoten.

Die Bewertung der Kunden hat natürlich Auswirkungen auf die Beschäftigten. Die Firmen wollen so für Motivation und zuvorkommende Bedienung sorgen. Welche Konsequenzen es für Verkäufer mit schlechter Beurteilung gibt, wollte kein Unternehmen sagen.

Laut Arbeitsmarktexpertin und Autorin Veronika Bohrn Mena seien "solche Kontrollinstrumente dem Personal gegenüber äußerst heikel und sehr kritisch, weil durch derartige Maßnahmen ein Klima des Misstrauens und des Drucks erzeugt wird". Sie sind allerdings rechtlich gedeckt, wenn es eine entsprechende Betriebsvereinbarung dazu gibt. Dann darf auch personalisiert nach bestimmten Verkäufern gefragt werden.

Auch die Arbeiterkammer (AK) sieht derartige Bewertungen kritisch. Diese können "eine Kontrollmaßnahme sein, die die Menschenwürde berührt", heißt es zum STANDARD.

Seitens der AK wird besonders betont, dass für diese Bewertung die Zustimmung des Betriebsrats in Form einer Betriebsvereinbarung notwendig sei. Gebe es keine Vertretung, sei die Zustimmung jedes einzelnen Arbeitnehmers erforderlich. Auch müssten Arbeitgeber die Datenschutzgrundschutzverordnung beachten. So sollte die Transparenz der Datenverarbeitung gewährleistet sein, und die Beschäftigten sollten wissen, was mit den gewonnenen Daten passiert und welche konkreten Auswirkungen die Benotungen haben, so die AK.

Überwachungsalgorithmen

In Deutschland sorgt derzeit die automatisierte Verarbeitung von Mitarbeiterdaten mittels Algorithmen für Diskussionen. Künstliche Intelligenz ermögliche eine "immer umfassendere Überwachung von Beschäftigten" und führe zu "erheblichen Eingriffen" in ihre Persönlichkeitsrechte, kritisiert die deutsche Hans-Böckler-Stiftung unter Berufung auf ein entsprechendes Rechtsgutachten. Das Gutachten des Frankfurter Arbeitsrechtlers Peter Wedde ist Teil einer Studie über automatisiertes Personalmanagement der gemeinnützigen Organisation Algorithm Watch, an der sich die gewerkschaftsnahe Böckler-Stiftung beteiligte.

Diese kritisiert insbesondere lernfähige Algorithmen, die mittlerweile Bewerbungen und Interviews auswerten sowie den Arbeitseinsatz einzelner Mitarbeiter analysieren können, als schwer durchschaubar. Bei einem Einsatz entsprechender Programme müsse das Grundrecht auf Schutz der Privatsphäre mit den Interessen des Arbeitgebers abgewogen werden. (Markus Sulzbacher, 10.3.2020)