Wenn Algorithmen bei der Personalauswahl helfen
Mann oder Frau? Alt oder jung? Mit oder ohne Migrationshintergrund? Wenn Personalverantwortliche entscheiden, wen sie befördern oder mit neuen Aufgaben betrauen, sollte die Leistung entscheiden, aber keinesfalls Geschlecht oder Alter oder Herkunft eine Rolle spielen. Wäre es deshalb besser, wenn man die in großen Unternehmen in wachsendem Umfang digital vorliegenden Personaldaten von Maschinen analysieren und eine Entscheidung treffen ließe? Algorithmen könnten tatsächlich für mehr Objektivität sorgen, sagen zwei Wissenschaftler_innen der HTW Berlin. Doch auch vermeintlich sachliche Fakten können diskriminieren. Prof. Dr. Jürgen Radel, Experte für Human Resources Management, und Prof. Dr. Katharina Simbeck, Spezialistin für Digitalisierung, wollen bis 2020 in einem gemeinsamen Forschungsprojekt herausfinden, ob und wie sich das vermeiden lässt. „Diskriminierung durch Künstliche Intelligenz“ heißt das Projekt. Für „DiKI“ – so der einprägsame Kurzname – gibt es Fördermittel von der Hans Böckler Stiftung.
Wieviele Unternehmen erfassen Personaldaten eigentlich schon digital und werten sie auch aus?
Prof. Dr. Radel: Das kommt auf die Daten an. Kennzahlen wie Alter, Dauer der Beschäftigung, Art der Ausbildung etc. werden in nahezu allen Unternehmen digital erfasst, sensible Daten hingegen kaum. Bei Gesundheitsdaten ist allenfalls eine Erfassung von Fehltagen möglich. Auch im Bereich der individuellen Leistung werden nur sehr rudimentär Daten erhoben. Hier muss nicht nur Datenschutz gewährleistet sein, vielmehr ist objektive Leistung in vielen Bereichen schwer messbar.
Das Problem an der Sache: Die Daten befinden sich oft in verschiedenen Systemen und liegen außerdem unstrukturiert oder fragmentiert vor. Das macht eine Auswertung extrem schwer. Meist werden Personaldaten nur im Sinne von Kosten-Daten ausgewertet. Es wird also geschaut, wie hoch sind die Kosten und wie verteilen sie sich auf Kostenstellen. Doch es gibt auch in der Personalwirtschaft einen klar erkennbaren Trend zur Digitalisierung. Deshalb wollen wir Handlungsempfehlungen erarbeiten. Wenn das, was jetzt Menschen tun, irgendwann einmal automatisiert geschieht, dann sollten Fehler, die wir schon jetzt erkennen können, vermieden werden.
In welchen Bereichen halten Sie eine digitale Auswertung von Personaldaten für sinnvoll?
Prof. Dr. Simbeck: Nicht in allen Unternehmen und sicher nicht für alle Positionen. Unser Projekt zielt vor allem auf die interne Personalrekrutierung in großen Unternehmen und Konzernen ab. Je größer ein Unternehmen und je vergleichbarer die Aufgaben einer Beschäftigtengruppe, desto hilfreicher könnte eine digitale Auswertung mithilfe von Algorithmen sein. Sie könnte bei Servicekräften der Deutschen Bahn funktionieren, vielleicht bei Analysten in einer Bank oder bei Fahrradkurieren eines Kurier-Dienstleisters, um einige Beispiele zu nennen.
Wo kommt der Faktor Diskriminierung ins Spiel?
Prof. Dr. Radel: Algorithmen werten Daten aus, erkennen Muster und versuchen Vorhersagen über Entwicklungen zu treffen. Wenn in den zu Grunde liegenden Daten bereits Diskriminierung steckt, kann diese durch den Algorithmus als Muster erkannt und verstärkt werden. Hat ein Unternehmen beispielsweise gute Erfahrungen mit dem Recruiting von jungen Männern aus Elite-Hochschulen mit bestimmten Persönlichkeitsmerkmalen gemacht, so wird sich dieses „Erfolgsrezept“ möglicherweise auch in den Algorithmen wiederfinden. Erkennt der Algorithmus beispielsweise, dass bisher Männer in Führungspositionen sind und trifft die Annahme, dass Männer scheinbar gute Führungskräfte sind, werden eher Männer vorgeschlagen.
Zugegeben: Das Beispiel ist recht einfach. Aber es gibt auch subtilere Formen der Diskriminierung. Gefährlich ist es besonders dann, wenn die vom Algorithmus vorgeschlagenen Entscheidungen nicht transparent sind, wenn z.B. für Mitarbeiter X eine hohe Kündigungswahrscheinlichkeit prognostiziert wird, ohne dass klar wird, welche Variablen zu dieser Vorhersage geführt haben. Viele Softwareprodukte enthalten auch vom Hersteller voreingestellte Parameter. Diese Parameter werden durch Menschen festgelegt und zwar vergleichsweise statisch. Das Problematische hier ist die Intransparenz und der Umstand, dass wir Algorithmen nicht oder nur wenig hinterfragen. Wir kennen sie teilweise gar nicht oder verstehen sie nicht.
Wie werden Sie im Projekt vorgehen?
Prof. Dr. Simbeck: Wir werden zunächst recherchieren, welche Auswertungssysteme auf dem Markt sind. Danach werden wir Interviews mit Personalverantwortlichen, Softwareanbietern und Akteur_innen der Mitbestimmung führen. Anschließend wird es technisch etwas aufwändiger. Wir wollen so viele Daten wie möglich bekommen, um sie mit eigenen Algorithmen auszuwerten. Hier werden wir mit Unternehmen zusammenarbeiten, die eine große Anzahl von Beschäftigten haben, die im Idealfall auch vergleichbarer Beschäftigungen ausführen. Eines wissen wir jetzt schon: Es reicht definitiv nicht aus, nur auf Geschlecht und Alter zu achten.
Was soll am Ende dabei herauskommen?
Prof. Dr. Radel und Prof. Dr. Simbeck: Wir wollen eine Art „Diskriminierungs-TÜV“ für den Personalbereich entwickeln, also Kriterien, nach denen Unternehmen und Akteur_innen der Mitbestimmung entscheiden können, welche Algorithmen wie eingesetzt werden sollten, um diskriminierungsfrei und meritokratisch Personalentscheidungen zu treffen. Wir wollen experimentell zeigen, was passiert, wenn Algorithmen im Personalbereich eingesetzt werden, ohne das Diskriminierungspotential zu beachten und damit die Entscheider in Unternehmen ihre Verantwortung aufzeigen. Und wir wollen in für Personaler und für Akteur_innen der Mitbestimmung verständlicher Sprache erklären, wie diese Programme funktionieren.