Wenn Technologie bei der Personalauswahl hilft
„500 und mehr Bewerbungen in Minuten auf eine Auswahl von Top 10 reduzieren!“ Dieses Versprechen dürfte in den Ohren von Personaler*innen verheißungsvoll klingen. Die Frage ist jedoch, wie effizient das solchermaßen beschriebene Software-Tool tatsächlich ist, wie fair es bei dem in Aussicht gestellten Ranking zugeht und ob die Kategorie Diversität Berücksichtigung findet, der sich viele Unternehmen inzwischen verpflichtet haben. Prof. Dr. Helena Mihaljevic ist Expertin für maschinelles Lernen. Sie beschäftigt sich schon lange mit technologiegestützter Personalauswahl, zuletzt im Projekt „FairTecHR“. Ihr ernüchterndes Fazit: „Explizite rechtliche oder praktische Standards für die Fairness-Prüfung gibt es derzeit nicht, auch eine umfassende Bewertung der diskriminierenden Potenziale dieser Technologien fehlt noch“. Im Interview bringt die Wissenschaftlerin die Schaffung eines Data Trust-Modells ins Gespräch, auf dessen Grundlage die überfälligen Standards entwickelt werden könnten.
Wie verbreitet ist der Einsatz von Technologien bei der Personalauswahl?
Prof. Dr. Helena Mihaljevic: Es gibt keine genauen Erhebungen darüber, wie viele Unternehmen entsprechende Technologien einsetzen und welche sie dabei präferieren. Fest steht, dass die Anzahl der Tools auf dem Markt stetig wächst. Sehr oft werden sie genutzt, um den Auswahlprozess effizienter zu gestalten. Mit anderen lassen sich vorhandene Informationen gezielt anreichern, bspw. um psychologische Profile zu erstellen. Wieder andere helfen, den Pool an Bewerber*innen diverser zu gestalten, indem Personaler*innen dabei unterstützt werden, ihre Ausschreibungstexte so zu verfassen, dass sich beispielsweise Frauen und Männer gleichermaßen angesprochen fühlen oder keine versteckte Altersdiskriminierung enthalten ist.
Wo genau kommen die Tools zum Einsatz?
Sie können in allen Phasen des Bewerbungsprozesses zum Einsatz kommen. Die Programme, die helfen, Ausschreibungen inklusiver zu gestalten, habe ich schon erwähnt. KI-gestützte Technologien können bei der Vorauswahl herangezogen werden. Es gibt Tools, die Lebensläufe nach Fähigkeiten, Abschlüssen und Zertifizierungen durchsuchen und dann Rankings erstellen; wieder andere machen Abschlüsse vergleichbar, was für international agierende Unternehmen wichtig ist. KI-gestützte Technologien können auch hilfreich sein, um Arbeitserfahrungen von Bewerber*innen in Relation zu setzen und dabei gesellschaftliche Nachteile zu kompensieren, beispielsweise Erziehungszeiten von Frauen. Bei bestimmten Positionen kommen auch Tools aus der sogenannten Psychological KI zum Einsatz. Mit ihnen versucht man den Charakter eines Menschen besser zu erfassen, damit dessen Soft Skills bestmöglich zu denen des bestehenden Teams passen.
Was taugen die Tools?
Einige Studien haben gezeigt, dass KI-gestützte HR-Technologien (HR steht für Human Resources) bestehende gesellschaftliche Ungleichheiten verstärken und so den selbst gesetzten Diversity-Zielen zuwiderlaufen können. Das im Vorfeld einzuschätzen, ist für Personalabteilungen allerdings schwierig. Meist sind sie bei der Beschaffung der Software auf Informationen aus Verkaufsgesprächen angewiesen. Es gibt leider kein Äquivalent zur „Stiftung Warentest“ (lacht), aber Technologien für die Personalauswahl sind natürlich auch nicht mit Staubsaugern zu vergleichen... Tatsache ist, dass sich Fairness-Evaluierungen in der Praxis aufgrund rechtlicher, konzeptioneller und organisatorischer Herausforderungen nur schwer umsetzen lassen, auch für die Herstellenden entsprechender Software. Das haben wir ganz konkret in unserem Projekt „Fairness-Auditierung in Technologie-gestützter Personalauswahl“, kurz: „FairTecHR“, im Rahmen mehrerer Fokusgruppen-Gespräche festgestellt.
Wie ist es um die Transparenz der Technologien beschaffen?
Viele Technologien wurden von kommerziellen Anbietern entwickelt, die sich eher weniger in die Karten schauen lassen. Gleichzeitig gibt es immer mehr Startups auf dem Markt, die wissenschaftliche Erkenntnisse, z.B. aus der Psychologie und aus der Ökonomie, in ihre Tools einfließen lassen. Darunter sind viele mit guten Absichten, die sich durchaus Mühe mit der wissenschaftlichen Überprüfung und Transparenz geben. Dieser Trend ist zu beobachten.
Aber alle haben dasselbe Problem: Es gibt derzeit keine expliziten rechtlichen oder praktischen Standards für die Fairness-Prüfung. Auch eine umfassende Bewertung der diskriminierenden Potenziale fehlt. Der aktuelle Entwurf des Artificial Intelligence Act der Europäischen Union stuft zwar zahlreiche Anwendungen in der Personalauswahl als Hochrisikotechnologien ein und fordert hohe Qualitätsstandards zum Schutz der Grundrechte der Beteiligten, insbesondere bei der Entwicklung. Aber der Gesetzentwurf gibt keine konkreten Hinweise, wie dies sichergestellt werden kann, insbesondere wenn die Technologien bereits kommerziell verfügbar sind.
Wie ließe sich größere Transparenz in punkto Fairness herstellen?
Ich verstehe den KI-Entwurf der EU so, dass man die Unternehmen in die Pflicht nehmen will, in der Entwicklungsphase Best Practice walten zu lassen. Aber das wird nicht ausreichen. Schon in der Vergangenheit haben viele große Unternehmen, die über alle nötigen Ressourcen verfügten, schwachstellenbehaftete Produkte entwickelt. Wenn es so einfach gewesen wäre, die Fehler zu vermeiden, hätten sie es getan.
Bei der Festlegung von verbindlichen Standards in diesem Bereich ist meines Erachtens der Gesetzgeber gefragt. Grundlage für die Evaluierung der Technologien könnte eine Art Datengenossenschaft oder ein Data Trust-Modell sein, dessen Konturen wir im Projekt „FairTecHR“ skizziert haben. Dabei würden die für Fairnessanalysen relevanten Daten wie Geschlecht, Alter oder Migrationshintergrund unabhängig und treuhänderisch verwaltet sowie gespeichert. An der professionellen Überprüfung der Tools müssten nicht nur die Technologieanbieter und deren Kundschaft beteiligt sein, sondern auch Interessenverbände und die Wissenschaft.
Ich bin übrigens ganz zuversichtlich, dass es in diese Richtung gehen wird. Als positives Signal sehe ich beispielsweise die jüngste Ausschreibung des Bundesministeriums für Bildung und Forschung zu diesem Schwerpunkt. Vielleicht bekommen wir in den nächsten fünf Jahren schon vernünftige Prototypen im deutschen Kontext zu sehen.