KI im Recruiting verändert, wie Bewerbende und Unternehmen zusammenfinden. Paula Scholz, David Stommel und Luisa Santiago Wolf, PHD-Kandidat:innen der Universität Köln, erforschen diesen Wandel. Ihr folgender Gastbeitrag beleuchtet, wie künstliche Intelligenz Diskriminierung beeinflusst und Entscheidungen prägt. Außerdem können interessierte Unternehmen Teil eines Pilotprojekts werden, um die Anwendung von KI im Recruiting.
Spannend, denn KI im Recruiting ist ein Thema, das Unternehmen nicht länger ignorieren können. Details zum Pilotprojekt findet Ihr am Ende des Gastbeitrags.
Jetzt aber Bühne frei für Paula, David und Luisa!
Künstliche Intelligenz (KI) bietet viele Möglichkeiten im Rekrutierungsprozess. Chatbots beantworten Fragen von Bewerbenden. Tools helfen dabei, Bewerbungen zu sichten und zu filtern. Auch Bewerbungsgespräche können analysiert werden. Für Bewerbende und Unternehmen wirkt diese Entwicklung wie ein wichtiger Schritt in die Zukunft. Sie verspricht mehr Objektivität und Effizienz im Bewerbungsprozess. Menschen unterliegen in ihren Entscheidungen oft unbewussten Vorurteilen oder stereotypischen Denkweisen. Durch datengetriebene Entscheidungen der Algorithmen besteht die Hoffnung, dass diese Einflüsse reduziert werden. Damit könnte der Einsatz von KI im Rekrutierungsprozess die Tür für mehr Diversität unter den Beschäftigten in Unternehmen öffnen.
Lernende Maschinen, alte Vorurteile
Allerdings zeigt die Vergangenheit, dass KI nicht immer zu einer neutralen Entscheidungsfindung beiträgt. Im schlimmsten Fall greift sie bestehende Diskriminierungsmuster erneut auf und verstärkt sie. So hat zum Beispiel Amazon im Jahr 2014 ein KI-Tool entwickelt, das auf früheren Einstellungsdaten basiert. Da die Daten mehrheitlich von männlichen Mitarbeitern stammten, bevorzugte die Software Männer und diskriminierte Frauen. Bemühungen, diese Diskriminierung zu verhindern, waren erfolglos, sodass das Tool letztlich abgeschafft wurde (BBC, 2018). Seitdem gab es viele positive Entwicklungen, Initiativen und Start-ups, die sich mit genau diesen Themen kritisch auseinandersetzten.
Ein Beispiel für Fortschritte in diesem Bereich ist das Projekt FAIR der Universität zu Köln und candidate select. (s. die Queb Blogbeiträge hier, hier und hier). Der in einer Kooperation entwickelte Index, bewertet die Fairness von Algorithmen. Dieser Index prüft, ob Algorithmen bei Merkmalen wie Geschlecht, Ethnie, Nationalität oder sexueller Orientierung unvoreingenommen sind. Neben solchen positiven Ansätzen gibt es in der EU inzwischen auch rechtliche Regelungen. Etwa die KI-VO, die den Einsatz von KI in der Rekrutierung kontrolliert. (Siehe hierzu auch das Queb Whitepaper: Was die neue KI-EU-Verordnung für Ihr Unternehmen bedeutet.)
Wie bewerten Bewerbende die Nutzung von KI?
Trotz der Herausforderungen und Risiken bleibt es spannend, wie Bewerbende die Technologie wahrnehmen. Kann KI nicht nur Diskriminierung verhindern, sondern auch aktiv mehr Diversität und Chancengleichheit fördern? Wie bewerten Bewerbende den Einsatz von KI, besonders, wenn sie Diskriminierung durch Menschen erwarten? Und kann KI helfen, eine vielfältigere Gruppe von Bewerbenden anzusprechen – als Grundlage für mehr Diversität in Unternehmen?
KI als Lösung für Diskriminierung von Frau und Mann?
Um uns der Antwort auf diese Fragen zu nähern, beginnen wir mit einer viel diskutierten Form der Diskriminierung: Ungleichbehandlung aufgrund des Geschlechts.
Wenn Menschen aufgrund eines Merkmals wie ihres Geschlechts diskriminiert werden (oder diese Diskriminierung erwarten und sich deshalb gar nicht erst bewerben (Glover et al., 2017)), geht ein großes Potenzial an talentierten und qualifizierten Mitarbeitenden verloren. Gerade vor dem Hintergrund des demografischen Wandels gilt es, solche Ineffizienzen zu vermeiden. Künstliche Intelligenz könnte ein Weg sein, um das vorhandene Potenzial zu nutzen und Diskriminierung zu reduzieren. Voraussetzung hierfür ist allerdings, dass die Bewerbenden die KI auch entsprechend wahrnehmen.
Tatsächlich äußerten sich Teilnehmende einer Studie von Kaibel et al. (2019) eher kritisch zur Nutzung von KI. Firmen, die KI zur Auswahl von Kandidatinnen und Kandidaten für Bewerbungsgespräche nutzen, wurden als weniger attraktiv wahrgenommen. Bei Menschen, die in der Vergangenheit bereits Diskriminierung erfahren haben, fiel diese Beurteilung jedoch weniger negativ aus. Außerdem nehmen Menschen in Situationen potenzieller Diskriminierung KI als neutraler und fairer wahr (Bonezzi & Ostinelli, 2021). Die Einschätzungen der Teilnehmenden beziehen sich in beiden Studien auf hypothetische Szenarien, die die Befragten als Außenstehende bewerteten. Auch bei der Analyse des tatsächlichen Verhaltens konnte gezeigt werden, dass es eine Abneigung gegen Algorithmen in Einstellungsverfahren gibt. Diese wandelt sich allerdings in eine Bevorzugung der KI gegenüber dem Menschen, wenn der Algorithmus das Geschlecht von Bewerbenden nicht berücksichtigt (Dargnies et al., 2024). Ein ähnliches Muster findet sich im MINT-Bereich. Eine Studie von Avery et al. (2023) zeigt den Einfluss von KI auf Bewerbende in diesem Bereich. Demnach schließen mehr Frauen ihre Bewerbung ab, wenn KI zur Auswahl von Bewerbenden zum Einsatz kommt. Treibende Kraft ist die Überzeugung, dass die KI objektiver einstellt und die Bewerbenden nicht aufgrund ihres Geschlechts diskriminiert werden.
Diese Studien zeigen, dass Menschen Algorithmen bevorzugen, wenn sie Benachteiligung aufgrund ihres Geschlechts durch einen anderen Menschen erwarten.
Nicht nur beim Geschlecht: Bewerbende erwarten objektive Entscheidungen des Algorithmus
Diskriminierung kann sich nicht nur auf das Geschlecht beziehen. Viele weitere Faktoren, wie zum Beispiel die Nationalität oder sexuelle Orientierung, können als Grundlage für Diskriminierung herangezogen werden. Eine Studie vom Cologne Center for Social and Economic Behavior und dem Exzellenzcluster ECONtribute: Markets & Public Policy stützt diese Auffassung. Die Ergebnisse zeigen, dass bestimmte Verhaltensmuster nicht nur bei Diskriminierung aufgrund des Geschlechts vorliegen. Stattdessen sind sie auch auf viele andere Diskriminierungsformen übertragbar.
In unserer Studie durchlaufen die Teilnehmenden einen simulierten Bewerbungsprozess. Ihnen wird dort die Rolle von Bewerbenden oder Recruiting-Managern zugeteilt. Die Bewerbenden können sich entscheiden, ob sie von einer KI oder einem menschlichen Recruiter eingestellt werden wollen. Zwei Arten von Diskriminierung können dabei in diesem Bewerbungsprozess auftreten:
i) Präferenzbasierte Diskriminierung liegt vor, wenn die Bewerbenden aufgrund persönlicher Vorlieben oder Abneigungen Anderer bevorzugt oder benachteiligt werden. Das ist etwa der Fall, wenn ein Recruiter einen Bewerbenden bevorzugt, weil dieser aus derselben Stadt stammt oder den gleichen Sportverein unterstützt wie der Recruiter.
ii) Bei statistischer Diskriminierung werden durchschnittliche Unterschiede zwischen Gruppen als Hinweis auf die Leistung einzelner Mitglieder interpretiert – auch wenn dies nicht immer zutrifft – und Bewerbende anhand dieses Kriteriums bevorzugt beziehungsweise benachteiligt behandelt. Beispielsweise, wenn ein Kandidat der Harvard University gegenüber einem Bewerbenden der Oxford University bevorzugt wird, weil Harvard mehr Nobelpreisträger und Nobelpreisträgerinnen hervorgebracht hat. Dann basiert die Entscheidung, den Harvard Kandidaten einzustellen, auf der durchschnittlichen Qualität der Absolventinnen und Absolventen der beiden Universitäten. Dies gibt jedoch keinen Aufschluss, ob bei den zwei vorliegenden Kandidaten, der Kandidat aus Harvard tatsächlich besser ist.
Unsere Studie zeigt: Bewerberinnen und Bewerber wählen häufiger eine KI, wenn sie präferenzbasierte Diskriminierung wegen eines bestimmten Merkmals befürchten. Das gilt besonders, wenn sie mit ähnlich qualifizierten Konkurrentinnen und Konkurrenten im Wettbewerb stehen. In unserer Studie entscheiden sich 66,5 % der Teilnehmenden der potenziell benachteiligten Gruppe für die KI. Nur 33,5 % bevorzugen einen menschlichen Manager. Der Grund: Viele glauben, dass die KI fairer entscheidet. Das zeigt, dass KI-Systeme das Vertrauen in Bewerbungsprozesse stärken können. Für Unternehmen, die mehr Diversität wollen, ist das besonders wichtig.
Diversität auf Kosten der Qualität der Bewerbenden?
In einem weiteren Teil unserer Studie haben wir untersucht, wie Bewerbende bei simulierter statistischer Diskriminierung entscheiden. Bei statistischer Diskriminierung werden im Durchschnitt Leistungsunterschiede zwischen Gruppen erwartet. Diese Unterschiede sagen jedoch nichts über die Leistung einzelner Personen aus. Sie erhöhen lediglich die Wahrscheinlichkeit, dass Mitglieder einer Gruppe im Durchschnitt leistungsfähiger sind.
Für die Untersuchung haben wir die Teilnehmenden in zwei Gruppen aufgeteilt. Eine der Gruppen durchlief zusätzlich ein Training. Die Teilnehmenden gingen deshalb davon aus, dass diese Gruppe im Durchschnitt besser abschneiden würde. Gleichzeitig vermuteten sie, dass sowohl der menschliche Manager als auch die KI diesen Unterschied als Grundlage für ihre Entscheidungen nutzen. Anders als bei präferenzbasierter Diskriminierung gingen die Teilnehmenden hier also nicht davon aus, dass die KI neutral ist.
Dieses Szenario führte zu einer Umkehr der Präferenzen. Bewerbende aus der benachteiligten Gruppe entschieden sich häufiger für den menschlichen Manager. Bewerbende aus der bevorzugten Gruppe wählten dagegen häufiger die KI. Sie begründeten dies damit, dass die KI analytischer und datengetriebener ist. Daher würde sie den Unterschied zwischen den Gruppen genauer erkennen.
Diese Ergebnisse sind in der Praxis wichtig. Bewerbende, die Diskriminierung durch Vorurteile befürchteten, wählten häufiger die KI. Sie sahen diese als neutraler an. Gleichzeitig wählten Bewerbende aus leistungsstärkeren Gruppen ebenfalls die KI. Sie vertrauten darauf, dass sie diese Unterschiede präziser erkennen als ein Mensch. Übertragen in die Praxis, würde das beispielsweise bedeuten, dass Bewerbende mit einem höheren oder angesehenen Bildungsabschluss eher eine KI-gestützte Auswahl bevorzugen könnten.
Für Unternehmen hat dies klare Vorteile. Der Einsatz und die offene Kommunikation über KI im Rekrutierungsprozess können zu einer größeren Vielfalt führen. Wenn sowohl leistungsstarke als auch historisch benachteiligte Bewerbende KI-basierte Verfahren positiv bewerten, kann ein diverserer Bewerberpool entstehen. Gleichzeitig bleibt die Qualität des Talentpools erhalten.
Wie Unternehmen das Potenzial von KI besser verstehen können
Unsere Studie liefert wichtige Erkenntnisse für die Forschung zur Nutzung von KI im Recruiting. Die Ergebnisse basieren auf einer Online-Studie mit Teilnehmenden aus den USA. Damit KI erfolgreich in Rekrutierungsprozessen eingesetzt werden kann, braucht es jedoch mehr als theoretische Forschung. Entscheidend ist, die Erkenntnisse auch in der Praxis zu überprüfen. Durch solche Tests können wir erkennen, wie KI auf Bewerbende wirkt und welche Potenziale sie entfaltet. So lassen sich Chancen besser nutzen und notwendige Anpassungen gezielt vornehmen.
Aufruf zur Zusammenarbeit
Deshalb laden wir Unternehmen ein, mit uns zusammenzuarbeiten! Werden Sie Teil eines Pilotprojekts und erforschen Sie gemeinsam mit uns die Anwendung von KI im Recruiting. Kontaktieren Sie uns, um mehr zu erfahren und den nächsten Schritt in die Zukunft der Personalauswahl zu gehen.
Literatur:
Avery, Mallory, Andreas Leibbrandt, and Joseph Vecci. 2023. “Does Artificial Intelligence Help or Hurt Gender Diversity? Evidence from Two Field Experiments on Recruitment in Tech.” SSRN Working Paper. http://dx.doi.org/10.2139/ssrn.4764343
BBC. 2018. “Amazon scrapped ‘sexist AI’ Tool”. https://www.bbc.com/news/technology-45809919
Bonezzi, A., & Ostinelli, M. (2021). Can algorithms legitimize discrimination? Journal of Experimental Psychology: Applied, 27(2), 447. https://psycnet.apa.org/record/2021-28943-001
Dargnies, Marie-Pierre, Rustamdjan Hakimov, and Dorothea Kübler. 2024. “Aversion to Hiring Algorithms: Transparency, Gender Profiling, and Self-Confidence.” Management Science. https://doi.org/10.1287/mnsc.2022.02774
Glover, Dylan, Amanda Pallais, William Pariente. 2017. “Discrimination as a Self-Fulfilling Prophecy: Evidence from French Grocery Stores”, The Quarterly Journal of Economics, 132(3): 1219–1260. https://doi.org/10.1093/qje/qjx006
Kaibel, Chris, Irmela F. Koch-Bayram, Torsten Biemann, and Max Mühlenbock. 2019. “Applicant Perceptions of Hiring Algorithms – Uniqueness and Discrimination Experiences as Moderators.” Academy of Management Proceedings. https://doi.org/10.5465/AMBPP.2019.210