Startseite » TU Dresden Blogs » Psychologie im Arbeitsleben

Psychologie im Arbeitsleben

Fairness beim Einsatz von Künstlicher Intelligenz im Recruiting

von Klara Manon Grassl (2. Semester Master Psychologie – Human Performance in Sociotechnical Systems, Technische Universität Dresden)

Teaser

„Big Data“ und Künstliche Intelligenz (KI) revolutionieren die Personalauswahl. Unternehmen
setzen zunehmend auf automatisierte Prozesse, um unter Tausenden Bewerbungen blitzschnell die „passenden“ Kandidierenden herauszufiltern. Doch was passiert, wenn Algorithmen entscheiden, wer eine Chance bekommt und wer nicht? Kann ein von Algorithmen gestützter oder durchgeführter Personalauswahlprozess überhaupt gerecht sein? Wie reagieren Bewerbende auf den Einsatz von KI im Recruiting und wie können Unternehmen diese neuen Technologien so einsetzen, dass sie nicht nur effizient, sondern auch fair sind?

Was ist „Big Data“?

„Big Data“ steht als Oberbegriff für verschiedene Ansätze der Sammlung, Analyse und Auswertung komplexer, teils schnelllebiger Daten. Unter der Anwendung von Algorithmen lassen sich so Muster in den Daten erkennen (Kauffeld, 2019). Mittels prädiktiver Analytik wird aus den gesammelten Daten, Data-Mining, statistischer Modellierung und maschinellem Lernen bzw. auch mithilfe von KI eine Vorhersage über zukünftige Ereignisse getroffen (IBM, 2024; Peisl & Edlmann, 2020).
Insbesondere das Recruiting, also das Anwerben und die Auswahl neuer Mitarbeiter eines Unternehmens, bedient sich im Zuge der rapiden technologischen Veränderungen zunehmend dieser Hilfsmittel zur effektiven und effizienten Verarbeitung der Datenströme, die bspw. bei der Bewerbungsauswahl für eine vakante Stelle entstehen können (Tallgauer et al., 2020). Das Unternehmen „Unilever“ z. B., konnte seine Bewerbungsprozesse mithilfe von „Big Data“ verbessern, indem Bewerbende ein kurzes Online-Formular ausfüllen, welches mit ihrem LinkedIn-Profil verknüpft wird. Nach verschiedenen Online-Spielen, die Tests zu Persönlichkeit und Kompetenz beinhalten, werden ausgewählte Bewerbende zu einem automatisierten Interview eingeladen, wobei die Daten softwarebasiert ausgewertet werden. Erst im letzten Schritt werden die vielversprechendsten Bewerbenden in das „Discovery Center“ eingeladen und unterziehen sich dort abschließender Auswahltests (Deloitte, 2017).
Doch auch in der Personalauswahl hält der aktuelle KI-Nutzungstrend Einzug. Für diesen spezifischen Anwendungsfall wird ein Algorithmus auf der Grundlage großer Datenmengen anhand eines Trainingsdatensatzes entwickelt. Die dabei gefundenen Zusammenhänge können anschließend genutzt werden, um anhand neuer Datensätze Vorhersagen zu treffen (Oswald et al., 2020).
Neben den Chancen der Effizienzsteigerung und Prozessoptimierung in Unternehmen birgt die Nutzung von „Big Data“ und insbesondere Algorithmen bzw. KI in der Personalauswahl auch Herausforderungen, so z. B. die strikte Wahrung datenschutzrechtlicher Vorschriften (Oswald et al., 2020). Gleichzeitig bestehen insbesondere beim Einsatz von KI Risiken, bestimmte Personengruppen zu diskriminieren, die Chancengleichheit aller Bewerbenden zu verletzen oder geeignete Bewerbende zu übersehen, z. B. weil die Algorithmen mit ungeeigneten Daten trainiert wurden (Persson, 2016). Dieser Blog-Beitrag geht der Frage nach, welche Aspekte entscheidend dafür sind, dass KI-gestützte Personalauswahlprozesse als fair bzw. gerecht empfunden werden und an welchen Stellschrauben Praktiker:innen drehen können, um die wahrgenommene Gerechtigkeit von Prozessen in der Personalauswahl 4.0 zu verbessern.

Die Gerechtigkeit von KI-gestützten Personalauswahlprozessen

Bei der Einschätzung der Gerechtigkeit von Personalauswahlprozessen stützt sich die Literatur auf die Theorie der Organisationalen Gerechtigkeit. Organisationale Gerechtigkeit betrachtet „organisationales Handeln aus der Perspektive der davon betroffenen Individuen“ (Warszta, 2023, S. 22) und unterscheidet zwischen den Dimensionen der distributiven und der prozeduralen Gerechtigkeit (Gilliland, 1993).
Während die distributive Gerechtigkeit den Fokus auf die Gerechtigkeit des Ergebnisses eines Prozesses legt (Adams, 1965), geht es bei der prozeduralen Gerechtigkeit darum, ob der Prozess, der zu einem Ergebnis führt, als gerecht empfunden wird (Leventhal, 1980; Thibaut & Walker, 1975, zitiert nach Warzsta, 2023). Bei einem solchen Prozess kann es sich bspw. um einen Personalauswahlprozess handeln.
Auf Grundlage der Literatur zur Theorie der Organisationalen Gerechtigkeit formulierte Gilliland (1993) zehn Regeln der prozeduralen Gerechtigkeit. Diese lassen sich drei Kategorien zuordnen – der Kategorie „formale Charakteristika“, der Kategorie „Erklärung“ und der Kategorie „zwischenmenschlicher Umgang“ (Gilliland, 1993).
Zur Kategorie „formale Charakteristika“ der prozeduralen Gerechtigkeit gehören Regeln, die bewerten, ob das im Auswahlverfahren genutzte Instrument wirklich die zur Stellenbeschreibung erforderlichen Kriterien erfasst (Berufsbezogenheit), ob Bewerbende die Chance hatten, sich angemessen darzustellen (Gelegenheit zur Selbstpräsentation), ob sie ihre Antworten überprüfen konnten und ggf. die Möglichkeit bekamen, den Prozess zu ändern oder anzufechten (Gelegenheit zur Überprüfung der Antworten) und ob alle Bewerbenden auf die gleiche Art und Weise behandelt wurden (Konsistenz in der Durchführung) (Gilliland, 1993; Warszta, 2023).
Zur Kategorie „Erklärung“ gehören Regeln, die bewerten, ob Bewerbende zeitnah ein angemessenes Feedback zu ihrem Bewerbungsverfahren erhalten haben (Feedback), ob ihnen genug Informationen über das Auswahlverfahren bzw. das Ergebnis dessen gegeben wurden (Informationen zum Auswahlverfahren) und auch, ob sie ein ehrliches Feedback erhielten (Ehrlichkeit) (Gilliland, 1993; Warszta, 2023).
Zur Kategorie „zwischenmenschlicher Umgang“ gehören Regeln, die bewerten, ob die Bewerbenden sich respektvoll behandelt fühlen (Behandlung der Bewerbenden), ob die Kommunikationswege zur Organisation offenstehen bzw. die Sichtweise der Bewerbenden auf das Auswahlverfahren gehört wird (zweiseitige Kommunikation) und ob die im Auswahlverfahren gestellten Fragen angemessen sind (Angemessenheit der Fragen) (Gilliland, 1993; Warszta, 2023).
Vor dem Hintergrund dieser zehn Regeln in den drei Kategorien „formale Charakteristika“, „Erklärung“ und „zwischenmenschlicher Umgang“ werden im Folgenden einige empirische Befunde zum Einsatz von KI in Personalauswahlprozessen vorgestellt und diskutiert. Lee (2018) führte eine Untersuchung mit 321 Amazon Mechanical Turk (MTurk) Arbeitnehmenden durch. Bei der Website Amazon MTurk können Aufträge eingestellt werden, deren kleinere Unteraufträge (auch bekannt als „Microtasks“) von verschiedenen Menschen online bearbeitet werden, z. B. die Rechtschreibkorrektur in einzelnen Sätzen (Amazon Web Services, o. J.).
Die Teilnehmenden bei Lee (2018) sollten anhand verschiedener Managementszenarien die Gerechtigkeit von menschlichen und KI-basierten Personalauswahlprozessen bzw. entscheidungen bewerten. Das allgemeine Einstellungsszenario sah vor, dass ein Algorithmus bzw. ein Manager in einer Hightech-Firma die Bewerbungsunterlagen auf einer Website zur Job-Suche sichtet und die besten Bewerbenden zu Interviews einlädt. Im spezifischen Szenario ging es um die fiktive Person Alex, die sich auf die Stelle auf der Website zur Job Suche bewirbt, in dem sie ihre Bewerbungsunterlagen einreicht. Der Algorithmus bzw. der Manager sichten Tausende Bewerbende, darunter auch Alex (Lee, 2018).
Die Gerechtigkeit der KI-basierten Entscheidung wurde signifikant niedriger bewertet als die menschlicher Entscheidungen. Die meisten Teilnehmenden waren der Meinung, dass es dem Algorithmus nicht möglich sei, die wirklich geeigneten Kandidierenden herauszufiltern, da diesem menschliche Intuition fehle, er Urteile anhand von Schlüsselwörtern in den Unterlagen fälle, Bewerbenden-Qualitäten ignoriere, die schwer zu quantifizieren sind und keine soziale Interaktion evaluieren könne oder mit Ausnahmen bzw. Besonderheit in den Unterlagen umzugehen vermöge. Eine geringere Anzahl an Teilnehmenden merkte hingegen an, dass KI basierte Entscheidungen auch fair sein können, da diese auf Regeln basieren und keinem menschlichen Bias unterliegen (Lee, 2018).
Lavanchy et al. (2023) kamen zu einem ähnlichen Ergebnis. In ihren vier Studien mit Amazon MTurk Mitarbeitenden konnten die Autor:innen zeigen, dass Menschen in der Rolle eines Bewerbenden einen rein auf einem Algorithmus basierten Personalauswahlprozess als weniger gerecht empfanden als einen rein menschlichen oder zwar durch einen Algorithmus gestützten, aber dennoch vorrangig von Menschen durchgeführten Auswahlprozess. Dieser Effekt bestand unabhängig vom Ergebnis des Prozesses fort. Als potenziell erklärenden Mechanismus identifizierten die Autor:innen den Glauben der Teilnehmenden daran, dass ein Algorithmus nicht dazu fähig ist, die Einzigartigkeit der Bewerbenden zu erkennen. Die
Autor:innen verstehen die Anerkennung der individuellen Einzigartigkeit als grundlegendes menschliches Bedürfnis. Wird die Einzigartigkeit und somit auch die Individualität eines Menschen verkannt, beeinflusst dies die wahrgenommene Gerechtigkeit des Auswahlprozesses unter Umständen negativ (Lavanchy et al., 2023).
Während die dargestellten Befunde auf eher negative Bewerbendenreaktionen beim Einsatz
von Algorithmen bzw. KI in Personalauswahlprozessen hindeuten, kam Horodyski (2023) in seiner Untersuchung zu anderen Ergebnissen:
Die über 500 Umfrage-Teilnehmenden sahen in der Nutzung von KI im Recruitment unter anderem Vorteile in der Qualität und Objektivität des Auswahlprozesses und einem besseren Bewerbenden-Erlebnis. 69% der Teilnehmenden waren sich darüber einig, dass KI die
Antwortzeit bei Rückmeldungen im Personalauswahlprozess reduzieren kann. HR Manager:innen, die auch an der Umfrage teilnahmen, äußerten, dass mit der Nutzung von KI in der Personalauswahl das beste Personal gefunden werden kann und eine geringere Chance besteht, Kandidierende zu übersehen (Horodyski, 2023).
Nichtsdestotrotz kritisierten die Teilnehmenden bei Horodyski (2023), dass es beim Einsatz von KI im Recruitment Probleme mit geringerer Transparenz hinsichtlich der Funktionsweise
der KI gäbe, z. B. ist unklar, wie genau sie Entscheidungen fällt.
Die Problematik der Transparenz beim Einsatz von KI in der Personalauswahl wurde ebenfalls bei Newman et al. (2020) thematisiert. Die Autor:innen sprechen hier von einem sogenannten „Black-Box-Effekt“, bei dem Menschen nicht durchschauen können, auf welche konkrete Weise ihre Daten verarbeitet und analysiert werden. Ihre Untersuchung zeigte allerdings, dass eine stärkere Transparenz bezüglich der entscheidungskritischen Faktoren zu einer höheren wahrgenommenen Gerechtigkeit bei den von Menschen gefällten Entscheidungen führt, jedoch nicht bei Algorithmen (Newman et al., 2020).
Die Arbeiten von Lee (2018) und Lavanchy et al. (2023) verbindet vor allem die Einigkeit der Teilnehmenden darüber, dass ein von einem Algorithmus durchgeführter Personalauswahlprozess die qualitativen, einzigartigen Merkmale potenzieller Bewerbender übersehen könnte, die sie möglicherweise zu passenden Kandidierenden für die entsprechende Stelle machen.
Auf die oben vorgestellten Regeln von Gilliland (1993) könnte sich diese bei Lee (2018) und Lavanchy et al. (2023) wahrgenommene Einschränkung beim Einsatz von Algorithmen bzw. KI in der Personalauswahl auf die Kategorie der „formalen Charakteristika“ anwenden lassen.
Dadurch, dass bestimmte (qualitative) Merkmale möglicherweise gar nicht erst vom Algorithmus bzw. der KI erfasst werden, bekommen Bewerber:innen nicht die Chance, sich von vorneherein in geeigneter Weise selbst zu präsentieren, was so die empfundene Gerechtigkeit des vom Algorithmus gestützten Personalauswahlprozesses negativ beeinflusst.
Umfrage-Teilnehmende bei Horodyski (2023) sehen das anders und finden sogar, dass der Einsatz von KI dabei helfen kann, geeignete Kandidierende zu identifizieren. Darüber hinaus sind sie der Meinung, dass der Einsatz von KI die Antwortzeit im Personalauswahlprozess verkürzen kann. Diese Einschätzung deutet auf eine positive Bewertung der Feedback-Regel in der Kategorie „Erklärung“ bei Gillilands Regeln der prozeduralen Gerechtigkeit (1993) hin.
Die Bemängelung der Transparenz beim Einsatz von KI in Personalauswahlprozessen, wie sie bei Horodyski (2023) und Newman et al. (2020) beschrieben wird, deutet hingegen auf eine Verletzung der Regel zu den Informationen zum Auswahlprozess in der Kategorie „Erklärung“ hin.
Wie bei Lee (2018) erwähnt, nehmen Teilnehmende an, dass ein Algorithmus zwischenmenschliche Interaktion nicht adäquat evaluieren kann. Das könnte die wahrgenommene Gerechtigkeit hinsichtlich der Anwendung einer softwarebasierten Auswertung von Videointerviews im Personalauswahlprozess, wie sie bei dem Unternehmen „Unilever“ (s. Eingangsbeispiel) durchgeführt wird, schmälern. Eine Aussage zu den Regeln der Kategorie des „zwischenmenschlichen Umgangs“ bei Gillilands Regeln der prozeduralen Gerechtigkeit (1993) lässt sich an dieser Stelle insofern nicht treffen, da kaum bis keine Kommunikation mit einem Menschen bei den Aufgaben stattfindet, die im Personalauswahlprozess KI-basiert ablaufen.
Die vorgestellten Untersuchungen zeigen gemischte Befunde hinsichtlich der Bewerbendenreaktion auf den Einsatz von Algorithmen und KI in der Personalauswahl. Schnellere Antwortzeiten beim Einsatz von KI im Recruiting sowie die Unterstützung bei der Auswahl der besten Bewerbenden für eine vakante Stelle wurden bei Horodyski (2023) als positiv bewertet.
Ein Großteil der Teilnehmenden nimmt allerdings an, dass ein Algorithmus zwischenmenschliche Interaktion nicht adäquat evaluieren kann, der Einsatz von KI nicht transparent ist und dass einzigartige oder qualitative Merkmale von Bewerbenden mittels Algorithmen bzw. KI nicht erfasst werden können (Horodyski, 2023; Lavanchy et al., 2023; Lee, 2018; Newman et al., 2020).

An welchen Stellschrauben können Praktiker:innen bzw. Recruiter:innen nun also
drehen, wenn sie die wahrgenommene Gerechtigkeit bei der Nutzung von KI verbessern
wollen?

Zunächst sollten Firmen transparente Erklärungen ihrer angewandten Algorithmen bzw. bei der Nutzung von KI im Personalauswahlprozess mit ihren Bewerbenden kommunizieren. So bestünde auch die Möglichkeit darauf zu verweisen, dass der Algorithmus dazu in der Lage ist, qualitative Faktoren wie z. B. Charisma anhand der Bewerbungsunterlagen zu erfassen. Darüber hinaus sollte, wann immer möglich menschliche Recruiter:innen am Personalauswahlprozess beteiligt sein (Lavanchy et al., 2023).
Eine Kombination beider Verbesserungsmöglichkeiten könnte bspw. eine transparente Erläuterung der Funktionsweise des Algorithmus bzw. der KI durch Recruiter:innen zu Beginn des Personalauswahlprozesses sein.

Zusammenfassung

Die Integration von KI in die Personalauswahl bietet zweifellos Potenzial zur Effizienzsteigerung, schnelleren Rückmeldungen und objektiveren Entscheidungen. Gleichzeitig zeigen die Befunde, dass Bewerbende häufig skeptisch auf rein algorithmische Auswahlverfahren reagieren – insbesondere dann, wenn Transparenz fehlt oder individuelle Merkmale nicht erkannt werden.

Um die wahrgenommene Gerechtigkeit von KI-gestützten Auswahlprozessen zu stärken, sollten Unternehmen auf eine transparente Kommunikation über die Funktionsweise der Algorithmen setzen und menschliche Ansprechpersonen in den Prozess einbinden. Nur durch eine ausgewogene Kombination aus technologischem Fortschritt und menschlichem Feingefühl lässt sich die Akzeptanz für den Einsatz von KI in der Personalauswahl 4.0 nachhaltig verbessern.

Quellen

Adams, J. S. (1965). Inequity In Social Exchange. In Advances in Experimental Social Psychology (Bd.
2, S. 267–299). Elsevier. https://doi.org/10.1016/S0065-2601(08)60108-2

Amazon Web Services. (o. J.). Amazon Mechanical Turk. amazon mechanical turk. Abgerufen am 2.
Juli 2025, von https://www.mturk.com/

Deloitte. (2017). Rewriting the rules for the digital age: 2017 Human Capital Trends. Deloitte. Abgerufen
am 20. Juni 2025, https://www2.deloitte.com/content/dam/Deloitte/global/Documents/HumanCapital/hc-2017-global-human-capital-trends-gx.pdf

Gilliland, S. W. (1993). The Perceived Fairness of Selection Systems: An Organizational Justice
Perspective. The Academy of Management Review, 18(4), 694. https://doi.org/10.2307/258595

Horodyski, P. (2023). Applicants’ perception of artificial intelligence in the recruitment process. Computers in Human Behavior Reports 11, 100303. https://doi.org/10.1016/j.chbr.2023.100303

IBM. (23. Dezember 2024). Was sind prädiktive Analysen? IBM. https://www.ibm.com/de
de/topics/predictive-analytics

Kauffeld, S. (2019). Einführung in die Arbeits-, Organisations- und Personalpsychologie. In S. Kauffeld
(Hrsg.), Arbeits-, Organisations- und Personalpsychologie für Bachelor (S. 1–20). Springer
Berlin Heidelberg. https://doi.org/10.1007/978-3-662-56013-6_1

Lavanchy, M., Reichert, P., Narayanan, J., & Savani, K. (2023). Applicants’ Fairness Perceptions of
Algorithm-Driven Hiring Procedures. Journal of Business Ethics, 188(1), 125–150.
https://doi.org/10.1007/s10551-022-05320-w

Lee, M. K. (2018). Understanding perception of algorithmic decisions: Fairness, trust, and emotion in
response to algorithmic management. Big Data & Society, 5(1), 2053951718756684.
https://doi.org/10.1177/2053951718756684

Leventhal, G. S. (1980). What Should Be Done with Equity Theory? In K. J. Gergen, M. S. Greenberg,
& R. H. Willis (Hrsg.), Social Exchange: Advances in Theory and Research (S. 27–55). Springer
US. https://doi.org/10.1007/978-1-4613-3087-5_2

Newman, D. T., Fast, N. J., & Harmon, D. J. (2020). When eliminating bias isn’t fair: Algorithmic
reductionism and procedural justice in human resource decisions. Organizational Behavior and
Human Decision Processes
, 160, 149–167. https://doi.org/10.1016/j.obhdp.2020.03.008

Oswald, F. L., Behrend, T. S., Putka, D. J., & Sinar, E. (2020). Big Data in Industrial-Organizational
Psychology and Human Resource Management: Forward Progress for Organizational
Research and Practice. Annual Review of Organizational Psychology and Organizational
Behavior
, 7(1), 505–533. https://doi.org/10.1146/annurev-orgpsych-032117-104553

Peisl, T., & Edlmann, R. (2020). Exploring Technology Acceptance and Planned Behaviour by the
Adoption of Predictive HR Analytics During Recruitment. In M. Yilmaz, J. Niemann, P. Clarke,
& R. Messnarz (Hrsg.), Systems, Software and Services Process Improvement (Bd. 1251, S.
177–190). Springer International Publishing. https://doi.org/10.1007/978-3-030-56441-4_13

Persson, A. (2016). Implicit Bias in Predictive Data Profiling Within Recruitments. In A. Lehmann, D.
Whitehouse, S. Fischer-Hübner, L. Fritsch, & C. Raab (Hrsg.), Privacy and Identity
Management. Facing up to Next Steps
(Bd. 498, S. 212–230). Springer International Publishing.
https://doi.org/10.1007/978-3-319-55783-0_15

Tallgauer, M., Festing, M., & Fleischmann, F. (2020). Big Data im Recruiting. In T. Verhoeven (Hrsg.),
Digitalisierung im Recruiting (S. 25–39). Springer Fachmedien Wiesbaden.
https://doi.org/10.1007/978-3-658-25885-6_3

Warszta, T. (2023). Personalauswahl 4.0 aus der Perspektive der Kandidat:innen. In K. P. Stulle & R.
T. Justenhoven (Hrsg.), Personalauswahl 4.0 (S. 21–38). Springer Fachmedien Wiesbaden.
https://doi.org/10.1007/978-3-658-42142-7_2

Autor: laurasiciliano | 19. Oktober 2025 | 21:49 Uhr

Categories: Allgemein | Tags:

Kommentar


Warning: Undefined variable $user_ID in /data/wordpress/wp-content/themes/default/comments.php on line 74