{"id":760,"date":"2025-10-19T21:49:23","date_gmt":"2025-10-19T19:49:23","guid":{"rendered":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/?p=760"},"modified":"2025-10-19T21:49:23","modified_gmt":"2025-10-19T19:49:23","slug":"fairness-beim-einsatz-von-kuenstlicher-intelligenz-im-recruiting","status":"publish","type":"post","link":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/2025\/10\/19\/fairness-beim-einsatz-von-kuenstlicher-intelligenz-im-recruiting\/","title":{"rendered":"Fairness beim Einsatz von K\u00fcnstlicher Intelligenz im Recruiting"},"content":{"rendered":"\n<p id=\"block-1a1113c3-c9f6-48c9-a5d1-bf4ca0249f28\"><strong>von Klara Manon Grassl<\/strong> (2. Semester Master Psychologie \u2013 Human Performance in Sociotechnical Systems, Technische Universit\u00e4t Dresden)<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"block-9f6b40e8-acba-4264-9562-b579c35f739a\">Teaser<\/h2>\n\n\n\n<p id=\"block-b8d75f6c-7c69-47c7-87ab-261d428c7568\"><em>\u201eBig Data\u201c und K\u00fcnstliche Intelligenz (KI) revolutionieren die Personalauswahl. Unternehmen<br>setzen zunehmend auf automatisierte Prozesse, um unter Tausenden Bewerbungen blitzschnell die \u201epassenden\u201c Kandidierenden herauszufiltern. Doch was passiert, wenn Algorithmen entscheiden, wer eine Chance bekommt und wer nicht? Kann ein von Algorithmen gest\u00fctzter oder durchgef\u00fchrter Personalauswahlprozess \u00fcberhaupt gerecht sein? Wie reagieren Bewerbende auf den Einsatz von KI im Recruiting und wie k\u00f6nnen Unternehmen diese neuen Technologien so einsetzen, dass sie nicht nur effizient, sondern auch fair sind?<\/em><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"block-1145eda0-b8c0-43c0-bbe1-dcc96bc216e9\"><strong>Was ist &#8222;Big Data&#8220;?<\/strong><\/h2>\n\n\n\n<p id=\"block-b05bcb35-e7f5-462d-8eec-d781c7280c0c\">\u201eBig Data\u201c steht als Oberbegriff f\u00fcr verschiedene Ans\u00e4tze der Sammlung, Analyse und Auswertung komplexer, teils schnelllebiger Daten. Unter der Anwendung von Algorithmen lassen sich so Muster in den Daten erkennen (Kauffeld, 2019). Mittels pr\u00e4diktiver Analytik wird aus den gesammelten Daten, Data-Mining, statistischer Modellierung und maschinellem Lernen bzw. auch mithilfe von KI eine Vorhersage \u00fcber zuk\u00fcnftige Ereignisse getroffen (IBM, 2024; Peisl &amp; Edlmann, 2020).<br>Insbesondere das Recruiting, also das Anwerben und die Auswahl neuer Mitarbeiter eines Unternehmens, bedient sich im Zuge der rapiden technologischen Ver\u00e4nderungen zunehmend dieser Hilfsmittel zur effektiven und effizienten Verarbeitung der Datenstr\u00f6me, die bspw. bei der Bewerbungsauswahl f\u00fcr eine vakante Stelle entstehen k\u00f6nnen (Tallgauer et al., 2020). Das Unternehmen \u201eUnilever\u201c z. B., konnte seine Bewerbungsprozesse mithilfe von \u201eBig Data\u201c verbessern, indem Bewerbende ein kurzes Online-Formular ausf\u00fcllen, welches mit ihrem LinkedIn-Profil verkn\u00fcpft wird. Nach verschiedenen Online-Spielen, die Tests zu Pers\u00f6nlichkeit und Kompetenz beinhalten, werden ausgew\u00e4hlte Bewerbende zu einem automatisierten Interview eingeladen, wobei die Daten softwarebasiert ausgewertet werden. Erst im letzten Schritt werden die vielversprechendsten Bewerbenden in das \u201eDiscovery Center\u201c eingeladen und unterziehen sich dort abschlie\u00dfender Auswahltests (Deloitte, 2017).<br>Doch auch in der Personalauswahl h\u00e4lt der aktuelle KI-Nutzungstrend Einzug. F\u00fcr diesen spezifischen Anwendungsfall wird ein Algorithmus auf der Grundlage gro\u00dfer Datenmengen anhand eines Trainingsdatensatzes entwickelt. Die dabei gefundenen Zusammenh\u00e4nge k\u00f6nnen anschlie\u00dfend genutzt werden, um anhand neuer Datens\u00e4tze Vorhersagen zu treffen (Oswald et al., 2020).<br>Neben den Chancen der Effizienzsteigerung und Prozessoptimierung in Unternehmen birgt die Nutzung von \u201eBig Data\u201c und insbesondere Algorithmen bzw. KI in der Personalauswahl auch Herausforderungen, so z. B. die strikte Wahrung datenschutzrechtlicher Vorschriften (Oswald et al., 2020). Gleichzeitig bestehen insbesondere beim Einsatz von KI Risiken, bestimmte Personengruppen zu diskriminieren, die Chancengleichheit aller Bewerbenden zu verletzen oder geeignete Bewerbende zu \u00fcbersehen, z. B. weil die Algorithmen mit ungeeigneten Daten trainiert wurden (Persson, 2016). Dieser Blog-Beitrag geht der Frage nach, welche Aspekte entscheidend daf\u00fcr sind, dass KI-gest\u00fctzte Personalauswahlprozesse als fair bzw. gerecht empfunden werden und an welchen Stellschrauben Praktiker:innen drehen k\u00f6nnen, um die wahrgenommene Gerechtigkeit von Prozessen in der Personalauswahl 4.0 zu verbessern.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"block-7c08828b-4ead-40ea-8e2e-dd140b96e0a4\"><strong>Die Gerechtigkeit von KI-gest\u00fctzten Personalauswahlprozessen<\/strong><\/h2>\n\n\n\n<p id=\"block-f9f06ed2-dcab-4299-9333-87ad69215998\">Bei der Einsch\u00e4tzung der Gerechtigkeit von Personalauswahlprozessen st\u00fctzt sich die Literatur auf die Theorie der Organisationalen Gerechtigkeit. Organisationale Gerechtigkeit betrachtet \u201eorganisationales Handeln aus der Perspektive der davon betroffenen Individuen\u201c (Warszta, 2023, S. 22) und unterscheidet zwischen den Dimensionen der distributiven und der prozeduralen Gerechtigkeit (Gilliland, 1993).<br>W\u00e4hrend die distributive Gerechtigkeit den Fokus auf die Gerechtigkeit des Ergebnisses eines Prozesses legt (Adams, 1965), geht es bei der prozeduralen Gerechtigkeit darum, ob der Prozess, der zu einem Ergebnis f\u00fchrt, als gerecht empfunden wird (Leventhal, 1980; Thibaut &amp; Walker, 1975, zitiert nach Warzsta, 2023). Bei einem solchen Prozess kann es sich bspw. um einen Personalauswahlprozess handeln. <br>Auf Grundlage der Literatur zur Theorie der Organisationalen Gerechtigkeit formulierte Gilliland (1993) zehn Regeln der prozeduralen Gerechtigkeit. Diese lassen sich drei Kategorien zuordnen \u2013 der Kategorie \u201eformale Charakteristika\u201c, der Kategorie \u201eErkl\u00e4rung\u201c und der Kategorie \u201ezwischenmenschlicher Umgang\u201c (Gilliland, 1993).<br>Zur Kategorie \u201eformale Charakteristika\u201c der prozeduralen Gerechtigkeit geh\u00f6ren Regeln, die bewerten, ob das im Auswahlverfahren genutzte Instrument wirklich die zur Stellenbeschreibung erforderlichen Kriterien erfasst (Berufsbezogenheit), ob Bewerbende die Chance hatten, sich angemessen darzustellen (Gelegenheit zur Selbstpr\u00e4sentation), ob sie ihre Antworten \u00fcberpr\u00fcfen konnten und ggf. die M\u00f6glichkeit bekamen, den Prozess zu \u00e4ndern oder anzufechten (Gelegenheit zur \u00dcberpr\u00fcfung der Antworten) und ob alle Bewerbenden auf die gleiche Art und Weise behandelt wurden (Konsistenz in der Durchf\u00fchrung) (Gilliland, 1993; Warszta, 2023). <br>Zur Kategorie \u201eErkl\u00e4rung\u201c geh\u00f6ren Regeln, die bewerten, ob Bewerbende zeitnah ein angemessenes Feedback zu ihrem Bewerbungsverfahren erhalten haben (Feedback), ob ihnen genug Informationen \u00fcber das Auswahlverfahren bzw. das Ergebnis dessen gegeben wurden (Informationen zum Auswahlverfahren) und auch, ob sie ein ehrliches Feedback erhielten (Ehrlichkeit) (Gilliland, 1993; Warszta, 2023). <br>Zur Kategorie \u201ezwischenmenschlicher Umgang\u201c geh\u00f6ren Regeln, die bewerten, ob die Bewerbenden sich respektvoll behandelt f\u00fchlen (Behandlung der Bewerbenden), ob die Kommunikationswege zur Organisation offenstehen bzw. die Sichtweise der Bewerbenden auf das Auswahlverfahren geh\u00f6rt wird (zweiseitige Kommunikation) und ob die im Auswahlverfahren gestellten Fragen angemessen sind (Angemessenheit der Fragen) (Gilliland, 1993; Warszta, 2023).<br>Vor dem Hintergrund dieser zehn Regeln in den drei Kategorien \u201eformale Charakteristika\u201c, \u201eErkl\u00e4rung\u201c und \u201ezwischenmenschlicher Umgang\u201c werden im Folgenden einige empirische Befunde zum Einsatz von KI in Personalauswahlprozessen vorgestellt und diskutiert. Lee (2018) f\u00fchrte eine Untersuchung mit 321 Amazon Mechanical Turk (MTurk) Arbeitnehmenden durch. Bei der Website Amazon MTurk k\u00f6nnen Auftr\u00e4ge eingestellt werden, deren kleinere Unterauftr\u00e4ge (auch bekannt als \u201eMicrotasks\u201c) von verschiedenen Menschen online bearbeitet werden, z. B. die Rechtschreibkorrektur in einzelnen S\u00e4tzen (Amazon Web Services, o. J.).<br>Die Teilnehmenden bei Lee (2018) sollten anhand verschiedener Managementszenarien die Gerechtigkeit von menschlichen und KI-basierten Personalauswahlprozessen bzw. entscheidungen bewerten. Das allgemeine Einstellungsszenario sah vor, dass ein Algorithmus bzw. ein Manager in einer Hightech-Firma die Bewerbungsunterlagen auf einer Website zur Job-Suche sichtet und die besten Bewerbenden zu Interviews einl\u00e4dt. Im spezifischen Szenario ging es um die fiktive Person Alex, die sich auf die Stelle auf der Website zur Job Suche bewirbt, in dem sie ihre Bewerbungsunterlagen einreicht. Der Algorithmus bzw. der Manager sichten Tausende Bewerbende, darunter auch Alex (Lee, 2018). <br>Die Gerechtigkeit der KI-basierten Entscheidung wurde signifikant niedriger bewertet als die menschlicher Entscheidungen. Die meisten Teilnehmenden waren der Meinung, dass es dem Algorithmus nicht m\u00f6glich sei, die wirklich geeigneten Kandidierenden herauszufiltern, da diesem menschliche Intuition fehle, er Urteile anhand von Schl\u00fcsselw\u00f6rtern in den Unterlagen f\u00e4lle, Bewerbenden-Qualit\u00e4ten ignoriere, die schwer zu quantifizieren sind und keine soziale Interaktion evaluieren k\u00f6nne oder mit Ausnahmen bzw. Besonderheit in den Unterlagen umzugehen verm\u00f6ge. Eine geringere Anzahl an Teilnehmenden merkte hingegen an, dass KI basierte Entscheidungen auch fair sein k\u00f6nnen, da diese auf Regeln basieren und keinem menschlichen Bias unterliegen (Lee, 2018). <br>Lavanchy et al. (2023) kamen zu einem \u00e4hnlichen Ergebnis. In ihren vier Studien mit Amazon MTurk Mitarbeitenden konnten die Autor:innen zeigen, dass Menschen in der Rolle eines Bewerbenden einen rein auf einem Algorithmus basierten Personalauswahlprozess als weniger gerecht empfanden als einen rein menschlichen oder zwar durch einen Algorithmus gest\u00fctzten, aber dennoch vorrangig von Menschen durchgef\u00fchrten Auswahlprozess. Dieser Effekt bestand unabh\u00e4ngig vom Ergebnis des Prozesses fort. Als potenziell erkl\u00e4renden Mechanismus identifizierten die Autor:innen den Glauben der Teilnehmenden daran, dass ein Algorithmus nicht dazu f\u00e4hig ist, die Einzigartigkeit der Bewerbenden zu erkennen. Die<br>Autor:innen verstehen die Anerkennung der individuellen Einzigartigkeit als grundlegendes menschliches Bed\u00fcrfnis. Wird die Einzigartigkeit und somit auch die Individualit\u00e4t eines Menschen verkannt, beeinflusst dies die wahrgenommene Gerechtigkeit des Auswahlprozesses unter Umst\u00e4nden negativ (Lavanchy et al., 2023). <br>W\u00e4hrend die dargestellten Befunde auf eher negative Bewerbendenreaktionen beim Einsatz<br>von Algorithmen bzw. KI in Personalauswahlprozessen hindeuten, kam Horodyski (2023) in seiner Untersuchung zu anderen Ergebnissen: <br>Die \u00fcber 500 Umfrage-Teilnehmenden sahen in der Nutzung von KI im Recruitment unter anderem Vorteile in der Qualit\u00e4t und Objektivit\u00e4t des Auswahlprozesses und einem besseren Bewerbenden-Erlebnis. 69% der Teilnehmenden waren sich dar\u00fcber einig, dass KI die<br>Antwortzeit bei R\u00fcckmeldungen im Personalauswahlprozess reduzieren kann. HR Manager:innen, die auch an der Umfrage teilnahmen, \u00e4u\u00dferten, dass mit der Nutzung von KI in der Personalauswahl das beste Personal gefunden werden kann und eine geringere Chance besteht, Kandidierende zu \u00fcbersehen (Horodyski, 2023). <br>Nichtsdestotrotz kritisierten die Teilnehmenden bei Horodyski (2023), dass es beim Einsatz von KI im Recruitment Probleme mit geringerer Transparenz hinsichtlich der Funktionsweise<br>der KI g\u00e4be, z. B. ist unklar, wie genau sie Entscheidungen f\u00e4llt. <br>Die Problematik der Transparenz beim Einsatz von KI in der Personalauswahl wurde ebenfalls bei Newman et al. (2020) thematisiert. Die Autor:innen sprechen hier von einem sogenannten \u201eBlack-Box-Effekt\u201c, bei dem Menschen nicht durchschauen k\u00f6nnen, auf welche konkrete Weise ihre Daten verarbeitet und analysiert werden. Ihre Untersuchung zeigte allerdings, dass eine st\u00e4rkere Transparenz bez\u00fcglich der entscheidungskritischen Faktoren zu einer h\u00f6heren wahrgenommenen Gerechtigkeit bei den von Menschen gef\u00e4llten Entscheidungen f\u00fchrt, jedoch nicht bei Algorithmen (Newman et al., 2020). <br>Die Arbeiten von Lee (2018) und Lavanchy et al. (2023) verbindet vor allem die Einigkeit der Teilnehmenden dar\u00fcber, dass ein von einem Algorithmus durchgef\u00fchrter Personalauswahlprozess die qualitativen, einzigartigen Merkmale potenzieller Bewerbender \u00fcbersehen k\u00f6nnte, die sie m\u00f6glicherweise zu passenden Kandidierenden f\u00fcr die entsprechende Stelle machen. <br>Auf die oben vorgestellten Regeln von Gilliland (1993) k\u00f6nnte sich diese bei Lee (2018) und Lavanchy et al. (2023) wahrgenommene Einschr\u00e4nkung beim Einsatz von Algorithmen bzw. KI in der Personalauswahl auf die Kategorie der \u201eformalen Charakteristika\u201c anwenden lassen. <br>Dadurch, dass bestimmte (qualitative) Merkmale m\u00f6glicherweise gar nicht erst vom Algorithmus bzw. der KI erfasst werden, bekommen Bewerber:innen nicht die Chance, sich von vorneherein in geeigneter Weise selbst zu pr\u00e4sentieren, was so die empfundene Gerechtigkeit des vom Algorithmus gest\u00fctzten Personalauswahlprozesses negativ beeinflusst. <br>Umfrage-Teilnehmende bei Horodyski (2023) sehen das anders und finden sogar, dass der Einsatz von KI dabei helfen kann, geeignete Kandidierende zu identifizieren. Dar\u00fcber hinaus sind sie der Meinung, dass der Einsatz von KI die Antwortzeit im Personalauswahlprozess verk\u00fcrzen kann. Diese Einsch\u00e4tzung deutet auf eine positive Bewertung der Feedback-Regel in der Kategorie \u201eErkl\u00e4rung\u201c bei Gillilands Regeln der prozeduralen Gerechtigkeit (1993) hin. <br>Die Bem\u00e4ngelung der Transparenz beim Einsatz von KI in Personalauswahlprozessen, wie sie bei Horodyski (2023) und Newman et al. (2020) beschrieben wird, deutet hingegen auf eine Verletzung der Regel zu den Informationen zum Auswahlprozess in der Kategorie \u201eErkl\u00e4rung\u201c hin. <br>Wie bei Lee (2018) erw\u00e4hnt, nehmen Teilnehmende an, dass ein Algorithmus zwischenmenschliche Interaktion nicht ad\u00e4quat evaluieren kann. Das k\u00f6nnte die wahrgenommene Gerechtigkeit hinsichtlich der Anwendung einer softwarebasierten Auswertung von Videointerviews im Personalauswahlprozess, wie sie bei dem Unternehmen \u201eUnilever\u201c (s. Eingangsbeispiel) durchgef\u00fchrt wird, schm\u00e4lern. Eine Aussage zu den Regeln der Kategorie des \u201ezwischenmenschlichen Umgangs\u201c bei Gillilands Regeln der prozeduralen Gerechtigkeit (1993) l\u00e4sst sich an dieser Stelle insofern nicht treffen, da kaum bis keine Kommunikation mit einem Menschen bei den Aufgaben stattfindet, die im Personalauswahlprozess KI-basiert ablaufen. <br>Die vorgestellten Untersuchungen zeigen gemischte Befunde hinsichtlich der Bewerbendenreaktion auf den Einsatz von Algorithmen und KI in der Personalauswahl. Schnellere Antwortzeiten beim Einsatz von KI im Recruiting sowie die Unterst\u00fctzung bei der Auswahl der besten Bewerbenden f\u00fcr eine vakante Stelle wurden bei Horodyski (2023) als positiv bewertet. <br>Ein Gro\u00dfteil der Teilnehmenden nimmt allerdings an, dass ein Algorithmus zwischenmenschliche Interaktion nicht ad\u00e4quat evaluieren kann, der Einsatz von KI nicht transparent ist und dass einzigartige oder qualitative Merkmale von Bewerbenden mittels Algorithmen bzw. KI nicht erfasst werden k\u00f6nnen (Horodyski, 2023; Lavanchy et al., 2023; Lee, 2018; Newman et al., 2020).<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"block-b604006c-4f21-491a-ac82-2f5d5ccd425d\">An welchen Stellschrauben k\u00f6nnen Praktiker:innen bzw. Recruiter:innen nun also<br>drehen, wenn sie die wahrgenommene Gerechtigkeit bei der Nutzung von KI verbessern<br>wollen?<\/h2>\n\n\n\n<p id=\"block-992a0025-a9c2-4d5c-a705-3d60ca216ee8\">Zun\u00e4chst sollten Firmen transparente Erkl\u00e4rungen ihrer angewandten Algorithmen bzw. bei der Nutzung von KI im Personalauswahlprozess mit ihren Bewerbenden kommunizieren. So best\u00fcnde auch die M\u00f6glichkeit darauf zu verweisen, dass der Algorithmus dazu in der Lage ist, qualitative Faktoren wie z. B. Charisma anhand der Bewerbungsunterlagen zu erfassen. Dar\u00fcber hinaus sollte, wann immer m\u00f6glich menschliche Recruiter:innen am Personalauswahlprozess beteiligt sein (Lavanchy et al., 2023).<br>Eine Kombination beider Verbesserungsm\u00f6glichkeiten k\u00f6nnte bspw. eine transparente Erl\u00e4uterung der Funktionsweise des Algorithmus bzw. der KI durch Recruiter:innen zu Beginn des Personalauswahlprozesses sein.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"block-9870622a-e39f-4df6-9849-8b111f351f90\"><strong>Zusammenfassung<\/strong><\/h2>\n\n\n\n<p id=\"block-829319d4-0995-4dd8-a79a-5149cd038cbf\">Die Integration von KI in die Personalauswahl bietet zweifellos Potenzial zur Effizienzsteigerung, schnelleren R\u00fcckmeldungen und objektiveren Entscheidungen. Gleichzeitig zeigen die Befunde, dass Bewerbende h\u00e4ufig skeptisch auf rein algorithmische Auswahlverfahren reagieren \u2013 insbesondere dann, wenn Transparenz fehlt oder individuelle Merkmale nicht erkannt werden. <\/p>\n\n\n\n<p id=\"block-829319d4-0995-4dd8-a79a-5149cd038cbf\">Um die wahrgenommene Gerechtigkeit von KI-gest\u00fctzten Auswahlprozessen zu st\u00e4rken, sollten Unternehmen auf eine transparente Kommunikation \u00fcber die Funktionsweise der Algorithmen setzen und menschliche Ansprechpersonen in den Prozess einbinden. Nur durch eine ausgewogene Kombination aus technologischem Fortschritt und menschlichem Feingef\u00fchl l\u00e4sst sich die Akzeptanz f\u00fcr den Einsatz von KI in der Personalauswahl 4.0 nachhaltig verbessern.<\/p>\n\n\n\n<p id=\"block-829319d4-0995-4dd8-a79a-5149cd038cbf\"><strong>Quellen<\/strong><\/p>\n\n\n\n<p id=\"block-f71e0dd8-b846-46be-a8e6-45e2ad3c3b8c\">Adams, J. S. (1965). Inequity In Social Exchange. In <em>Advances in Experimental Social Psychology<\/em> (Bd.<br>2, S. 267\u2013299). Elsevier. https:\/\/doi.org\/10.1016\/S0065-2601(08)60108-2<\/p>\n\n\n\n<p id=\"block-f71e0dd8-b846-46be-a8e6-45e2ad3c3b8c\">Amazon Web Services. (o. J.). <em>Amazon Mechanical Turk<\/em>. amazon mechanical turk. Abgerufen am 2.<br>Juli 2025, von https:\/\/www.mturk.com\/<\/p>\n\n\n\n<p id=\"block-f71e0dd8-b846-46be-a8e6-45e2ad3c3b8c\">Deloitte. (2017).<em> Rewriting the rules for the digital age: 2017 Human Capital Trends.<\/em> Deloitte. Abgerufen<br>am 20. Juni 2025, https:\/\/www2.deloitte.com\/content\/dam\/Deloitte\/global\/Documents\/HumanCapital\/hc-2017-global-human-capital-trends-gx.pdf<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Gilliland, S. W. (1993). The Perceived Fairness of Selection Systems: An Organizational Justice<br>Perspective. <em>The Academy of Management Review<\/em>, 18(4), 694. https:\/\/doi.org\/10.2307\/258595<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Horodyski, P. (2023). Applicants\u2019 perception of artificial intelligence in the recruitment process. <em>Computers in Human Behavior Reports<\/em> 11, 100303. <a href=\"https:\/\/doi.org\/10.1016\/j.chbr.2023.100303\">https:\/\/doi.org\/10.1016\/j.chbr.2023.100303<\/a><\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">IBM. (23. Dezember 2024). <em>Was sind pr\u00e4diktive Analysen?<\/em> IBM. https:\/\/www.ibm.com\/de<br>de\/topics\/predictive-analytics<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Kauffeld, S. (2019). Einf\u00fchrung in die Arbeits-, Organisations- und Personalpsychologie. In S. Kauffeld<br>(Hrsg.), <em>Arbeits-, Organisations- und Personalpsychologie f\u00fcr Bachelor<\/em> (S. 1\u201320). Springer<br>Berlin Heidelberg. https:\/\/doi.org\/10.1007\/978-3-662-56013-6_1<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Lavanchy, M., Reichert, P., Narayanan, J., &amp; Savani, K. (2023). Applicants\u2019 Fairness Perceptions of<br>Algorithm-Driven Hiring Procedures. <em>Journal of Business Ethics<\/em>, 188(1), 125\u2013150.<br>https:\/\/doi.org\/10.1007\/s10551-022-05320-w<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Lee, M. K. (2018). Understanding perception of algorithmic decisions: Fairness, trust, and emotion in<br>response to algorithmic management. <em>Big Data &amp; Society<\/em>, 5(1), 2053951718756684.<br>https:\/\/doi.org\/10.1177\/2053951718756684<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Leventhal, G. S. (1980). What Should Be Done with Equity Theory? In K. J. Gergen, M. S. Greenberg,<br>&amp; R. H. Willis (Hrsg.), <em>Social Exchange: Advances in Theory and Research<\/em> (S. 27\u201355). Springer<br>US. https:\/\/doi.org\/10.1007\/978-1-4613-3087-5_2<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Newman, D. T., Fast, N. J., &amp; Harmon, D. J. (2020). When eliminating bias isn\u2019t fair: Algorithmic<br>reductionism and procedural justice in human resource decisions. <em>Organizational Behavior and<br>Human Decision Processes<\/em>, 160, 149\u2013167. https:\/\/doi.org\/10.1016\/j.obhdp.2020.03.008<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Oswald, F. L., Behrend, T. S., Putka, D. J., &amp; Sinar, E. (2020). Big Data in Industrial-Organizational<br>Psychology and Human Resource Management: Forward Progress for Organizational<br>Research and Practice.<em> Annual Review of Organizational Psychology and Organizational<br>Behavior<\/em>, 7(1), 505\u2013533. https:\/\/doi.org\/10.1146\/annurev-orgpsych-032117-104553<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Peisl, T., &amp; Edlmann, R. (2020). Exploring Technology Acceptance and Planned Behaviour by the<br>Adoption of Predictive HR Analytics During Recruitment. In M. Yilmaz, J. Niemann, P. Clarke,<br>&amp; R. Messnarz (Hrsg.), <em>Systems, Software and Services Process Improvement<\/em> (Bd. 1251, S.<br>177\u2013190). Springer International Publishing. https:\/\/doi.org\/10.1007\/978-3-030-56441-4_13<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Persson, A. (2016). Implicit Bias in Predictive Data Profiling Within Recruitments. In A. Lehmann, D.<br>Whitehouse, S. Fischer-H\u00fcbner, L. Fritsch, &amp; C. Raab (Hrsg.), <em>Privacy and Identity<br>Management. Facing up to Next Steps<\/em> (Bd. 498, S. 212\u2013230). Springer International Publishing.<br>https:\/\/doi.org\/10.1007\/978-3-319-55783-0_15<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Tallgauer, M., Festing, M., &amp; Fleischmann, F. (2020). Big Data im Recruiting. In T. Verhoeven (Hrsg.),<br><em>Digitalisierung im Recruiting<\/em> (S. 25\u201339). Springer Fachmedien Wiesbaden.<br>https:\/\/doi.org\/10.1007\/978-3-658-25885-6_3<\/p>\n\n\n\n<p id=\"block-d7c98c0d-7aff-4287-b32d-b885c99700c1\">Warszta, T. (2023). Personalauswahl 4.0 aus der Perspektive der Kandidat:innen. In K. P. Stulle &amp; R.<br>T. Justenhoven (Hrsg.), <em>Personalauswahl 4.0<\/em> (S. 21\u201338). Springer Fachmedien Wiesbaden.<br>https:\/\/doi.org\/10.1007\/978-3-658-42142-7_2<\/p>\n","protected":false},"excerpt":{"rendered":"<p>von Klara Manon Grassl (2. Semester Master Psychologie \u2013 Human Performance in Sociotechnical Systems, Technische Universit\u00e4t Dresden) Teaser \u201eBig Data\u201c und K\u00fcnstliche Intelligenz (KI) revolutionieren die Personalauswahl. Unternehmensetzen zunehmend auf automatisierte Prozesse, um unter Tausenden Bewerbungen blitzschnell die \u201epassenden\u201c Kandidierenden herauszufiltern. Doch was passiert, wenn Algorithmen entscheiden, wer eine Chance bekommt und wer nicht? Kann [&hellip;]<\/p>\n","protected":false},"author":208,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-760","post","type-post","status-publish","format-standard","hentry","category-allgemein"],"_links":{"self":[{"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/posts\/760","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/users\/208"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/comments?post=760"}],"version-history":[{"count":2,"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/posts\/760\/revisions"}],"predecessor-version":[{"id":766,"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/posts\/760\/revisions\/766"}],"wp:attachment":[{"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/media?parent=760"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/categories?post=760"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.tu-dresden.de\/arbeitspsychologie\/wp-json\/wp\/v2\/tags?post=760"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}