Personalrekrutierung durch Algorithmen – Lösung alter Probleme oder neuer Bias?

„ Hello! My name is Vera. I am a robot. ” Dies sind wohl die ersten Worte, die Bewerber: innen im Chat oder Interview zu lesen oder zu hören bekommen,

Hello! My name is Vera. I am a robot.” Dies sind wohl die ersten Worte, die Bewerber: innen im Chat oder Interview zu lesen oder zu hören bekommen, wenn der Bewerbungsprozess bei einem internationalen Großkonzern von „Robot Vera“ betreut wird. Robot Vera, entwickelt vom russischen Start- Up Stafery Ltd., ist ein auf künstlicher Intelligenz (KI) basierendes, algorithmisches Entscheidungssystem (AES). Vera kann, nach vorheriger Eingabe der benötigten Daten, Lebensläufe und Anschreiben analysieren und auf ihr „Matching“ zum Unternehmen prüfen. Sie setzt sich mit Bewerber: innen in Kontakt, vereinbart Gesprächstermine und kann selbständig, mit Hilfe einer Stimmerkennungssoftware, Videointerviews führen.

Bild von mohamed_hassan auf Pixabay

Die Zahl der Softwareprodukte, die speziell in der Personalrekrutierung eingesetzt werden, steigt zunehmend. HireVue8, Precire9, Wollmilchsau7, SmartRecruiters und Prescreen sind nur einige Beispiele. Die Anwendung solcher Algorithmen hat sich im angelsächsischen Raum bereits etabliert, wohingegen in Deutschland die breitere Nutzung erst beginnt. Doch schon heute ist sich die Wirtschaft sicher, dass KI zukünftig in der Personalrekrutierung eine zentrale Rolle spielen wird. Die Anforderungen an das Recruiting sind in den letzten Jahren massiv gestiegen und im „War of Talents“ können solche Algorithmen das Pendel zu Gunsten der anwendenden Unternehmen ausschlagen lassen. 

Das Versprechen der Anwendung solcher Software sind deutlich […]„effizientere, konsistentere und fairere Rekrutierungsprozesse“. „Big Data statt Bauchgefühl“. Durch den Einsatz von KI können zudem massive Geldeinsparungen realisiert werden. Dem Recruiting ist immanent, dass es ein sehr zeitaufwändiges, ressourcenbindendes Verfahren ist, welches […]„direkte wirtschaftliche Auswirkungen“[…] auf das Unternehmen hat. Neben der finanziellen Verschlankung besteht ein weiterer Vorteil der Nutzung darin, dass Recruiting-Algorithmen bei der Auswahl des geeigneten Personals „unbiased“ entscheiden. Wo menschliche Recruiter: innen, ob bewusst oder unbewusst, teilweise diskriminierende Entscheidungen treffen und somit soziale Ungleichheiten verstärken können, spielen Rasse, Hautfarbe, sozioökonomischer Background oder Bildungsniveau, keine Rolle für den objektiv operierenden Algorithmus. Diese Vorstellung ist eine sehr wünschenswerte Lösung für tiefgreifende Problemlagen auf dem Arbeitsmarkt. 

Bei all der Euphorie um die Transformation des Recruitings durch KI werden jedoch auch Stimmen aus Wissenschaft, Politik und Medien laut, die diese Entwicklung kritisch betrachten. Eine der Kernfragen, mit der sich in diesem Diskurs auseinandergesetzt wird ist, ob solche Softwarelösungen wirklich „unbiased“ operieren können. „Der Algorithmus ist nur so gut wie die Annahmen, auf denen er basiert“. Dieser Satz von Professor Torsten Biermann, welcher an der Universität Mannheim zu Personalmanagement und Führung forscht, vermittelt die Idee der daran anknüpfenden Kernfrage: Wie und auf welcher Datengrundlage „lernen“ Algorithmen und wie sind diese Daten genau beschaffen? KI-basierte, selbstlernende Systeme treffen ihre Entscheidungen nicht auf Grundlage vordefinierter und spezifischer Regeln. Sie lernen auf Basis vorher eingespeister Trainingsdaten und entwickeln so ein eigenständiges Entscheidungsverhalten. Die Qualität der Entscheidung hängt somit von der Güte der Trainingsdaten ab. Ein weiterer, zu beachtender Umstand ist, dass auf KI-basierende algorithmische Entscheidungssysteme zu „Black Boxen“ entwickeln, da ihre Funktionsweise für die Anwender: innen, und im weiteren Verlauf selbst für die Programmierer: innen, nicht mehr nachvollziehbar ist. Damit können suboptimale Trainingsdaten und das „Black Box Dilemma“ Diskriminierungen und soziale Ungleichheiten sogar noch verstärken.


Bild von markusspiske bei Pixabay
2018 wurde dem von Amazon genutzten Recruiting-Algorithmus ein „bias“ in der Auswahl der Bewerber: innen nachgewiesen: Der Algorithmus mochte keine Frauen. Der sich seit 2014 in der Entwicklung befindende Algorithmus prüfte anhand von Lebensläufen der Bewerber: innen deren Passung und bewertete diese mit einem bis zu fünf Sternen. Die Daten die in den Algorithmus eingespeist wurden, basierten auf Bewerbungen bei Amazon, über einen Zeitraum von zehn Jahren. Die meisten CVs kamen jedoch von Männern, da sich in der Anfangszeit vor allem Männer um Jobs bei Amazon beworben hatten. In der Konsequenz brachte sich das System bei, dass männliche Bewerber: innen zu bevorzugen sein. Auch ein aktueller Beitrag des Magazins „report München“ beschäftigte sich kürzlich mit den Chancen und Risiken der algorithmischen Personalgewinnung. Die Kernfrage des Beitrags war ethischer Natur: Ist das Einstellen durch KI fair und wo bleibt der „menschliche“ Faktor in diesem Prozess? In einem nicht-repräsentativen Experiment wurden mit elf Testpersonen Hunderte von Videos produziert. Die Bewerbungsvideos wurden von einer KI analysiert, Persönlichkeitsprofile erstellt und das „Matching“ auf die ausgeschriebene Stelle bewertet. Ergebnis des Tests: Der Algorithmus erstellte deutlich unterschiedliche Persönlichkeitsprofile, wenn die Personen beispielsweise ein Kopftuch oder eine Brille trugen. Dies kann man erneut als Beleg dafür sehen, dass in der derzeitigen Praxis Algorithmen in der Personalrekrutierung nicht nur den Unternehmen viel Zeit sparen, sondern auch bestehende Nachteile für bestimmte Gruppen nicht nur nicht reduzieren, sondern bestehende soziale Ungleichheiten und Diskriminierungen eher noch verstärken.

Vor diesem Hintergrund ist es ein Gebot der Stunde, dass wir stärker als bisher darüber in der Öffentlichkeit debattieren, wer KI-basierte Algorithmen programmiert und mit welcher Art von Trainingsdaten füttert. Denn bisherige Studien lege nahe, dass Wertvorstellungen und persönliche Lebenserfahrungen von menschlichen Programmierer: innen auf den Algorithmus übertragen werden. Aktuelle Studien z.B. für die USA konstatieren, dass diese Wertvorstellung weiß und männlich geprägt sind. Denn dort sind rund 72% der beschäftigten Programmierer: innen weiße Männer, 27% sind Frauen, ein geringerer Wert als im Jahr 1960. 4,5% der in führenden Tech-Unternehmen arbeitenden Programmierer: innen sind „People of Color“. Vor diesem Hintergrund beschäftigt sich aktuelle auch das europäische Parlament mit moralisch-ethischen Richtlinien, die den Einsatz von KI regeln sollen. In eine ähnliche Richtung argumentiert auch der Bundesverband der Personaler (BPM), der kürzlich forderte, dass es gesetzliche Richtlinien für den Einsatz künstlicher Intelligenzen geben muss. Reiner Hoffman, der Chef des Deutschen Gewerkschaftsbundes, führt weiter dazu aus, dass „es mehr Transparenz, Kompetenz und neue Mitbestimmungsregeln für eine präventive, betriebliche und soziale Folgeabschätzung braucht, um KI für gute Arbeit nutzen zu können“. Auch für Bewerber: innen muss die Funktionsweise des Algorithmus transparent sein, um ihnen ihre Ängste bezüglich KI zu nehmen. Denn für viele ist die Vorstellung beängstigend, dass ein Algorithmus autonomen und selbstständig „Entscheidungen“ trifft. Denn eines ist klar: Über den Arbeitsmarkt werden Lebenschancen vermittelt. Für Menschen hängt ihre Existenz von der Frage ab, ob sie den Job, auf den sie sich beworben haben, wirklich bekommen. Sollte diese Frage, die so essenziell den Verlauf eines Lebens einwirkt, von einem Algorithmus getroffen werden? Können „ungerade“ Lebensläufe und versteckte Soft Skills von einem Algorithmus detektiert werden? Wo bleibt die Menschlichkeit im Prozess? In einer Welt, die aus Daten besteht, sollte dort jede Form von menschlicher Interaktion digitalisiert werden?

Kevin Hanelt

Name

Alexander Lenk,1,Aline Lupa / Isabella Kaul,1,Alltagsleben,1,Andreas Hofmann / Anna Westner / Marius Gerards,1,Angelika Wetzel,1,Angelika Wetzel / Serafina Löber,1,Anh Hoang,1,Anh Hoang / Christopher Fritz / Annina Morr,1,Anna Haar / Isabel Buchmann,1,Anna Haar / Maj-Britt Klages / Corinna Weiß,1,Anna Westner,1,Anne Haußner / Nele Damm / Laura Milda Weinheimer,1,Anne Haußner / Nele Damm / Melisa Meral,1,Annett Wadewitz,2,Antonia Leymann / Hannes Richter,1,Arvid Becker,1,Bundestagswahl 2021,3,Carolin Haselmann / Luise Graw / Julius Spreckelsen,1,Christopher Fritz / Carla van der Minde / Simeon Raban Dilßner,1,Claudia Buder,1,Claudia Buder / Annett Wadewitz,2,Daphne Kabaali,1,Denise Brosda,1,DX,1,Felicitas Rösch,1,Finja Carstensen / Julia Gräfe / Victorie Henning,1,Florian Fried,2,Franziska Mehlhase,1,Gerrit Prange,1,Helene Walther / Adrian Nehls,3,Ina-Berit Leuchs,2,Inge Pabel,1,Isabel Buchmann,1,Jeanne Handro,1,Johanna Kuchling-Pietrek,1,Joshua Bode / Lukas Zipris /Vanessa Oestert,1,Julia Zakusek / Chiara Osorio Krauter / Emily Quirmbach,1,Katarina Rönnicke,1,Kati Renard,1,Kevin Hanelt,1,Klara Hofmann,1,Kolja Grohmann,1,Lea Gudowski / Carla von der Minde / Niklas Kohl,1,Leandra Wagner,1,Lena Mau,1,Lennart Bugoslawski / Friederike Zimmermann,1,Lewin Fricke,1,Lisa Fritsch,1,Lucas Krentel,1,Luise Graw / Lea Gudowski / Niklas Kohl,1,Luise Graw / Niklas Kohl,1,Maj-Britt Klages / Marcel Maier / Melisa Meral,1,Marie Lauterbach,1,Marlene Jahn,1,Miriam Pospiech / Carolin Engelhardt / Aline Lupa / Isabella Kaul,1,Miriam Pospiech / Isabella Kaul,1,Naomi Gänsler,1,Nele Stärke / Lea Steinkopf,1,Nina Magdeburg,1,Noa Groicher,2,Phila Händler,1,Philipp Mandt,1,Rainer Niemann / Johannes Koberstein,1,RM,1,Roland Verwiebe,1,Seminargruppe 2020/21,1,Serafina Löber,1,Serafina Löber / Franziska Mehlhase / Angelika Wetzel,1,Simon Kuntze,1,Siri Handloegten,1,Siri Handloegten / Moritz Niessen,1,Tim Page,1,xAdrian Nehls,3,xAlexander Lenk,1,xAline Lupa,2,xAlltagsleben,22,xAmazon,3,xAndreas Hofmann,1,xAngelika Wetzel,3,xAnh Hoang,2,xAnna Haar,2,xAnna Westner,2,xAnne Haußner,2,xAnnett Wadewitz,5,xAnnina Morr,1,xAntonia Leymann,1,xArbeit,13,xArvid Becker,1,xAudio,4,xBildung und Kultur,12,xCarla van der Minde,2,xCarolin Engelhardt,1,xCarolin Haselmann,1,xChiara Osorio Krauter,1,xChristopher Fritz,1,xClaudia Buder,4,xCorinna Weiß,1,xDaphne Kabaali,1,xDenise Brosda,1,xDigitalisierung,22,xDX,1,xEmily Quirmbach,1,xFelicitas Rösch,1,xFinja Carstensen,1,xFlorian Fried,2,xFranziska Mehlhase,2,xFriederike Zimmermann,1,xGerrit Prange,1,xHannes Richter,1,xHelene Walther,3,xIna-Berit Leuchs,2,xInge Pabel,1,xIsabel Buchmann,2,xIsabella Kaul,3,xJacob Gustavs,1,xJeanne Handro,1,xJohanna Kuchling-Pietrek,1,xJohannes Koberstein,1,xJoshua Bode,1,xJulia Gräfe,1,xJulia Zakusek,1,xJulius Spreckelsen,1,xKatarina Rönnicke,1,xKati Renard,1,xKevin Hanelt,1,xKlara Hofmann,1,xKolja Grohmann,1,xLaura Milda Weinheimer,1,xLea Gudowski,2,xLea Steinkopf,1,xLeandra Wagner,1,xLehrforschung 2020,2,xLena Mau,1,xLennart Bugoslawski,1,xLewin Fricke,1,xLisa Fritsch,1,xLucas Krentel,1,xLuise Graw,3,xLukas Zipris,1,xLuna Schlender,1,xMaj-Britt Klages,2,xMarcel Maier,1,xMarie Lauterbach,1,xMarius Gerards,1,xMarlene Jahn,1,xMelisa Meral,2,xMiriam Pospiech,2,xMoritz Niessen,1,xNaomi Gänsler,1,xNele Damm,2,xNele Stärke,1,xNiklas Kohl,3,xNina Magdeburg,1,xNoa Groicher,2,xPhila Hädler,1,xPhilipp Mandt,1,xPolitik,14,xRainer Niemann,1,xRenteneintritt,2,xRM,1,xRoland Verwiebe,2,xSamuel Debbas,1,xSerafina Löber,3,xSimeon Raban Dilßner,1,xSimon Kuntze,1,xSiri Handloegten,2,xSteffen Hagemann,1,xTim Page,1,xVanessa Oestert,1,xVictorie Henning,1,xVideo,1,xWahlen21,3,
ltr
item
≠ transformation: Personalrekrutierung durch Algorithmen – Lösung alter Probleme oder neuer Bias?
Personalrekrutierung durch Algorithmen – Lösung alter Probleme oder neuer Bias?
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjCW_9py7LNpOwAKwBoSY2x46kGQxkWG8dNbgbkCnpBUFl7p936FggKV1eoXNH9osjud1q9CTEmchNk0H1yYX9pR1CzO8vqfYIck0VPWMEV4ulBw0yiYeHkyimnqqPvSdf7DAKuWzE1fCcTLaluyRr6NuJET-d2dMezcPg-z24Z4ZnUr5E7sNJBEU4s/s1600/Recruiting_Bild.jpg
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjCW_9py7LNpOwAKwBoSY2x46kGQxkWG8dNbgbkCnpBUFl7p936FggKV1eoXNH9osjud1q9CTEmchNk0H1yYX9pR1CzO8vqfYIck0VPWMEV4ulBw0yiYeHkyimnqqPvSdf7DAKuWzE1fCcTLaluyRr6NuJET-d2dMezcPg-z24Z4ZnUr5E7sNJBEU4s/s72-c/Recruiting_Bild.jpg
≠ transformation
https://unequal-transformation.blogspot.com/2022/03/personalrekrutierung-durch-algorithmen.html
https://unequal-transformation.blogspot.com/
https://unequal-transformation.blogspot.com/
https://unequal-transformation.blogspot.com/2022/03/personalrekrutierung-durch-algorithmen.html
true
8251895197790242187
UTF-8
Alle Beiträge geladen Kein Beitrag gefunden SIEHE ALLE Weiterlesen Kommentieren Kommentar abbrechen Löschen Von Startseite Seiten Beiträge Siehe Alle FÜR SIE VORGESCHLAGEN LABEL ARCHIV SUCHE ALLE BEITRÄGE Kein Beitrag mit ihrem Kriterium gefunden Zurück zur Startseite Sonntag Montag Dienstag Mittwoch Donnerstag Freitag Sonntag So. Mo. Di. Mi. Do. Fr. Sa. Januar Februar März April Mai Juni Juli August September Oktober November Dzcember Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. jetzt gerade vor einer Minute $$1$$ minutes ago vor einer Stunde $$1$$ hours ago Gestern $$1$$ days ago $$1$$ weeks ago mehr als 5 Wochen her Followers Follow DIESER PREMIUM INHALT IST GESPERRT SCHRITT 1: Auf einem sozialen Netzwerk teilen SCHRITT 2: Drücke auf einem sozialen Netzwerk Kopiere den gesamten Code Wähle den gesamten Code aus Alle Codes wurden in deine Zwischenablage kopiert Kann Codes/Texte nicht kopieren, bitte drücke [CTRL]+[C] (or CMD+C bei Mac) um zu kopieren Inhaltsverzeichnis