„ Hello! My name is Vera. I am a robot. ” Dies sind wohl die ersten Worte, die Bewerber: innen im Chat oder Interview zu lesen oder zu hören bekommen,
„Hello! My name is Vera. I am a robot.” Dies sind wohl die ersten Worte, die Bewerber: innen im Chat oder Interview zu lesen oder zu hören bekommen, wenn der Bewerbungsprozess bei einem internationalen Großkonzern von „Robot Vera“ betreut wird. Robot Vera, entwickelt vom russischen Start- Up Stafery Ltd., ist ein auf künstlicher Intelligenz (KI) basierendes, algorithmisches Entscheidungssystem (AES). Vera kann, nach vorheriger Eingabe der benötigten Daten, Lebensläufe und Anschreiben analysieren und auf ihr „Matching“ zum Unternehmen prüfen. Sie setzt sich mit Bewerber: innen in Kontakt, vereinbart Gesprächstermine und kann selbständig, mit Hilfe einer Stimmerkennungssoftware, Videointerviews führen.
Bild von mohamed_hassan auf Pixabay |
Das Versprechen der Anwendung solcher Software sind deutlich […]„effizientere, konsistentere und fairere Rekrutierungsprozesse“. „Big Data statt Bauchgefühl“. Durch den Einsatz von KI können zudem massive Geldeinsparungen realisiert werden. Dem Recruiting ist immanent, dass es ein sehr zeitaufwändiges, ressourcenbindendes Verfahren ist, welches […]„direkte wirtschaftliche Auswirkungen“[…] auf das Unternehmen hat. Neben der finanziellen Verschlankung besteht ein weiterer Vorteil der Nutzung darin, dass Recruiting-Algorithmen bei der Auswahl des geeigneten Personals „unbiased“ entscheiden. Wo menschliche Recruiter: innen, ob bewusst oder unbewusst, teilweise diskriminierende Entscheidungen treffen und somit soziale Ungleichheiten verstärken können, spielen Rasse, Hautfarbe, sozioökonomischer Background oder Bildungsniveau, keine Rolle für den objektiv operierenden Algorithmus. Diese Vorstellung ist eine sehr wünschenswerte Lösung für tiefgreifende Problemlagen auf dem Arbeitsmarkt.
Bei all der Euphorie um die Transformation des Recruitings durch KI werden jedoch auch Stimmen aus Wissenschaft, Politik und Medien laut, die diese Entwicklung kritisch betrachten. Eine der Kernfragen, mit der sich in diesem Diskurs auseinandergesetzt wird ist, ob solche Softwarelösungen wirklich „unbiased“ operieren können. „Der Algorithmus ist nur so gut wie die Annahmen, auf denen er basiert“. Dieser Satz von Professor Torsten Biermann, welcher an der Universität Mannheim zu Personalmanagement und Führung forscht, vermittelt die Idee der daran anknüpfenden Kernfrage: Wie und auf welcher Datengrundlage „lernen“ Algorithmen und wie sind diese Daten genau beschaffen? KI-basierte, selbstlernende Systeme treffen ihre Entscheidungen nicht auf Grundlage vordefinierter und spezifischer Regeln. Sie lernen auf Basis vorher eingespeister Trainingsdaten und entwickeln so ein eigenständiges Entscheidungsverhalten. Die Qualität der Entscheidung hängt somit von der Güte der Trainingsdaten ab. Ein weiterer, zu beachtender Umstand ist, dass auf KI-basierende algorithmische Entscheidungssysteme zu „Black Boxen“ entwickeln, da ihre Funktionsweise für die Anwender: innen, und im weiteren Verlauf selbst für die Programmierer: innen, nicht mehr nachvollziehbar ist. Damit können suboptimale Trainingsdaten und das „Black Box Dilemma“ Diskriminierungen und soziale Ungleichheiten sogar noch verstärken.
Bild von markusspiske bei Pixabay |