Wie fair sind Algorithmen?

In dem Moment, in dem ich meine Instant-Ramen in die vorgeschriebenen 500ml kochendes Wasser gebe und sie dann 5 min köcheln lasse,

In dem Moment, in dem ich meine Instant-Ramen in die vorgeschriebenen 500ml kochendes Wasser gebe und sie dann 5 min köcheln lasse,führe ich eine Handlungsanweisung aus. Der Zubereitungshinweis auf der Rückseite der Verpackung löst also das Problem, die kartonartigen Instant-Ramen in einen genießbaren Zustand zu versetzen. Ebenso wie die Worte auf der Rückseite eines Fertiggerichts, bestehen Algorithmen aus Handlungsanweisungen, mit deren Hilfe Probleme gelöst werden. In der Wissenschaft versteht man Algorithmen deshalb als Problemlöser

Foto: qimono auf pixabay

Die genaue Funktionsweise von Algorithmen, wie sie Social Media Netzwerke, Dating-Plattformen, Unternehmen, Behörden, letztlich jede Webseite nutzen, bleibt jedoch häufig unbekannt. Die Gründe dafür sind vielfältig. Zum einen benötigt man zu ihrem Verständnis weitergehende mathematische und informatische Kenntnisse, die in der breiten Bevölkerung so nicht vorhanden sind. Zum anderen unterliegen die Anwendungen und Funktionsweisen bestimmter Algorithmen der Geheimhaltung, was damit begründet wird sie vor Manipulation und Diebstahl schützen zu wollen. Zudem sichern Unternehmen wie Amazon und Google so ihre Monopolstellung. 

Algorithmen kommt viel Verantwortung zu. Der Automating Society Report von Algorithm Watch und der Bertelsmann Stiftung zeigt, dass Algorithmen, auch in Europa, zunehmend verwendet werden, um Menschen zu bewerten. Beispielsweise finden Algorithmen bei der Vorauswahl von Bewerber*innen oder der Vergabe von Krediten Anwendung. Ihnen wird zugetraut neutralere und damit bessere Entscheidungen zu treffen, als es ein Mensch dies könnte. Allerdings ist das nicht immer der Fall. Die Gründe hierfür sind vielfältig.

Um sich näher mit der fairen Entscheidungsfindung von Algorithmen auseinanderzusetzten, sollte zunächst klar sein, was unter Fairness zu verstehen ist. In der Recherche zu fairen Algorithmen trifft man schnell auf das Wort „Bias“, was man mit Neigung, Vorurteil oder „beeinflusst sein“ übersetzten könnte. Häufig wird „fair-sein“ auch mit dem Begriff Diskriminierungsfreiheit in Verbindung gebracht, der im Kern bedeutet, dass Merkmale wie das Geschlecht, die Herkunft, die Hautfarbe oder die sexuelle Identität nicht zur Bewertung eines Menschen einbezogen werden sollten. In Artikel 3 des Grundgesetztes wurde diese wichtige Grundlage der Diskriminierungsfreiheit festgeschrieben, gleichwohl ist unsere Gesellschaft aber nicht diskriminierungsfrei. Bei der Diskussion um die Fairness von Algorithmen geht es also darum, ob automatisierte Entscheidungsfindung Diskriminierung, im Sinne unserer gesellschaftlichen Standards, entgegenwirkt, diese reproduziert oder sogar neue Ungleichheiten schafft.

Die meisten Algorithmen, die heute Anwendung finden, sind komplexe Systeme und können durch maschinelles Lernen permanent optimiert werden. Dieses Verfahren erlaubt es Algorithmen, Muster zu erkennen. In der Praxis bedeutet diese Mustererkennung z.B., dass ein Kreditinstitut anhand der bisher erfolgreich abgezahlten Kredite, die Kreditwürdigkeit eines Kunden einschätzt. Wichtigster Baustein von Algorithmen sind dabei die Daten, mit welchen ein Algorithmus trainiert wird. Die Trainingsdaten bilden die Grundwahrheiten von Algorithmischen Entscheidungssystemen (ADMS)  und müssen die Realität so präzise wie möglich darstellen. Die Daten sollten, um auf das Fairness-Problem noch einmal zurückzukommen, vollständig diskriminierungsfrei sein, um einer Reproduktion von Ungleichheiten vorzubeugen.  

Die Realität sieht gleichwohl anders aus. Ein bekanntes Beispiel für ein ADMS, welches nicht mit neutralen Daten trainiert wurde, ist eine Bewerber-Software des Online-Händlers Amazon, welche eingehende Bewerbungen nach Eignung einstuften sollte. Später wurde festgestellt, dass der Algorithmus Frauen benachteiligte. Die Datenbasis für das Training des Modells bestand aus Bewerberdaten der Vergangenheit, welche bereits Bewerbungen männlicher Bewerber bevorzugten. Anhand dieses Beispiels zeigt sich, wie hoch das Risiko ist, dass ADMS bereits bestehende Ungleichheiten reproduziert und somit keineswegs neutraler entscheiden, als ein menschlicher Recruiter es könnte.

Foto: markusspiske auf pixabay

Das genannte Beispiel hat dazu geführt, dass sich diverse Initiativen gebildet haben, welche sich für Fairness von Algorithmen engagieren. Sie fordern Transparenz sowie Verantwortungsbewusstsein gegenüber der Funktionsweise von Algorithmen. Um der Weitergabe von Ungleichheiten entgegenzuwirken, ist insbesondere die Einsehbarkeit der Codes von Algorithmen von großer Bedeutung. Diese Transparenz ermöglicht es, der Wissenschaft die Erhebung von Trainingsdaten sowie die vom Algorithmus getroffenen Entscheidungen genau zu untersuchen. Im Jahr 2017 führte Twitter eine Software ein, welche der Bild-Vorschau innerhalb eines Tweets diente. Allerdings werden Bilder in der Twitter-Timeline nicht als Ganzes angezeigt, weshalb ein Algorithmus einen „möglichst sinnvollen“ Ausschnitt aus auswählt. Im Jahr 2020 wurden jedoch mehrere Nutzer*innen darauf aufmerksam, dass auf einem Bild mit einer weißen und einer schwarzen Person, nur die weiße Person in der Vorschau angezeigt wird. Twitter kündigte daraufhin an, die Technologie noch einmal zu prüfen und den Code öffentlich zu machen, um unabhängige Expert*innen daran arbeiten zu lassen.

Für die Fairness von Algorithmen ist zudem ein weiteres Thema zentral, und zwar das der Kausalität. Der Algorithmus muss in der Lage sein, reale kausale Zusammenhänge von zufälligen Korrelationen zu unterscheiden. Wie schon angesprochen, werden Algorithmen auch bei der Vergabe von Krediten eingesetzt, indem diese die Kreditwürdigkeit einschätzten. Der Algorithmus könnte erkennen, wie dies in der Vergangenheit aufgrund von bestimmten Trainingsdaten der Fall war, dass Bewohner eines bestimmten Stadtteils seltener ihre Kredite abbezahlen. In der Entscheidungsfindung würde der Algorithmus daraufhin den Wohnort als Kriterium einbeziehen und damit die Bewohner dieses Stadtteils benachteiligen, unabhängig von ihrer persönlichen finanziellen Situation. Es reicht nicht aus dem Algorithmus Merkmale wie Geschlecht, Religionszugehörigkeit, Rasse, Hautfarbe, Minderheitszugehörigkeit, nationale oder soziale Herkunft, sexuelle Identität, Alter oder Behinderung vorzuenthalten. Die genannten Beispiele und Ausführung zur Funktionsweise von Algorithmen und ADMS sind weitgehend kritisch und lassen an der Fairness der Entscheidungsfindung durch Maschinen Zweifel aufkommen.

Es ist wichtig anzuerkennen, dass Algorithmen lediglich komplexe technische Instrumente sind, welche den Menschen unterstützen. Es sind Menschen, welche entscheiden, wo und wann Algorithmen zum Einsatz kommen und anhand welcher Daten sie trainiert werden. Die Trainingsdaten müssen frei von Ungleichheiten sein, um den Algorithmus faire Entscheidungen treffen zu lassen. Allerdings ist auch das nicht ausreichend, denn automatisierte Entscheidungssysteme können durch falsche kausale Zusammenhänge neue Ungleichheiten hervorrufen.  Es zeigt sich also zum einen, dass Algorithmen grundsätzlich nur so fair sind wie die Gesellschaft, in der sie entwickelt werden. Zum anderen sollten ADMS leichter zu kontrollieren sein, um der Entstehung falscher kausaler Zusammenhänge entgegenzuwirken. Die Offenlegung der Codes solcher Systeme würde die unabhängige Kontrolle unterstützen. 

Marie Lauterbach

Name

Alexander Lenk,1,Aline Lupa / Isabella Kaul,1,Alltagsleben,1,Andreas Hofmann / Anna Westner / Marius Gerards,1,Angelika Wetzel,1,Angelika Wetzel / Serafina Löber,1,Anh Hoang,1,Anh Hoang / Christopher Fritz / Annina Morr,1,Anna Haar / Isabel Buchmann,1,Anna Haar / Maj-Britt Klages / Corinna Weiß,1,Anna Westner,1,Anne Haußner / Nele Damm / Laura Milda Weinheimer,1,Anne Haußner / Nele Damm / Melisa Meral,1,Annett Wadewitz,2,Antonia Leymann / Hannes Richter,1,Arvid Becker,1,Bundestagswahl 2021,3,Carolin Haselmann / Luise Graw / Julius Spreckelsen,1,Christopher Fritz / Carla van der Minde / Simeon Raban Dilßner,1,Claudia Buder,1,Claudia Buder / Annett Wadewitz,2,Daphne Kabaali,1,Denise Brosda,1,DX,1,Felicitas Rösch,1,Finja Carstensen / Julia Gräfe / Victorie Henning,1,Florian Fried,2,Franziska Mehlhase,1,Gerrit Prange,1,Helene Walther / Adrian Nehls,3,Ina-Berit Leuchs,2,Inge Pabel,1,Isabel Buchmann,1,Jeanne Handro,1,Johanna Kuchling-Pietrek,1,Joshua Bode / Lukas Zipris /Vanessa Oestert,1,Julia Zakusek / Chiara Osorio Krauter / Emily Quirmbach,1,Katarina Rönnicke,1,Kati Renard,1,Kevin Hanelt,1,Klara Hofmann,1,Kolja Grohmann,1,Lea Gudowski / Carla von der Minde / Niklas Kohl,1,Leandra Wagner,1,Lena Mau,1,Lennart Bugoslawski / Friederike Zimmermann,1,Lewin Fricke,1,Lisa Fritsch,1,Lucas Krentel,1,Luise Graw / Lea Gudowski / Niklas Kohl,1,Luise Graw / Niklas Kohl,1,Maj-Britt Klages / Marcel Maier / Melisa Meral,1,Marie Lauterbach,1,Marlene Jahn,1,Miriam Pospiech / Carolin Engelhardt / Aline Lupa / Isabella Kaul,1,Miriam Pospiech / Isabella Kaul,1,Naomi Gänsler,1,Nele Stärke / Lea Steinkopf,1,Nina Magdeburg,1,Noa Groicher,2,Phila Händler,1,Philipp Mandt,1,Rainer Niemann / Johannes Koberstein,1,RM,1,Roland Verwiebe,1,Seminargruppe 2020/21,1,Serafina Löber,1,Serafina Löber / Franziska Mehlhase / Angelika Wetzel,1,Simon Kuntze,1,Siri Handloegten,1,Siri Handloegten / Moritz Niessen,1,Tim Page,1,xAdrian Nehls,3,xAlexander Lenk,1,xAline Lupa,2,xAlltagsleben,22,xAmazon,3,xAndreas Hofmann,1,xAngelika Wetzel,3,xAnh Hoang,2,xAnna Haar,2,xAnna Westner,2,xAnne Haußner,2,xAnnett Wadewitz,5,xAnnina Morr,1,xAntonia Leymann,1,xArbeit,13,xArvid Becker,1,xAudio,4,xBildung und Kultur,12,xCarla van der Minde,2,xCarolin Engelhardt,1,xCarolin Haselmann,1,xChiara Osorio Krauter,1,xChristopher Fritz,1,xClaudia Buder,4,xCorinna Weiß,1,xDaphne Kabaali,1,xDenise Brosda,1,xDigitalisierung,22,xDX,1,xEmily Quirmbach,1,xFelicitas Rösch,1,xFinja Carstensen,1,xFlorian Fried,2,xFranziska Mehlhase,2,xFriederike Zimmermann,1,xGerrit Prange,1,xHannes Richter,1,xHelene Walther,3,xIna-Berit Leuchs,2,xInge Pabel,1,xIsabel Buchmann,2,xIsabella Kaul,3,xJacob Gustavs,1,xJeanne Handro,1,xJohanna Kuchling-Pietrek,1,xJohannes Koberstein,1,xJoshua Bode,1,xJulia Gräfe,1,xJulia Zakusek,1,xJulius Spreckelsen,1,xKatarina Rönnicke,1,xKati Renard,1,xKevin Hanelt,1,xKlara Hofmann,1,xKolja Grohmann,1,xLaura Milda Weinheimer,1,xLea Gudowski,2,xLea Steinkopf,1,xLeandra Wagner,1,xLehrforschung 2020,2,xLena Mau,1,xLennart Bugoslawski,1,xLewin Fricke,1,xLisa Fritsch,1,xLucas Krentel,1,xLuise Graw,3,xLukas Zipris,1,xLuna Schlender,1,xMaj-Britt Klages,2,xMarcel Maier,1,xMarie Lauterbach,1,xMarius Gerards,1,xMarlene Jahn,1,xMelisa Meral,2,xMiriam Pospiech,2,xMoritz Niessen,1,xNaomi Gänsler,1,xNele Damm,2,xNele Stärke,1,xNiklas Kohl,3,xNina Magdeburg,1,xNoa Groicher,2,xPhila Hädler,1,xPhilipp Mandt,1,xPolitik,14,xRainer Niemann,1,xRenteneintritt,2,xRM,1,xRoland Verwiebe,2,xSamuel Debbas,1,xSerafina Löber,3,xSimeon Raban Dilßner,1,xSimon Kuntze,1,xSiri Handloegten,2,xSteffen Hagemann,1,xTim Page,1,xVanessa Oestert,1,xVictorie Henning,1,xVideo,1,xWahlen21,3,
ltr
item
≠ transformation: Wie fair sind Algorithmen?
Wie fair sind Algorithmen?
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjahrSz9ab9lgOeEwmvm34vF2pzwqZQDjffvWm7TgH2sP14UAOvsQ70PKnSdO2sASmnqPJdBDEUGmAX4QzEHlWcU3L2uUdpB-q-Ld_Rfr25b64BlODg8uPSZv4xQq6K6GtIuXj7zWnTVDsTzK5MJIabFhakJ2o4ypLlDMHvr3ZrFzsEC09TkUxs-5yq/w400-h266/neourban-g5d47f392d_1920.jpg
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjahrSz9ab9lgOeEwmvm34vF2pzwqZQDjffvWm7TgH2sP14UAOvsQ70PKnSdO2sASmnqPJdBDEUGmAX4QzEHlWcU3L2uUdpB-q-Ld_Rfr25b64BlODg8uPSZv4xQq6K6GtIuXj7zWnTVDsTzK5MJIabFhakJ2o4ypLlDMHvr3ZrFzsEC09TkUxs-5yq/s72-w400-c-h266/neourban-g5d47f392d_1920.jpg
≠ transformation
https://unequal-transformation.blogspot.com/2022/05/wie-fair-sind-algorithmen.html
https://unequal-transformation.blogspot.com/
https://unequal-transformation.blogspot.com/
https://unequal-transformation.blogspot.com/2022/05/wie-fair-sind-algorithmen.html
true
8251895197790242187
UTF-8
Alle Beiträge geladen Kein Beitrag gefunden SIEHE ALLE Weiterlesen Kommentieren Kommentar abbrechen Löschen Von Startseite Seiten Beiträge Siehe Alle FÜR SIE VORGESCHLAGEN LABEL ARCHIV SUCHE ALLE BEITRÄGE Kein Beitrag mit ihrem Kriterium gefunden Zurück zur Startseite Sonntag Montag Dienstag Mittwoch Donnerstag Freitag Sonntag So. Mo. Di. Mi. Do. Fr. Sa. Januar Februar März April Mai Juni Juli August September Oktober November Dzcember Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. jetzt gerade vor einer Minute $$1$$ minutes ago vor einer Stunde $$1$$ hours ago Gestern $$1$$ days ago $$1$$ weeks ago mehr als 5 Wochen her Followers Follow DIESER PREMIUM INHALT IST GESPERRT SCHRITT 1: Auf einem sozialen Netzwerk teilen SCHRITT 2: Drücke auf einem sozialen Netzwerk Kopiere den gesamten Code Wähle den gesamten Code aus Alle Codes wurden in deine Zwischenablage kopiert Kann Codes/Texte nicht kopieren, bitte drücke [CTRL]+[C] (or CMD+C bei Mac) um zu kopieren Inhaltsverzeichnis