Photo by Tianyi Ma on Unsplash
Das Internet ist bunt, es ist nahezu allgegenwärtig und oft überfordernd. Billionen von
Informationen versprechen den Usern unendliche Weiten. Beiträge werden geliked
und geteilt und damit verbreitet: Von Katzen-Videos bis zu wissenschaftlichen
Informationen kennt das Internet keine Grenzen. Auf gleichem Wege werden aber
auch Themen wie Verschwörungstheorien oder sogar illegale Inhalte Beiträge der
Öffentlichkeit zugänglich gemacht.
Letzterem widmen
sich Menschen, die im Auftrag von Facebook, Google und Co. Webinhalte filtern
und unzumutbare, unangebrachten Posts und Uploads löschen: Content-Moderator*innen. Sie sind die
wahren Hidden Heroes der sozialen Netze, denn sie überprüfen und löschen auch
jene Inhalte, die bei Nutzer*innen psychische Folgen bis hin zu Suizidgedanken
hervorrufen könnten. Content-Moderation wird meist ausgelagert und findet unter
oft schlechten Arbeitsbedingungen in Ländern wie den Philippinen
oder Indien statt. Aber auch in Berlin
und Essen arbeiten rund 1.000 Facebook-Content-Moderator*innen für Firmen
wie die Bertelsmann-Tochter Arvato.
Auch Content-Moderator*innen
sind von Corona-bedingten Kontaktverboten betroffen: Die Sichtung brutaler Videos und gewaltverherrlichender
Posts im unfreiwilligem Wohnzimmer-Home-Office womöglich neben Schulkindern,
die ihre Schulaufgaben erledigen? Unvorstellbar.
Die Content-Plattform-Unternehmen forcieren u.a. daher für das Filtern der
Inhalte im virtuellen Raum die Verwendung von
algorithmischen Systemen und Künstlicher Intelligenz (KI), da Maschinen
schneller größere Informationsmengen bearbeiten können, als es ihren menschlichen Counterparts möglich wäre.
Twitter-Post von Guy Rosen (Vizepräsident des Produktionsmanagement bei Facebook)
Die Fehlbarkeit
von automatisierten Systemen macht ausgerechnet die Pandemie deutlich: Diverse Posts
zum Thema COVID-19 identifizierten die Algorithmen fälschlicherweise als Spams
und zensierten sie. Auf diese Weise tragen sie nur weiter zur Infodemie,
sprich, der Verbreitung von Fehlinformationen im Zuge der Pandemie, bei. Im Artikel Algorithmic
content moderation: Technical and political challenges in the automation of
platform governance widmen sich Robert
Gorwa, Reuben
Binns und Christian
Katzenbach (2020) weiteren möglichen Auswirkungen der automatisierten
Content-Moderation. Sie verweisen darauf, dass die Richtlinien und Regeln, nach
denen die automatisierte Content-Moderation filtert, immer undurchsichtiger
werden. Denn selbstlernende Maschinen machen es immer schwieriger nachzuverfolgen,
was sie gelernt haben und welche Konsequenzen diese Lernprozesse haben werden.
Aktuell geht die
Entwicklung hin zum so genannten Overblocking, dem systematischen Löschen
und Verhindern von Online-Content auf der Grundlage von Regeln und Vorgaben,
die keine Ausnahmen erlauben. Ein Beispiel ist das Löschen von Kunst- oder
Satire-Beiträgen, die vermeintlich gegen Grundsätze der Plattformen, auf denen
sie gepostet wurden, verstoßen. So wurde ein Tweet
des Autors Tom Hillenbrand gelöscht, welcher sich auf die Europawahl 2019
bezog. Twitter argumentierte, der Beitrag verstoße gegen interne Richtlinien zu
Wahlmanipulation. Das Landgericht München sah hingegen in Hillenbrands Tweet
einen satirischen Beitrag, welcher durch das Recht auf freie Meinungsäußerung
geschützt sei. Unternehmen wie YouTube und Facebook haben inzwischen eigene
Abteilungen eingerichtet, bei denen ihre Nutzer*innen Beschwerde für solche mutmaßlich
zu Unrecht gesperrten oder gelöschten Beiträge einreichen können. Eine
außergerichtliche Lösung dieser Dispute ist nicht immer möglich. Die zunehmende
Automatisierung von Content-Moderation und die damit einhergehende
Intransparenz kann und wird wahrscheinlich zu einer Zunahme von Overblocking
führen, ist es für Maschinen doch (noch) zu schwierig, die komplexen Nuancen
von Satire, Kunst und Humor zu erkennen.
Die Automatisierung
von Content-Moderation könnte darüber hinaus zu einem subtileren Problem, ja
zur gewollten aber auch zur unabsichtlichen Manipulation der User führen, indem
sie zur Reproduktion von sozialen Ungleichheiten und Diskriminierung beiträgt. Wenn
die Moderation komplett automatisiert wird, ordnen Algorithmen auch Inhalte,
die mit Kategorien wie Gender, Alter oder ethnischer Zugehörigkeit in
Verbindung gebracht werden, unterschiedlich zu und bewerten diese. Als Beispiel
nennen Gorwa et al. (ebd.,
S.11) die Möglichkeit, dass bei der Identifizierung von Hassreden nach
Wörtern gefiltert wird, die vornehmlich von einer bestimmten sozialen Gruppe
verwendet werden. Die Content-Moderation trägt also im Zweifelsfall nicht nur
zur (Un-)Sichtbarkeit von bestimmten sozialen Gruppen bei, sondern unterstützt auch
die Reproduktion bestehender Vorurteile. Ebenso nehmen die Plattformunternehmen
Einfluss auf die Verbreitung terroristischer Organisationen. Facebook hält sich
beispielsweise zugute, dass es 99,6% terroristischer Propaganda Einhalt
gebietet, doch wird auch hier nicht deutlich, welche Organisationen in die
Kategorie Terrorismus fallen (ebd., S.12).
Photo by Annie Spratt on Unsplash
Diese
Probleme der Content-Moderation sind nicht neu, doch kann aufgrund der zunehmenden
Intransparenz automatisierter Systeme davon ausgegangen werden, dass sich diese
Probleme verschärfen werden, und das obwohl in den letzten Jahren eine
Entwicklung hin zu mehr Transparenz von Seiten der Unternehmen zu erkennen war.
Es ist nach wie vor wichtig, Plattformunternehmen in die Verantwortung
gegenüber ihren Nutzer*innen, aber auch gegenüber der Gesellschaft, zu nehmen. Besonders
in Bezug auf die Content-Moderation braucht es einen öffentlichen Diskurs. Dies
sollte auch im Interesse der Plattform-Unternehmen liegen. Für ein Vertrauen in
die Unternehmen müssen sie mehr Transparenz herstellen und selbst in die
Verantwortung gehen. Bieten sie doch sonst noch mehr Angriffsfläche für (teils
abstruse) Anschuldigungen, wie die des US-amerikanischen Präsidenten Donald
Trump, der soziale
Medien am liebsten verbieten wollen würde, sollten sie weiterhin
Faktenchecks durchführen.
Serafina Löber