„ Rechtsextreme Chats: Razzia bei Berliner Polizisten “, „ Wegen rechtsextremer Chats: Frankfurter SEK wird aufgelöst “.
„Rechtsextreme Chats: Razzia bei Berliner Polizisten“, „Wegen rechtsextremer Chats: Frankfurter SEK wird aufgelöst“.
Über Schlagzeilen wie diese stolpert man besonders in den letzten zwei Jahren. Nicht nur in der USA wird der Polizei strukturell diskriminierendes Verhalten bestimmten sozialen Gruppen gegenüber vorgeworfen, sei es durch „Racial Profiling“ oder eine schnellere, höhere Haftstrafe. Seit Jahren gibt es auch in Deutschland immer wieder Ereignisse, die Rechtsextremismus und die Polizei in Verbindung bringen, seien es aufgedeckte rechtsextreme Chats, die Verfolgung der NSU-Täter:innen oder mysteriöse Morde in Polizeiobhut, wie der Fall Oury Jalloh. Die Polizei betont, dass dies Einzelfälle sind, die auf keine voreingenommenen, diskriminierenden Strukturen basieren, doch gesellschaftlich besteht weiterhin Zweifel an der Polizei und ihrer Objektivität. Aber wie werden polizeiliche Ermittlungen, die von formalen Strukturen und subjektiven Einschätzungen geprägt ist, objektiver?
Das BKA vertraut seit 2016/2017 bei der Einschätzung von politisch motivierten Täter:innen, sogenannte „Gefährder“, im Spektrum des islamistischen Terrorismus auf das regelbasierte Risikobewertungsinstrument RADAR-iTE. Ab Mitte diesen Jahres wird zusätzlich für den rechtsradikalen Bereich, RADAR-Rechts, eingesetzt. Bisher dienen sie zum effizienteren Einsatz polizeilicher Ressourcen doch könnten diese unvoreingenommenen, nicht beeinflussbar erscheinenden Algorithmen gleichzeitig die Lösung für objektivere und transparente polizeiliche Ermittlungen sein?
Zunächst einmal ist es wichtig zu verstehen, wie der derzeitige Algorithmus zur Einschätzung von Gefährder:innen funktioniert. Dies erfolgt bundesweit mit Hilfe eines Risikobewertungsbogens bestehend aus 7 Themenbereichen und 73 Merkmalen, die sich auf Gewalt- und Waffenaffinität, Kontakt zu radikalen Szene und die Persönlichkeit beziehen. Religion spielt hier keinen Einfluss, sowie selbst erlebte Gewalt. Einen transparenten Einblick in die genauen Fragen erhält man aus polizeitaktischen Gründen allerdings nicht. Die Fragen werden von Sachbearbeiter:innen mit „Ja“, „Nein“ oder „Keine ausreichende Informationslage“ auf Basis von Daten, „die den Polizeibehörden nach den bestehenden gesetzlichen Regelungen bereits vorliegen oder aufgrund einer gültigen Rechtslage (im Wesentlichen StPO, BKAG, Polizeigesetze der Länder) erhoben werden dürfen“ , beantwortet. Auf Basis dessen erfolgt dann durch den Algorithmus eine Zuordnung, ob von der Person ein hohes, auffälliges oder kein Risiko ausgeht. Eine Einschätzung von Personen, über die es keine oder nur mangelnde Informationen gibt, ist nicht möglich. Festzuhalten ist, die Bewertung erfolgt an objektiven Kriterien, jedoch ist die Angabe dieser Kriterien abhängig von der Datenlage und zuständigen Person und somit subjektiv. Auch die Entscheidung, wie mit der Einschätzung von RADAR-iTE umgegangen wird, bleibt in menschlichen Händen. Nach derselben Logik wird zurzeit auch das System RADAR-Rechts für den rechten Raum der politisch motivierten Kriminalität bundesweit etabliert.
Das BKA betont, dass das regelbasierte System RADAR-iTE nur zur Bewertung der Risiko- und Schutzmerkmalen dient, wodurch Priorisierungsentscheidungen getroffen werden können, aber nicht die Relevanz dieser Merkmale in Einzelfällen. Trotzdem wird davon ausgegangen, dass mit Hilfe dieses Systems der Breitscheidplatz-Attentäter Amri und das von ihm ausgehende Risiko früher von der Polizei erkannt worden sei und andere Maßnahmen ergriffen worden wären. Die deutsche Polizeiarbeit ist so weiterhin durch subjektive Einschätzungen und Handlungen von Individuen geprägt, auch wenn erweiterte Systeme, wie die einzelfallorientierte Risikobewertung via Algorithmus bereits in Planung sind. Welche Auswirkungen hätte es, wenn die polizeiliche Arbeit immer mehr von Algorithmen gestützt wird?
Mehr Einblicke dazu erhalten wir durch unser digitales Vorbild – der USA. Hier prägen Algorithmen, wie Gesichtserkennungssoftwares und auch der COMPAS-Score, der die Strafrückfälligkeit eines Individuums berechnet, die Strafverfolgung und Urteilssprechung. Leider zeigte sich, dass diese Algorithmen nicht so objektiv sind wie erwartet. So wurde beispielsweise 2019 der Afroamerikaner Michael Oliver von einem Gesichtserkennungs-Algorithmus fälschlicherweise als Täter eines Diebstals identifiziert, aufgrund dessen verhaftet und landete vor Gericht. Auch dem COMPAS-Score konnte nachgewiesen werden, dass „People of Colour“ nur aufgrund ihrer Hautfarbe schlechtere Scores bekommen als Weiße. Denn obwohl Algorithmen keine eigene Meinung haben und wertfrei scheinen, stellen die Datensätze soziale Ungleichheiten dar, die von Algorithmen reproduziert werden. Wie soll auch ein Programm, gefüttert mit Daten, die verzerrt durch Ungleichheiten sind, ein unverzerrtes, objektives Ergebnis erzielen? Falsche Einschätzungen und Fehler aufgrund von Voreingenommenheit passieren also nicht nur Menschen, sondern auch Maschinen. Anders als Algorithmen können wir jedoch noch unser Gehirn nutzen und erkennen, dass der afroamerikanische Mann auf der Überwachungsaufnahme ganz eindeutig nicht Michael Oliver ist.
Ein vermehrter Einsatz von Algorithmen verbunden mit einer stärkeren Verantwortlichkeit würde daher wohl kaum zu objektiveren Ermittlungen führen. Ja, sie können in den Ermittlungen Standards setzten und als Hilfe hinzugezogen werden, aber nicht objektivere Ergebnisse erzielen als Menschen. Solange unsere Gesellschaft von sozialen Ungleichheiten, Vorurteilen, Benachteiligungen und Bevorzugungen geprägt ist, wird es, weder mit noch ohne Algorithmen, eine objektive Polizeiarbeit geben. Mit hoher Wahrscheinlichkeit wird diese perfekte Welt nie existieren und unvermeidbar sein, dass Menschen voreingenommen denken. Auch dass diese Personen bei der Polizei arbeiten, wird nicht zu verhindern sein. Zu verhindern ist aber, dass diese Denkweisen a) keinen Einfluss auf das Urteilsvermögen und die Handlungen hat und b) sich nicht in organisationsinternen Mustern verfestigt. Und sollte das nicht die Aufgabe einer so gesellschaftlich relevanten Organisation wie der Polizei sein?
Isabel Buchmann