Algorithmen – die Lösung für Objektivität in polizeilichen Ermittlungen?

 „ Rechtsextreme Chats: Razzia bei Berliner Polizisten “, „ Wegen rechtsextremer Chats: Frankfurter SEK wird aufgelöst “.

 „Rechtsextreme Chats: Razzia bei Berliner Polizisten“, „Wegen rechtsextremer Chats: Frankfurter SEK wird aufgelöst“.

Über Schlagzeilen wie diese stolpert man besonders in den letzten zwei Jahren. Nicht nur in der USA wird der Polizei strukturell diskriminierendes Verhalten bestimmten sozialen Gruppen gegenüber vorgeworfen, sei es durch „Racial Profiling“ oder eine schnellere, höhere Haftstrafe. Seit Jahren gibt es auch in Deutschland immer wieder Ereignisse, die Rechtsextremismus und die Polizei in Verbindung bringen, seien es aufgedeckte rechtsextreme Chats, die Verfolgung der NSU-Täter:innen oder mysteriöse Morde in Polizeiobhut, wie der Fall Oury Jalloh. Die Polizei betont, dass dies Einzelfälle sind, die auf keine voreingenommenen, diskriminierenden Strukturen basieren, doch gesellschaftlich besteht weiterhin Zweifel an der Polizei und ihrer Objektivität. Aber wie werden polizeiliche Ermittlungen, die von formalen Strukturen und subjektiven Einschätzungen geprägt ist, objektiver? 

Das BKA vertraut seit 2016/2017 bei der Einschätzung von politisch motivierten Täter:innen, sogenannte „Gefährder“, im Spektrum des islamistischen Terrorismus auf das regelbasierte Risikobewertungsinstrument RADAR-iTE. Ab Mitte diesen Jahres wird zusätzlich für den rechtsradikalen Bereich, RADAR-Rechts, eingesetzt. Bisher dienen sie zum effizienteren Einsatz polizeilicher Ressourcen doch könnten diese unvoreingenommenen, nicht beeinflussbar erscheinenden Algorithmen gleichzeitig die Lösung für objektivere und transparente polizeiliche Ermittlungen sein?

Zunächst einmal ist es wichtig zu verstehen, wie der derzeitige Algorithmus zur Einschätzung von Gefährder:innen funktioniert. Dies erfolgt bundesweit mit Hilfe eines Risikobewertungsbogens bestehend aus 7 Themenbereichen und 73 Merkmalen, die sich auf Gewalt- und Waffenaffinität, Kontakt zu radikalen Szene und die Persönlichkeit beziehen. Religion spielt hier keinen Einfluss, sowie selbst erlebte Gewalt. Einen transparenten Einblick in die genauen Fragen erhält man aus polizeitaktischen Gründen allerdings nicht.   Die Fragen werden von Sachbearbeiter:innen mit „Ja“, „Nein“ oder „Keine ausreichende Informationslage“ auf Basis von Daten, „die den Polizeibehörden nach den bestehenden gesetzlichen Regelungen bereits vorliegen oder aufgrund einer gültigen Rechtslage (im Wesentlichen StPO, BKAG, Polizeigesetze der Länder) erhoben werden dürfen“ , beantwortet. Auf Basis dessen erfolgt dann durch den Algorithmus eine Zuordnung, ob von der Person ein hohes, auffälliges oder kein Risiko ausgeht. Eine Einschätzung von Personen, über die es keine oder nur mangelnde Informationen gibt, ist nicht möglich. Festzuhalten ist, die Bewertung erfolgt an objektiven Kriterien, jedoch ist die Angabe dieser Kriterien abhängig von der Datenlage und zuständigen Person und somit subjektiv. Auch die Entscheidung, wie mit der Einschätzung von RADAR-iTE umgegangen wird, bleibt in menschlichen Händen. Nach derselben Logik wird zurzeit auch das System RADAR-Rechts für den rechten Raum der politisch motivierten Kriminalität bundesweit etabliert.

Das BKA betont, dass das regelbasierte System RADAR-iTE nur zur Bewertung der Risiko- und Schutzmerkmalen dient, wodurch Priorisierungsentscheidungen getroffen werden können, aber nicht die Relevanz dieser Merkmale in Einzelfällen. Trotzdem wird davon ausgegangen, dass mit Hilfe dieses Systems der Breitscheidplatz-Attentäter Amri und das von ihm ausgehende Risiko früher von der Polizei erkannt worden sei und andere Maßnahmen ergriffen worden wären.  Die deutsche Polizeiarbeit ist so weiterhin durch subjektive Einschätzungen und Handlungen von Individuen geprägt, auch wenn erweiterte Systeme, wie die einzelfallorientierte Risikobewertung via Algorithmus bereits in Planung sind.  Welche Auswirkungen hätte es, wenn die polizeiliche Arbeit immer mehr von Algorithmen gestützt wird? 

Mehr Einblicke dazu erhalten wir durch unser digitales Vorbild – der USA. Hier prägen Algorithmen, wie Gesichtserkennungssoftwares und auch der COMPAS-Score, der die Strafrückfälligkeit eines Individuums berechnet, die Strafverfolgung und Urteilssprechung. Leider zeigte sich, dass diese Algorithmen nicht so objektiv sind wie erwartet. So wurde beispielsweise 2019 der Afroamerikaner Michael Oliver von einem Gesichtserkennungs-Algorithmus fälschlicherweise als Täter eines Diebstals identifiziert, aufgrund dessen verhaftet und landete vor Gericht. Auch dem COMPAS-Score konnte nachgewiesen werden, dass „People of Colour“ nur aufgrund ihrer Hautfarbe schlechtere Scores bekommen als Weiße. Denn obwohl Algorithmen keine eigene Meinung haben und wertfrei scheinen, stellen die Datensätze soziale Ungleichheiten dar, die von Algorithmen reproduziert werden.  Wie soll auch ein Programm, gefüttert mit Daten, die verzerrt durch Ungleichheiten sind, ein unverzerrtes, objektives Ergebnis erzielen? Falsche Einschätzungen und Fehler aufgrund von Voreingenommenheit passieren also nicht nur Menschen, sondern auch Maschinen. Anders als Algorithmen können wir jedoch noch unser Gehirn nutzen und erkennen, dass der afroamerikanische Mann auf der Überwachungsaufnahme ganz eindeutig nicht Michael Oliver ist.

Ein vermehrter Einsatz von Algorithmen verbunden mit einer stärkeren Verantwortlichkeit würde daher wohl kaum zu objektiveren Ermittlungen führen. Ja, sie können in den Ermittlungen Standards setzten und als Hilfe hinzugezogen werden, aber nicht objektivere Ergebnisse erzielen als Menschen. Solange unsere Gesellschaft von sozialen Ungleichheiten, Vorurteilen, Benachteiligungen und Bevorzugungen geprägt ist, wird es, weder mit noch ohne Algorithmen, eine objektive Polizeiarbeit geben. Mit hoher Wahrscheinlichkeit wird diese perfekte Welt nie existieren und unvermeidbar sein, dass Menschen voreingenommen denken. Auch dass diese Personen bei der Polizei arbeiten, wird nicht zu verhindern sein. Zu verhindern ist aber, dass diese Denkweisen a) keinen Einfluss auf das Urteilsvermögen und die Handlungen hat und b) sich nicht in organisationsinternen Mustern verfestigt. Und sollte das nicht die Aufgabe einer so gesellschaftlich relevanten Organisation wie der Polizei sein?

Isabel Buchmann

Name

Alexander Lenk,1,Aline Lupa / Isabella Kaul,1,Alltagsleben,1,Andreas Hofmann / Anna Westner / Marius Gerards,1,Angelika Wetzel,1,Angelika Wetzel / Serafina Löber,1,Anh Hoang,1,Anh Hoang / Christopher Fritz / Annina Morr,1,Anna Haar / Isabel Buchmann,1,Anna Haar / Maj-Britt Klages / Corinna Weiß,1,Anna Westner,1,Anne Haußner / Nele Damm / Laura Milda Weinheimer,1,Anne Haußner / Nele Damm / Melisa Meral,1,Annett Wadewitz,2,Antonia Leymann / Hannes Richter,1,Arvid Becker,1,Bundestagswahl 2021,3,Carolin Haselmann / Luise Graw / Julius Spreckelsen,1,Christopher Fritz / Carla van der Minde / Simeon Raban Dilßner,1,Claudia Buder,1,Claudia Buder / Annett Wadewitz,2,Daphne Kabaali,1,Denise Brosda,1,DX,1,Felicitas Rösch,1,Finja Carstensen / Julia Gräfe / Victorie Henning,1,Florian Fried,2,Franziska Mehlhase,1,Gerrit Prange,1,Helene Walther / Adrian Nehls,3,Ina-Berit Leuchs,2,Inge Pabel,1,Isabel Buchmann,1,Jeanne Handro,1,Johanna Kuchling-Pietrek,1,Joshua Bode / Lukas Zipris /Vanessa Oestert,1,Julia Zakusek / Chiara Osorio Krauter / Emily Quirmbach,1,Katarina Rönnicke,1,Kati Renard,1,Kevin Hanelt,1,Klara Hofmann,1,Kolja Grohmann,1,Lea Gudowski / Carla von der Minde / Niklas Kohl,1,Leandra Wagner,1,Lena Mau,1,Lennart Bugoslawski / Friederike Zimmermann,1,Lewin Fricke,1,Lisa Fritsch,1,Lucas Krentel,1,Luise Graw / Lea Gudowski / Niklas Kohl,1,Luise Graw / Niklas Kohl,1,Maj-Britt Klages / Marcel Maier / Melisa Meral,1,Marie Lauterbach,1,Marlene Jahn,1,Miriam Pospiech / Carolin Engelhardt / Aline Lupa / Isabella Kaul,1,Miriam Pospiech / Isabella Kaul,1,Naomi Gänsler,1,Nele Stärke / Lea Steinkopf,1,Nina Magdeburg,1,Noa Groicher,2,Phila Händler,1,Philipp Mandt,1,Rainer Niemann / Johannes Koberstein,1,RM,1,Roland Verwiebe,1,Seminargruppe 2020/21,1,Serafina Löber,1,Serafina Löber / Franziska Mehlhase / Angelika Wetzel,1,Simon Kuntze,1,Siri Handloegten,1,Siri Handloegten / Moritz Niessen,1,Tim Page,1,xAdrian Nehls,3,xAlexander Lenk,1,xAline Lupa,2,xAlltagsleben,22,xAmazon,3,xAndreas Hofmann,1,xAngelika Wetzel,3,xAnh Hoang,2,xAnna Haar,2,xAnna Westner,2,xAnne Haußner,2,xAnnett Wadewitz,5,xAnnina Morr,1,xAntonia Leymann,1,xArbeit,13,xArvid Becker,1,xAudio,4,xBildung und Kultur,12,xCarla van der Minde,2,xCarolin Engelhardt,1,xCarolin Haselmann,1,xChiara Osorio Krauter,1,xChristopher Fritz,1,xClaudia Buder,4,xCorinna Weiß,1,xDaphne Kabaali,1,xDenise Brosda,1,xDigitalisierung,22,xDX,1,xEmily Quirmbach,1,xFelicitas Rösch,1,xFinja Carstensen,1,xFlorian Fried,2,xFranziska Mehlhase,2,xFriederike Zimmermann,1,xGerrit Prange,1,xHannes Richter,1,xHelene Walther,3,xIna-Berit Leuchs,2,xInge Pabel,1,xIsabel Buchmann,2,xIsabella Kaul,3,xJacob Gustavs,1,xJeanne Handro,1,xJohanna Kuchling-Pietrek,1,xJohannes Koberstein,1,xJoshua Bode,1,xJulia Gräfe,1,xJulia Zakusek,1,xJulius Spreckelsen,1,xKatarina Rönnicke,1,xKati Renard,1,xKevin Hanelt,1,xKlara Hofmann,1,xKolja Grohmann,1,xLaura Milda Weinheimer,1,xLea Gudowski,2,xLea Steinkopf,1,xLeandra Wagner,1,xLehrforschung 2020,2,xLena Mau,1,xLennart Bugoslawski,1,xLewin Fricke,1,xLisa Fritsch,1,xLucas Krentel,1,xLuise Graw,3,xLukas Zipris,1,xLuna Schlender,1,xMaj-Britt Klages,2,xMarcel Maier,1,xMarie Lauterbach,1,xMarius Gerards,1,xMarlene Jahn,1,xMelisa Meral,2,xMiriam Pospiech,2,xMoritz Niessen,1,xNaomi Gänsler,1,xNele Damm,2,xNele Stärke,1,xNiklas Kohl,3,xNina Magdeburg,1,xNoa Groicher,2,xPhila Hädler,1,xPhilipp Mandt,1,xPolitik,14,xRainer Niemann,1,xRenteneintritt,2,xRM,1,xRoland Verwiebe,2,xSamuel Debbas,1,xSerafina Löber,3,xSimeon Raban Dilßner,1,xSimon Kuntze,1,xSiri Handloegten,2,xSteffen Hagemann,1,xTim Page,1,xVanessa Oestert,1,xVictorie Henning,1,xVideo,1,xWahlen21,3,
ltr
item
≠ transformation: Algorithmen – die Lösung für Objektivität in polizeilichen Ermittlungen?
Algorithmen – die Lösung für Objektivität in polizeilichen Ermittlungen?
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiq_3r2Od7BVc_Mb-GThSsYiYvMa9ztZVvJw6obVIn5epnolSFMBXU3OQHboK8jH1tSIxUCfimmQ_rIPZ2IP6w0QlhEnLrqdSgfF8aPCeP2R1NQ8nyVVL3va951ILkxSm_HEmR0mh7GXrstrR-1rHc5D1FtyTrVbLPQa8FBwfVFOQ0PSFVMcXtoiwkj/w400-h266/pexels-antonio-batini%C4%87-4164418.jpg
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiq_3r2Od7BVc_Mb-GThSsYiYvMa9ztZVvJw6obVIn5epnolSFMBXU3OQHboK8jH1tSIxUCfimmQ_rIPZ2IP6w0QlhEnLrqdSgfF8aPCeP2R1NQ8nyVVL3va951ILkxSm_HEmR0mh7GXrstrR-1rHc5D1FtyTrVbLPQa8FBwfVFOQ0PSFVMcXtoiwkj/s72-w400-c-h266/pexels-antonio-batini%C4%87-4164418.jpg
≠ transformation
https://unequal-transformation.blogspot.com/2022/05/algorithmen-die-losung-fur-objektivitat.html
https://unequal-transformation.blogspot.com/
https://unequal-transformation.blogspot.com/
https://unequal-transformation.blogspot.com/2022/05/algorithmen-die-losung-fur-objektivitat.html
true
8251895197790242187
UTF-8
Alle Beiträge geladen Kein Beitrag gefunden SIEHE ALLE Weiterlesen Kommentieren Kommentar abbrechen Löschen Von Startseite Seiten Beiträge Siehe Alle FÜR SIE VORGESCHLAGEN LABEL ARCHIV SUCHE ALLE BEITRÄGE Kein Beitrag mit ihrem Kriterium gefunden Zurück zur Startseite Sonntag Montag Dienstag Mittwoch Donnerstag Freitag Sonntag So. Mo. Di. Mi. Do. Fr. Sa. Januar Februar März April Mai Juni Juli August September Oktober November Dzcember Jan. Feb. Mär. Apr. Mai Jun. Jul. Aug. Sep. Okt. Nov. Dez. jetzt gerade vor einer Minute $$1$$ minutes ago vor einer Stunde $$1$$ hours ago Gestern $$1$$ days ago $$1$$ weeks ago mehr als 5 Wochen her Followers Follow DIESER PREMIUM INHALT IST GESPERRT SCHRITT 1: Auf einem sozialen Netzwerk teilen SCHRITT 2: Drücke auf einem sozialen Netzwerk Kopiere den gesamten Code Wähle den gesamten Code aus Alle Codes wurden in deine Zwischenablage kopiert Kann Codes/Texte nicht kopieren, bitte drücke [CTRL]+[C] (or CMD+C bei Mac) um zu kopieren Inhaltsverzeichnis