Wenn Behörden Algorithmen zur Strafverfolgung nutzen, dürfen diese keinen Bias haben. Doch dem ist noch immer nicht so, wie Forscher in den USA demonstrieren. Es ist seit längerem bekannt, dass von Vollzugsbehörden verwendete Vorhersage-Algorithmen, sogenanntes Predictive Policing, keinesfalls frei von Vorurteilen ist. Eine Vielzahl an Studien hatte gezeigt, dass rassistische Feedback-Schleifen auftreten können, wenn Algorithmen auf bestimmten Polizeidaten, beispielsweise zu Verhaftungen, basieren. Neue Forschung zeigt nun, dass auch überarbeitete Trainingsmethoden für maschinelles Lernen, die diesen Bias eigentlich verringern sollte, nur wenig Wirkung zeigen. Das ergibt sich aus frisch erfassten Daten aus den Vereinigten Staaten, wo die Technik besonders häufig zum Einsatz kommt. In Modellen eingebauter Rassismus Die Nutzung von Verhaftungsdaten führt klassischerweise zu Vorurteilen in den Modellen: Schließlich ist bekannt, dass die Polizei in Stadtteilen, in denen viele schwarze Personen oder Angehörige anderer Minderheiten leben, vermehrt Festnahmen durchführt. Auf diese Weise empfiehlt ein Algorithmus eine strengere Überwachung in diesen Gegenden, was wiederum zu weiteren Verhaftungen führt. Im Ergebnis können polizeiliche Vorhersage-Tools Polizeibestreifungen falsch zuweisen: Einige Stadtteile sind zu Unrecht als kriminelle Brennpunkte ausgewiesen, während andere viel zu wenig kontrolliert werden. Mittlerweile haben viele Entwickler von Predictive-Policing-Software die Problematik erkannt und beginnen damit, anstelle von Festnahmedaten mit Opferberichten (Victim Reports) zu arbeiten. Sie erhoffen sich darüber ein zutreffenderes Bild der Kriminalitätsraten in den unterschiedlichen Teilen einer Stadt. In der Theorie sollten Opferberichte weniger voreingenommen sein, da sie unabhängig von polizeilichen Vorurteilen und besagten Feedback-Schleifen entstehen.

via heise: Predictive Policing: Studien sehen weiterhin Rassismus