Dominik Gerstner | Rezension |

Die Verbrecher von morgen?

Rezension zu „Personenbezogenes Predictive Policing. Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose“ von Lucia M. Sommerer

Abbildung Buchcover Personenbezogenes Predictive Policing von Lucia Sommerer

Lucia M. Sommerer:
Personenbezogenes Predictive Policing. Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose
Deutschland
Baden-Baden 2020: Nomos
400 S., 104,00 EUR
ISBN 978-3-8487-6233-0

Ein entsprechend programmierter Algorithmus berechnet, dass Person X aufgrund bestimmter Merkmale potenziell ein Verbrechen begehen könnte. Um dies präventiv zu verhindern, entscheidet ein Gericht, dass Person X von nun an eine elektronische Fußfessel tragen muss und auch nicht mehr verreisen darf. Dieses abwegige Szenario, von dem wir zumindest in Deutschland[1] noch weit entfernt sind, erscheint im Lichte des Buches von Lucia M. Sommerer gar nicht mehr so unwahrscheinlich. Denn auch hierzulande nehmen algorithmische Entscheidung zunehmend Einfluss auf Kriminalprävention, Verbrechensbekämpfung und gerichtliche Entscheidungen. Sommerer wirft in ihrem Buch deshalb wichtige Fragen zum gesellschaftlichen und rechtlichen Umgang mit personenbezogenem Predictive Policing (PPP) auf und untersucht dieses kritisch. Das Werk schließt mit Handlungsempfehlungen, ob und unter welchen Bedingungen PPP eingesetzt werden kann und darf.

Der Begriff „Predictive Policing“, zu Deutsch: vorhersagebasierte oder auch vorrausschauende Polizeiarbeit, hat in den letzten Jahren einige Aufmerksamkeit bekommen. Beim ortsbezogenen Predictive Policing werden durch die Auswertung von Daten mittels prädiktiver Algorithmen Prognosen über zukünftige Kriminalität in bestimmten Gebieten erstellt, auf deren Basis die Polizei Maßnahmen ergreift, um die vorhergesagten Straftaten nach Möglichkeit zu verhindern.[2] Beim PPP wiederum „wird die Wahrscheinlichkeit, dass einzelne Personen zukünftig eine Straftat begehen, bestimmt“ (S. 37); dabei liegt auf der Hand, dass diese Form der vorausschauenden Polizeiarbeit in vielerlei Hinsicht problematischer ist und je nach Ausführung deutlich in das verfassungsrechtlich garantierte Recht auf informationelle Selbstbestimmung eingreift.[3] Wie auch bei der ortsbezogenen Variante geht es beim PPP stets ‚nur‘ um die Vorhersage von Wahrscheinlichkeiten und nicht um konkrete Taten. Gerade dieser Aspekt bringt weitere Schwierigkeiten mit sich: Denn wie soll mit der inhärenten Unsicherheit umgegangen werden? Immerhin würden falsche Prognosen beim PPP dazu führen, dass Personen zu Unrecht sanktioniert und/oder überwacht würden, beispielsweise durch eine elektronische Fußfessel. Daher stellen sich die Fragen, wie die algorithmischen Prognosen zu Stande kommen, wo sie eingesetzt werden und inwieweit sie überhaupt Basis von präventiven Maßnahmen und Sanktionen sein dürfen. Die (Teil-)Automatisierung von Kriminalitätskontrollen durch PPP ist somit ein Konfliktfeld, das Lucia M. Sommerer aus kriminologischer und rechtswissenschaftlicher Perspektive in vier umfangreichen Kapiteln systematisch aufspannt, kundig aufbereitet und kritisch bewertet.

Im ersten Kapitel legt die Autorin dar, was PPP als algorithmisches Verfahren kennzeichnet und wie es sich von statistischen Verfahren zur Rückfallprognose und von ortsbezogenen Vorhersagen unterscheidet. Dabei bezieht sie sich sowohl auf Systeme, die bereits in anderen Ländern zum Einsatz kommen (wie das bekannte Beispiel der Strategic Subject List aus Chicago), als auch auf Ansätze aus Deutschland. Zu Letzteren zählt zum Beispiel der umstrittene Fluggastdatenmusterabgleich, der nach Meinung der Autorin bereits eine Form des Gefahrverdacht erzeugenden personenbezogenen Predictive Policing darstellt und von dem alle Flugreisenden – und somit nahezu alle Bevölkerungsschichten – betroffen sind. Hierbei erfolgt ein automatisierter Abgleich von Fluggastdaten durch das Bundeskriminalamt (BKA) mit zwanzig verschiedenen Variablen (zum Beispiel Zahlungsinformation, E-Mail-Adresse, Mitreisende, Angaben zum Vielflieger-Eintrag ), durch den zuvor unbekannte Personen identifiziert werden sollen, „bei denen ein hohes Risiko für eine terroristische Straftat oder eine Straftat aus dem Bereich der schweren Kriminalität besteht“ (S. 96). Wie genau welche Parameter in den Algorithmus eingehen und was letztlich zur berichteten Trefferquote von 0,07 Prozent an auffälligen Personen führt, legt das BKA nicht offen. Als weitere Beispiele diskutiert Sommerer den Einsatz der Palantir Gotham Software in Hessen oder das ebenfalls vom BKA verwendete RADAR-iTE, die beide als Vorstufen des PPP zu betrachten sind.

Anhand der Beispiele macht Sommerer dann auch deutlich, dass für PPP ein gesetzlicher Rahmen notwendig ist, und erörtert die rechtlichen Grenzen und Bedingungen sodann im zweiten Kapitel. Interessant ist hierbei unter anderem die Einordnung in den polizeirechtlichen Gefahrenbegriff, der besagt, dass präventive Eingriffe nur dann rechtlich zulässig sind, wenn tatsächliche Anhaltspunkte und eine Schadensprognose vorliegen. Hierbei stellt sich die Frage, wie mit algorithmisch erzeugten Wahrscheinlichkeitswerten und deren inhärenter Unsicherheit in Bezug auf gültige Rechtslagen umzugehen ist.

Sommerer arbeitet dabei detailliert heraus, dass PPP nur als „algorithmisches Entscheidungsunterstützungssystem […], nicht aber als ein den Menschen ersetzendes […] Entscheidungssystem“ (S. 134) wirken kann. Denn der automatisch generierte Wert gilt nach geltendem Polizeirecht eben nicht als konkrete Gefahr oder Gefahrenverdacht und kann daher nur in Kombination mit weiteren Anhaltspunkten zu den Umständen des Einzelfalls für eine von Menschen erstellte Prognose genutzt werden. So müssen beispielsweise Beamt*innen des BKA die Treffer des oben genannten Flugastdatenmusterabgleichs prüfen, bevor weitere Maßnahmen erfolgen. Wie die Einzelfallprüfung konkret erfolgt, ist laut der Autorin jedoch nicht bekannt. Weiter bewertet die Juristin das PPP im Zusammenhang mit dem Recht auf informationelle Selbstbestimmung, dem Diskriminierungsverbot sowie rechtlich und gesellschaftlich erforderlicher Transparenz.

Während das zweite Kapitel eher die an rechtswissenschaftlichen Fakten interessierten Leser*innen ansprechen dürfte, nimmt das dritte Kapitel eine stärkere kriminologische, soziologische und rechtstheoretische Perspektive ein. Es untersucht, welche grundlegend neuen Herausforderungen mit der „algorithmischen Wende“ bei der Straftatenprognose und den damit aufgeworfenen „einschneidende[n] neue[n] Problemstellungen“ (S. 260) verbunden sind. Konkret geht es hierbei zum Beispiel um die Einordnung von Risikowahrnehmungen (in) einer Gesellschaft („Wie sicher ist sicher genug?“ [S. 269]), um Risikoquantifizierung und darum, inwieweit die Bemühungen, Risiken im Bereich des Terrorismus frühzeitig zu identifizieren und zu beseitigen auf die Kriminalitätskontrolle und -bekämpfung generell abfärben.

Zudem beschäftigt sich Sommerer mit Fragen der Verfahrensgerechtigkeit. So kann ein Bias in den Eingangsdaten (etwa durch auf Vorurteilen beruhende Kontrollen) die Entscheidungen der Predictive-Policing-Systeme beeinflussen. Aufgrund dieser und anderer Verzerrungen (beispielsweise in der Programmierung der Algorithmen) sind die algorithmischen Entscheidungen gegenüber den Betroffenen letztlich nicht begründbar. Dies trifft im Besonderen auf komplexe Methoden wie selbstlernende neuronale Netze zu. Sommerer überlegt also zu Recht, ob im Zuge einer Fokussierung auf Algorithmen der Einfluss sozialwissenschaftlicher Theorien auf die Kriminalpolitik abnimmt, während sich die Akteure unter Umständen weniger verantwortlich fühlen und weniger in der Lage sind, eigene Entscheidungen zu treffen.

PPP-Systeme sollen nur dann Anwendung finden, wenn sie transparent und unvoreingenommen programmiert sind, lediglich eine Entscheidungshilfe darstellen und auf parlamentarischen Abstimmungen fußen.

Das vierte Kapitel ist Schlussfolgerungen und Handlungsempfehlungen gewidmet. Letztere beziehen sich auf die Bereiche Entwicklung, Einsatz und Kontrolle von PPP und fußen nicht auf empirischen Untersuchungen von angewandten PPP-Systemen, sondern auf den zuvor ausgebreiteten theoretischen Überlegungen. Damit will Lucia Sommerer Anhaltspunkte dafür liefern, „an welchen Stellen des Algorithmendesigns Wertentscheidungen nicht allein von Programmierern getroffen werden dürfen, sondern im Rahmen einer demokratischen Debatte offengelegt werden müssen“ (S. 343). PPP-Systeme sollen nur dann Anwendung finden, wenn sie transparent und unvoreingenommen programmiert sind, lediglich eine Entscheidungshilfe darstellen und auf parlamentarischen Abstimmungen fußen. Zur Kontrolle empfiehlt die Autorin ein „Transparenzdreieck bestehend aus öffentlicher Registrierungspflicht, subjektiven Betroffenenrechten und der Einrichtung einer staatlichen Kontrollstelle“ (S. 347). Das bedeutet zum einen, dass Entscheidungen, die in der Entwicklungsphase getroffen wurden, bei einer Registrierstelle öffentlich einsehbar sind, dass Personen zweitens ihr ‚Score-Ergebnis‘ abfragen und gerichtlich anfechten können und drittens, dass eine dauerhafte Kontrolle durch eine interdisziplinär besetzte staatliche Kontrollinstanz stattfinden sollte.

Das Buch endet mit einem kurzen Schlusswort (Kapitel 5) und einer Sammlung von Thesen (Kapitel 6), die nochmals eine Zusammenfassung des Inhalts geben. Abschließend bleibt zu erwähnen, dass das Buch in der Reihe „Schriften zu Kriminologie“ im Nomos Verlag erschienen und eine juristische Dissertation ist. Dennoch ist das Werk auch für Leser*innen ohne juristischen Hintergrund weitgehend verständlich geschrieben und ansprechend aufgebaut. Datenfreaks und eher technisch interessierte Leser*innen werden hier nicht auf ihre Kosten kommen, da ein tieferer Einblick in Techniken und Funktionsweisen von PPP-Systemen fehlt.

Unter dem Strich gilt, dass das eingangs genannte fiktive Szenario in Deutschland nicht ohne tiefgreifende Gesetzesänderungen möglich wäre. Ansätze und Bestrebungen, Verbrechen mittels Algorithmen zu unterbinden bevor sie geschehen, sind jedoch auch hierzulande bereits vorhanden. Es ist anzunehmen, dass algorithmische Entscheidungen und personenbezogenes Predictive Policing mit stetig fortschreitenden technischen Entwicklungen, möglichen Änderungen der Rechtslage und sich wandelnden Stimmungsbildern in der Gesellschaft dynamische Themen innerhalb der Sozial- und Rechtswissenschaften bleiben.[4] Das Buch von Lucia M. Sommerer stellt somit eine Momentaufnahme dar. Da sie sich aber vorbildlich auf realistische und plausible Entwicklungen konzentriert, wird ihre Arbeit für Leser*innen unterschiedlicher Disziplinen dennoch lange interessant bleiben und auch in Zukunft eine solide Diskussionsgrundlage liefern.

  1. Im 2020 von China eingeführten Sozialkreditsystem, das Bürger*innen per Algorithmus belohnt oder bestraft, könnte dies hingegen durchaus so oder so ähnlich eintreten. Vgl. bspw. Theo Sommer, Überwachungsstaat China, in: Oliver Everling (Hg.), Social Credit Rating. Reputation und Vertrauen beurteilen [12.3.2021], Wiesbaden 2020, 203–207.
  2. Für Deutschland existiert eine Fülle an empirischen Studien und Übersichtsartikeln zum Einsatz, zur Funktionsweise und zum Nutzen von ortsbezogenem Predictive Policing. Vgl. bspw. Simon Egbert / Susanne Krasmann, Predictive Policing. Eine ethnographische Studie neuer Technologien zur Vorhersage von Straftaten und ihre Folgen für die polizeiliche Praxis. Projektabschlussbericht [12.3.2021], Hamburg 2019; Dominik Gerstner, Predictive Policing als Instrument zur Prävention von Wohnungseinbruchdiebstahl. Evaluationsergebnisse zum Baden-Württembergischen Pilotprojekt P4 [12.3.2021], Freiburg 2017; Alexander Gluba, Predictive Policing – eine Bestandsaufnahme. Historie, theoretische Grundlagen, Anwendungsgebiete und Wirkung [12.3.2021], Hannover 2014, S. 1–16; Landeskriminalamt Nordrhein-Westfalen (Hg.), Abschlussbericht Projekt SKALA [12.3.2021], Düsseldorf 2018; Landeskriminalamt Niedersachsen (Hg.), PreMAP – Predictive Policing in Niedersachsen. Bericht zur Bewertung der ersten Projektphase [12.3.2021], Hannover 2018.
  3. Auch das ortsbezogene PP kann Individuen durch anlasslose Kontrollen benachteiligen (Stichwort racial profiling), allerdings beziehen sich die algorithmischen Prognosen hierbei nicht auf konkrete Einzelpersonen oder konkrete Gruppen.
  4. So wird zum Beispiel seit dem Frühjahr 2020 auch in Nordrhein-Westfalen die erwähnte Software von Palantir eingesetzt. Siehe Landeskriminalamt NRW (Hg.), Neue Analysetechnik bei Verbrechensbekämpfung und Gefahrenabwehr [12.3.2021], Pressemitteilung, 14.1.2020.

Dieser Beitrag wurde redaktionell betreut von Wibke Liebhart.

Kategorien: Daten / Datenverarbeitung Rassismus / Diskriminierung Recht Sicherheit

Abbildung Profilbild Dominik Gerstner

Dominik Gerstner

Dominik Gerstner ist wissenschaftlicher Mitarbeiter in der kriminologischen Abteilung des Max-Planck-Instituts zur Erforschung von Kriminalität, Sicherheit und Recht. Neben vorwiegend empirischer Forschung in den Bereichen Jugenddelinquenz, räumliche Analysen von Kriminalität und methodische Experimente mittels virtueller Realität beschäftigt er sich mit dem Thema Predictive Policing. Dazu hat er eine Evaluation des Pilotprojekts Predictive Policing der baden-württembergischen Polizei durchgeführt.

Alle Artikel

Empfehlungen

Patrick Hönig

Die Logik der Exklusion

Rezension zu „The Crimmigrant Other. Migration and Penal Power“ von Katja Franko

Artikel lesen

Ear Hustle

Aus der Black Box Gefängnis.

Artikel lesen

Markus Abraham

Die Erschütterung der strafenden Gesellschaft

Rezension zu „Der Wille zum Strafen“ von Didier Fassin

Artikel lesen