Personenbezogenes Predictive Policing

Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose
 
 
Nomos (Verlag)
  • 1. Auflage
  • |
  • erschienen am 15. Mai 2020
  • |
  • 400 Seiten
 
E-Book | PDF mit Adobe-DRM | Systemvoraussetzungen
978-3-7489-0348-2 (ISBN)
 
Verbrechen verhindern bevor sie geschehen? Dieses verlockende Narrativ ist nicht länger nur Science-Fiction. Computergestützte Systeme mit dem Ziel kriminelles Verhalten vorauszusagen werden weltweit eingesetzt. Die Autorin beleuchtet diesen Einsatz kritisch mit rechtswissenschaftlich-interdisziplinärem Zugang. Sie kommt zu dem Ergebnis, dass die Technologie eine Aushöhlung verfassungsrechtlicher Garantien mit sich bringt und beachtliche Risiken für Rechtsstaat und Gesellschaft birgt. Insbesondere droht sich die Kriminalitätskontrolle in eine - in Anlehnung an Arendt - selbstauferlegte Gedankenlosigkeit zu begeben. Die Arbeit schließt mit einem Vorschlag für Mindestanforderungen, an denen sich die Technologie in Zukunft orientieren sollte.
Die Arbeit wurde mit dem ersten Platz des Deutschen Studienpreises der Körber-Stiftung ausgezeichnet.
weitere Ausgaben werden ermittelt
  • Cover
  • Kapitel I. Grundlagen des personenbezogenen Predictive Policing
  • A. Einführung
  • B. Gang der Untersuchung
  • C. Terminologie und Abgrenzung
  • I. Arten des Predictive Policing
  • 1. Personenbezogen und ortsbezogen
  • 2. Gefahrverdacht bestätigend und Gefahrverdacht erzeugend
  • II. Abgrenzung zum Einsatz von Algorithmen im Strafverfahren, Strafvollzug und Ermittlungsverfahren
  • D. Forschungszuschnitt
  • 1. Aktualität
  • 2. Transformatives Potenzial
  • 3. Forschungslücke
  • E. Technologischer Hintergrund
  • I. Traditionelle statistische Verfahren
  • 1. Zusammenstellen der Fallbasis
  • 2. Festlegung der Zielvariablen
  • 3. Festlegung der prädiktiven Inputvariablen
  • 4. Ableitung eines prädiktiven Modells
  • 5. Risikoübersetzung und -kommunikation
  • a) Prozentsatz
  • b) Kriminalitätswahrscheinlichkeit im Vergleich zur Durchschnittsbevölkerung
  • c) Basisrate
  • d) Fehlerrate
  • e) Cut-Off
  • 6. Anwendung auf den Einzelfall
  • a) Personenkreis der Beurteilten
  • b) Personenkreis der Beurteilenden
  • II. Algorithmengestützte Verfahren
  • 1. Regelbasierte algorithmengestützte Entscheidungssysteme
  • 2. Fallbasierte algorithmengestützte Entscheidungssysteme
  • a) Unterschiede: Zusammenstellen des Trainingsdatensatzes (Schritt 1)
  • b) Unterschiede: Festlegung der Zielvariablen (Schritt 2)
  • c) Unterschiede: Festlegung prädiktiver Inputvariablen (Schritt 3)
  • d) Unterschiede: Ableitung eines prädiktiven Modells (Schritt 4)
  • e) Unterschiede: Risikoübersetzung und -kommunikation (Schritt 5)
  • f) Unterschiede: Anwendung auf den Einzelfall (Schritt 6)
  • aa) Personenkreis der Beurteilten
  • bb) Personenkreis der Beurteilenden
  • (1) Von Prognose-Experten zu Prognose-Laien
  • (2) Automation Bias
  • III. Fazit zu technologischem Hintergrund
  • F. Bestandsaufnahme: gegenwärtiger Einsatz
  • I. USA und Großbritannien
  • 1. Beware
  • 2. HART (Harm Assessment Risk Tool)
  • 3. Strategic Subject List
  • 4. Zusammenfassung
  • II. Deutschsprachiger Raum
  • 1. RADAR-iTE (Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus)
  • a) Entwicklung
  • b) Anwendung
  • aa) Personenkreis der Beurteilenden
  • bb) Personenkreis der Beurteilten
  • cc) Intransparenz
  • 2. Palantir Gotham - hessenDATA
  • 3. DyRiAS (Dynamisches Risiko-Analyse-System)
  • a) Entwicklung
  • b) Anwendung
  • aa) Personenkreis der Beurteilenden
  • bb) Personenkreis der Beurteilten
  • 4. Fluggastdatenmusterabgleich
  • 5. Zusammenfassung
  • G. Tatsächliche Grenzen
  • I. Keine Gesamtbetrachtung - Big Data heißt nicht All Data
  • II. Keine Kausalität
  • III. Keine Neutralität
  • 1. Datenauswahlprozesse
  • a) Mangelnde Datenqualität
  • b) Dunkelfeld in den Statistiken
  • c) Keine Repräsentativität der Stichprobe
  • d) Perpetuierung gesellschaftlicher Diskriminierung
  • e) Zwischenfazit und Lösungsmöglichkeiten
  • 2. Festlegung der Zielvariablen
  • 3. Auswahl der Inputvariablen
  • 4. Kalibrierung und Überwachung des Lernprozesses
  • a) Fehlerrate
  • b) Überanpassung - Zufällige Korrelationen
  • 5. Zusammenfassung
  • H. Fazit zum Kapitel I. Grundlagen
  • Kapitel II. Rechtliche Grenzen des personenbezogenen Predictive Policing
  • A. Polizeirechtlicher Rahmen
  • I. Einordnung in die Gefahr-Dogmatik
  • 1. Konkrete Gefahr
  • 2. Gefahrverdacht
  • 3. Risikoscore als konkrete Gefahr?
  • a) Gegenargumente
  • b) Quantifizierbarkeit von normativen Abwägungsentscheidungen
  • 4. Risikoscore als Gefahrverdacht?
  • 5. Risikoscore als ein tatsächlicher Anhaltspunkt
  • 6. Zwischenergebnis
  • II. Fehler der Risikoscoreerstellung
  • III. Ermächtigungsgrundlage
  • 1. Erforderlichkeit einer Ermächtigungsgrundlage
  • 2. Vorliegen einer Ermächtigungsgrundlage
  • a) Standardbefugnisse
  • aa) Rasterfahndung
  • (1) Errichten eines PPP-Systems
  • (2) Erzeugen eines Risikoscores
  • (a) "Stehendes" System
  • (b) "Muster" statt Datenbestand
  • (c) Neues Datum
  • (d) Erhöhte Intransparenz
  • bb) Generalklauseln der Datenspeicherung und Weiterverarbeitung
  • (1) Datenspeicherung in automatisierten Dateisystemen
  • (2) Datenverarbeitung und Datenabgleich
  • (a) Datenverarbeitung
  • (b) Datenabgleich
  • cc) Automatisierte Anwendung zur Datenanalyse
  • b) Allgemeine polizeirechtliche Generalklausel
  • c) Datenschutzrecht
  • d) Fluggastdatengesetz
  • 3. Neue Standardbefugnis
  • B. Verfassungsrechtlicher Rahmen
  • I. Informationelle Selbstbestimmung
  • 1. Umfang
  • a) Entscheidung über die Preisgabe und Verwendung persönlicher Daten
  • b) Geschützte Daten
  • c) Verbot der Persönlichkeitsprofilbildung
  • d) Gemeinwohldimension und Einschüchterungseffekte
  • 2. Grenzen und Verhältnismäßigkeit
  • 3. Konkrete Anforderungen des Rechts auf informationelle Selbstbestimmung an PPP
  • a) Vorliegen einer hohen Eingriffsintensität
  • aa) Heimlichkeit und Mangel an Transparenz
  • bb) Streubreite
  • cc) Automatisierung
  • dd) Nähe zu Persönlichkeitsprofilen
  • ee) Stigmatisierung
  • b) Folgen einer hohen Eingriffsintensität
  • aa) Hinreichend gewichtige Straftaten
  • bb) Konkrete Gefahr
  • (1) Anforderung des BVerfG zur Rasterfahndung
  • (2) Kein Absenken der Eingriffsschwelle unter eine konkrete Gefahr
  • c) Organisations- und Verfahrensvorgaben
  • 4. Zusammenfassung
  • II. Diskriminierungsverbot
  • 1. Einführung
  • 2. Quellen algorithmischer Diskriminierung
  • a) Datenauswahlprozesse
  • b) Festlegung der Zielvariablen
  • c) Auswahl der Inputvariablen
  • d) Kalibrierung und Überwachung des Lernprozesses
  • 3. Rechtliche Einordnung
  • a) Gleichheitssätze
  • aa) Besondere Gleichheitssätze
  • (1) Ungleichbehandlung
  • (2) Frage nach einer Rechtfertigung
  • bb) Allgemeiner Gleichheitssatz
  • (1) Ungleichbehandlung
  • (2) Frage nach einer Rechtfertigung
  • b) Besonderheiten im Rahmen von PPP
  • aa) Erkennen einer Ungleichbehandlung
  • bb) Ausdifferenzierte Fallgruppen der Ungleichbehandlung
  • cc) Statistische Rechtfertigungen
  • (1) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 3 S. 1 GG
  • (a) Argument des "Rational Racism"
  • (b) Argument des "kleineren Übels"
  • (2) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 1 GG
  • 4. Fazit zum Diskriminierungsverbot
  • III. Transparenzgebot
  • 1. Exkurs: Janusköpfigkeit des Blackbox-Narrativs
  • 2. Drei Schichten der Intransparenz
  • a) Begriffsklärung
  • aa) Unzugänglichkeit qua Geheimhaltung
  • bb) Unzugänglichkeit qua fehlendem Fachwissen
  • cc) Unzugänglichkeit qua systemimmanenter Komplexität
  • (1) Fallbasierte algorithmische Entscheidungssysteme
  • (2) Regelbasierte algorithmische Entscheidungssysteme
  • (3) Beispiele
  • (4) Lösungsansätze: "Explainable AI"
  • b) Fazit zu Transparenzschichten
  • 3. Transparenzmechanismen
  • a) Erste Transparenzdimension: Zeitpunkt der Offenlegung
  • b) Zweite Transparenzdimension: Zur Einsichtnahme berechtigter Personenkreis
  • aa) Subjektiv Betroffene
  • (1) Einzelperson
  • (2) Kollaboratives Crowdsourcing
  • bb) Staatliche Kontrollinstitution
  • (1) Mögliche Ausgestaltungen
  • (2) Personelle Ausstattung
  • (3) Organisatorisch-strukturelle Überlegungen
  • (4) Fazit zu staatlichen Kontrollinstitutionen
  • cc) Breite Öffentlichkeit
  • dd) Fazit zum zur Einsichtnahme berechtigten Personenkreis
  • c) Dritte Transparenzdimension: Umfang der Offenlegung
  • aa) Abstrakte Informationen
  • (1) Existenz und Einsatz im Einzelfall
  • (2) Abstrakte Wirkungsprinzipien
  • (3) Quellcode
  • (4) Output-Testing
  • (5) Protokollierungspflichten der Designphase
  • bb) Begründung im Einzelfall
  • cc) Fazit zum Transparenzgebot
  • 4. Argumente gegen Transparenz
  • a) Unmöglichkeit von Transparenz
  • b) Unnötigkeit von Transparenz
  • aa) "Human in the Loop"
  • bb) Vergleich mit bereits bestehender Intransparenz
  • c) Überwiegen konkurrierender Interessen
  • aa) Betriebsgeheimnis
  • bb) Ausspähung des Algorithmus
  • cc) Datenschutz Dritter
  • dd) Fazit zum Überwiegen konkurrierender Interessen
  • d) Fazit zu Argumenten gegen Transparenz
  • 5. Rechtliche Verortung des Transparenzgebots
  • a) Einfachgesetzlich
  • aa) Datenschutzrecht
  • bb) Informationsfreiheitsgesetze
  • cc) Verwaltungsprozessrecht
  • b) Verfassungsrecht
  • aa) Menschenwürdekern des Rechts auf informationelle Selbstbestimmung
  • bb) Demokratieprinzip
  • (1) Legitimationskette
  • (2) Demokratische Willensbildung
  • (3) Demokratische Kontrolle
  • cc) Rechtsstaatsprinzip
  • 6. Fazit zum Transparenzgebot
  • IV. Unschuldsvermutung
  • C. Strafprozessuale Betrachtung: Umwidmung zum Tatermittlungswerkzeug
  • I. Vorüberlegungen
  • 1. Keine Beweisgeeignetheit
  • 2. Zweifelhafte Aufklärungsgeeignetheit als Spurenansatz
  • 3. Keine Ermittlungen "ins Blaue hinein"
  • 4. Konkreter Ermittlungsansatz
  • II. "Doppeltüren" der Datenweiterverarbeitung
  • 1. Doppeltür: gefahrenabwehrrechtliche Seite
  • 2. Doppeltür: strafprozessuale Seite
  • a) § 98 c S. 1 StPO: maschineller Abgleich von Daten
  • aa) Fehlen besonderer Eingriffsschwellen
  • bb) Keine Anwendbarkeit auf PPP
  • b) § 161 Abs. 2 StPO: katalogabhängige Maßnahmen der Datenerhebung
  • c) §§ 161 Abs. 1, 163 Abs. 1 StPO: Ermittlungsgeneralklausel
  • aa) Vergleich mit der Onlinedurchsuchung vor 2017
  • (1) e. A. Zulassen der Verwendung als Spurenansatz
  • (2) a. A. Ablehnung jeglicher Verwertung
  • bb) Übertragung auf PPP
  • III. Fazit zur Umwidmung zum Tatermittlungswerkzeug
  • D. Fazit zum Kapitel II. Rechtliche Grenzen
  • Kapitel III. Algorithmische Wende in der Kriminalitätskontrolle - kriminologische, soziologische und rechtstheoretische Analyse
  • A. Risiko: eine Begriffsbestimmung
  • I. Doppeldeutigkeit
  • II. Negative Konnotation in der Risikogesellschaft
  • III. Ungleiche Verteilung von Risiken
  • IV. Gesellschaftliche Sinnzuweisung
  • V. Quantitative Risikoabschätzung
  • VI. Risikowahrnehmung
  • VII. Tolerierte Risiken
  • VIII. Begriffliche Abgrenzung von Risiko und Gefahr
  • IX. Fazit zu Risiko
  • B. Gegenwärtige Situation: Risikogestützte Kriminalitätskontrolle
  • I. Exemplarische Normen der Risikoorientierung
  • 1. Materielles Strafrecht - Versuchsvorfeld
  • a) § 89 a StGB - Vorbereitung einer schweren staatsgefährdenden Gewalttat
  • b) § 129 a StGB - Bildung terroristischer Vereinigungen
  • c) Gruppenrisiko einer zukünftigen ungewissen Rechtsgutsverletzung
  • 2. Strafprozessrecht
  • 3. Sanktionenrecht
  • 4. Polizeirecht
  • 5. Zusammenfassung
  • II. Kriminologische, soziologische und rechtstheoretische Interpretationsansätze
  • 1. Risikostrafrecht - Strafrecht als Großsteuerungsmittel
  • 2. Kriminalpräventionsrecht und symbolisches Strafrecht
  • 3. Risikokriminologie
  • 4. Feindstrafrecht - Die "riskante" Person als Feind?
  • 5. Sicherheitsgesellschaft
  • 6. Actuarial Turn
  • 7. Zusammenfassung
  • C. Entwicklung: Algorithmengestützte Kriminalitätskontrolle - Merkmale der algorithmischen Wende
  • I. Fortschreibung der risikogestützten Kriminalitätskontrolle
  • 1. Vorfeldfokussierung
  • 2. Individualisierte Risikozuschreibung anhand überindividueller Gruppenmerkmale
  • 3. "Feind"-Perspektive
  • 4. Verschleierung politischer Wertentscheidungen
  • 5. Sonderopfer
  • 6. Zusammenfassung
  • II. Neue Herausforderungen
  • 1. Rückkehr der Lebensführungsschuld
  • a) Strafrecht
  • b) Polizeirecht
  • 2. Legitimitätsverlust durch mangelnde Verfahrensgerechtigkeit
  • a) Legitimität und Rechtsbefolgung
  • b) Kernelemente der Verfahrensgerechtigkeit
  • c) Stand der Forschung in Deutschland
  • d) Verfahrensgerechtigkeit algorithmengestützter Entscheidungssysteme
  • aa) Beteiligung
  • bb) Neutralität
  • cc) Respektvoller Umgang
  • dd) Vertrauen in die Motive
  • e) Transparenz als Antwort auf mangelnde Verfahrensgerechtigkeit
  • f) Zusammenfassung
  • 3. Kriminalitätskontrolle ohne Kriminologie
  • a) Algorithmenkundige Kriminologie
  • aa) Nutzen algorithmengestützter Methoden für die Kriminologie
  • bb) Kritische Begleitung algorithmengestützter Kriminalitätskontrolle
  • b) Zusammenfassung
  • 4. Selbst auferlegte Gedankenlosigkeit
  • a) Anwendung auf algorithmengestützte Entscheidungssysteme
  • aa) Entmenschlichung - "Moral Buffer"
  • bb) Verantwortungsentledigung - Vom Werkzeug zur Autoritätsfigur
  • cc) Zwischenergebnis
  • b) Steigerung: Selbst verschuldete Unmündigkeit - Bewusstes Begeben in eine Situation des "Nicht-Verstehen-Könnens"
  • aa) Deskilling
  • bb) Systemimmanent intransparente Entscheidungsverfahren
  • cc) "Übermenschlich" mediierte Wissensvermittlung
  • c) Zwischenergebnis
  • 5. Zwang des Rechts unter die Maschinenlogik
  • 6. Zwischenfazit zu Neuen Herausforderungen
  • D. Fazit zum Kapitel III. Algorithmische Wende
  • Kapitel IV. Empfehlungen für Mindestanforderungen an algorithmengestützte Straftatprognosen
  • A. Entwicklungsmodalitäten
  • I. Nachvollziehbarkeit und Transparenz
  • II. Unvoreingenommenheit
  • B. Einsatzmodalitäten
  • I. Rechtsgrundlage
  • II. Risikokommunikation
  • C. Kontrollmodalitäten
  • D. Fazit zum Kapitel IV. Empfehlungen für Mindestanforderungen
  • Kapitel V. Schlusswort: Tyrannenmord und Neuanfang
  • Kapitel VI. Thesen
  • Literaturverzeichnis

Dateiformat: PDF
Kopierschutz: Adobe-DRM (Digital Rights Management)

Systemvoraussetzungen:

Computer (Windows; MacOS X; Linux): Installieren Sie bereits vor dem Download die kostenlose Software Adobe Digital Editions (siehe E-Book Hilfe).

Tablet/Smartphone (Android; iOS): Installieren Sie bereits vor dem Download die kostenlose App Adobe Digital Editions (siehe E-Book Hilfe).

E-Book-Reader: Bookeen, Kobo, Pocketbook, Sony, Tolino u.v.a.m. (nicht Kindle)

Das Dateiformat PDF zeigt auf jeder Hardware eine Buchseite stets identisch an. Daher ist eine PDF auch für ein komplexes Layout geeignet, wie es bei Lehr- und Fachbüchern verwendet wird (Bilder, Tabellen, Spalten, Fußnoten). Bei kleinen Displays von E-Readern oder Smartphones sind PDF leider eher nervig, weil zu viel Scrollen notwendig ist. Mit Adobe-DRM wird hier ein "harter" Kopierschutz verwendet. Wenn die notwendigen Voraussetzungen nicht vorliegen, können Sie das E-Book leider nicht öffnen. Daher müssen Sie bereits vor dem Download Ihre Lese-Hardware vorbereiten.

Bitte beachten Sie bei der Verwendung der Lese-Software Adobe Digital Editions: wir empfehlen Ihnen unbedingt nach Installation der Lese-Software diese mit Ihrer persönlichen Adobe-ID zu autorisieren!

Weitere Informationen finden Sie in unserer E-Book Hilfe.


Download (sofort verfügbar)

104,00 €
inkl. 7% MwSt.
Download / Einzel-Lizenz
PDF mit Adobe-DRM
siehe Systemvoraussetzungen
E-Book bestellen