Predictive Policing är långt mer utbredd än vi en gång tänkt: Rapport

$config[ads_kvadrat] not found

How Cops Are Using Algorithms to Predict Crimes | WIRED

How Cops Are Using Algorithms to Predict Crimes | WIRED

Innehållsförteckning:

Anonim

Att veta hur man skyddar sig mot överträdelser på nätet har blivit en allt viktigare kunskap för att delta i online-livet: Vi förhoppar (förhoppningsvis) våra lösenord och granskar noggrann verifieringsrutan. Men en ny rapport har visat att i städer över hela landet bidrar bara att ringa polisen till en större, mer skrämmande datasida än vad vi någonsin tidigare insett.

Dussintals städer i USA har befunnits ha tidigare okontrollerade kontrakt med PredPol, ett "crime-predicting" -teknologibolag som har jämfört sin mjukvara till en poliserad strategi för "broken windows". De drabbade samhällena, däribland Atlanta, Palo Alto, Calif. Och Tacoma, Wash., Är kollektivt hem till över 1 miljon invånare, enligt dokument som erhållits av utloppet Moderkort genom en serie av begäran om frihet för informationslagen.

Predictive policing använder data som samlats in av polisavdelningar i ett försök att förutsäga när och var brott kommer inträffa. Om den taktiken låter som önsketänkande, ja, det är det, åtminstone väsentligen. Mycket av prediktiv polisutveckling utvecklades från polisstrategin "brutna fönster", som först fick framträdande på 1980-talet. Den nu allmänt kritiserade kriminologiska teorin hävdar att tecken på brott, oordning och antisocialt beteende - som bokstavligen brutna fönster - skapar en stadsmiljö som främjar ytterligare störning och brottslighet, i en mer allvarlig grad. Lösningen var att slå ner på småbrottslighet, i ett försök att motverka den framtida allvarliga brottsligheten. Vad som hände i stället var över-polisering av minoritetssamhällen.

Hur Förekomsten av Predictive Policing gick underrapporterad

Prediktiva poliserande supportrar hävdar dock att data är data. Det är siffror. Det är ofelbart. Men naturligtvis, A.I. är fortfarande byggd av människor, som rutinmässigt stöter på sina till synes objektiva system med rasistisk bias. Prediktiv polis är inte annorlunda. Så tidigt som 2016 uttryckte advokater för medborgerliga rättigheter, inklusive ACLU, oro över den växande användningen av prediktiv polisprogramvara och hävdade att det leder till överpolisering av fattiga och minoritetsgrupper.

"System som är konstruerade för att stödja status quo har ingen plats i amerikansk polis," läser ett uttalande undertecknat av 17 medborgerliga organisationer, inklusive ACLU och NAACP. "Den data som driver prediktiva verkställighetsaktiviteter - som lokalisering och tidpunkten för tidigare rapporterade brott, eller mönster av samhälls- och tjänstemaninitierade 911-samtal - är djupt begränsad och partisk."

En av de viktigaste klagomålen om prediktiv polis är att den endast bygger på rapporterad brottslighet. Det kan inte - det kan inte - ta hänsyn till samhällets faktiska sociala miljö. Dessutom förutsäger prediktiv polisning bara "gatukriminalitet". Programvaran spårar inte brottslig brottslighet. Det stationerar inte FBI-agenter på hörn av Wall Street för att jaga individer som ser mäktigt hungrig ut för att begå insiderhandel.

PredPol, med säte i Santa Cruz, Kalifornien, hävdar att man har en algoritm som kan förutsäga brott i 500 av 500 fotområden. I vissa fall säger de att de även kan hitta specifika blockhörn eller hus. Med hjälp av "stora data och AI" lovar företaget också att "förutsäga var och när biverkningar sannolikt kommer att inträffa: brott, kollisioner, överdoser - vi gör allt", enligt deras Twitter-bio.

Enligt moderkortets dokument har PredPol hållit - och i ett antal fall fortsätter att hålla - dussintals tidigare rapporterade kontrakt med städer över hela landet. Bristen på insyn faller till PredPols ställning som leverantör. Många av deras filer är, tekniskt, allmänhetens kunskaper; men samhällen, särskilt de som faller byte mot överpoliseringen, vet inte vart man ska titta.

$config[ads_kvadrat] not found