En algoritm testas i San Francisco för att sätta förhandsbeslut

$config[ads_kvadrat] not found

PilotsEYE.tv - A380 Landing KSFO San Francisco SUBTITLES English | without commentary |

PilotsEYE.tv - A380 Landing KSFO San Francisco SUBTITLES English | without commentary |
Anonim

Det straffrättsliga systemet ligger mitt i en algoritmisk förändring. Omkring 30 jurisdiktioner - inklusive hela staterna Arizona, Kentucky och New Jersey, liksom städer som San Francisco och Chicago - har testat en algoritm som sätter kostnaden för borgen baserat på landsomfattande kriminalregisterdata. Inte alla domare är nödvändigtvis redo att ta de digitala rekommendationerna till hjärtat.

Algoritmen skapades av Houston-baserade Laura och John Arnold Foundation, och kallas Public Safety Assessment, eller PSA. Målet med algoritmen är att dra nytta av att man ställer in borgen genom att använda data från 1,5 miljoner pretrialfall. Tidigare har algoritmer dock haft samma fördomar hos de människor som gör dem.

Nio faktorer går in i algoritmen, per stiftelsens hemsida:

  • Huruvida den aktuella överträdelsen är våldsam
  • Huruvida personen har en väntande avgift vid anhållandet
  • Oavsett om personen har en tidigare misdemeanor övertygelse
  • Oavsett om personen har en tidigare felony conviction
  • Huruvida personen har en tidigare dom för ett våldsamt brott
  • Personens ålder vid anhållandet
  • Oavsett om personen misslyckades med att förekomma vid en försöksförhandling under de senaste två åren
  • Oavsett om personen misslyckades med att förekomma vid en förhörsförhandling för mer än två år sedan
  • Huruvida personen tidigare har dömts till fängelse.

Algoritmen tar inte hänsyn till ras, kön, inkomst, utbildning, sysselsättning eller grannskap. Detta, enligt grunden, gör PSA neutral.

Dock har domare i San Francisco inte konsekvent följt rekommendationerna San Francisco Chronicle rapporter.

San Francisco flyttade för att använda algoritmen efter att staden stämdes av en nationell medborgerlig rättighetsgrupp som hävdade orimliga borgen skadade de fattiga mer än de rika. Rika människor som begick mindre brott köpte sig ut ur fängelset, medan fattiga människor som inte hade råd med alltför stora borrmängder lämnades i en anläggningscell tills en rättegång kunde planeras.

PSA var tänkt att jämföra spelplanen genom att titta på data, snarare än det omedelbara brottet. Algoritmen använder historiska data för att bedöma hur sannolikt det är att en person kommer att begå ett annat brott eller undvika rättegång om han sätter på borgen, Minoritetsrapport stil. Om sannolikheten är hög är borgen högre och vice versa.

En liknande algoritm skapad av Northpointe användes för att styra fängelsemeddelanden. ProPublica publicerade resultaten av en undersökning i maj som fann att "riskbedömning" -poängen som gjordes av Northpoints algoritm förutspådde oproportionerligt att svarta människor mer sannolikt skulle begå ett annat brott än vita människor efter att de kom ut. Bara 20 procent av Northpoints förutsägelser var korrekta.

Avancerad kartläggningsteknik och stora data bidrar däremot också till att brottsbekämpning identifierar och poliserar kriminella hotspots.

Stiftelsens algoritm syftar till att undvika en liknande bias genom att ta bort några demografiska indikatorer. Huruvida det verkligen fungerar, kommer dock inte att ses tills domare faktiskt börjar förlita sig på algoritmer över prejudikat och intuition.

$config[ads_kvadrat] not found