Vanligt datorprogram förutsätter recidivism så dåligt som människor

$config[ads_kvadrat] not found

Matemaattinen mallinnus: kalaparvi. (CC ENG)

Matemaattinen mallinnus: kalaparvi. (CC ENG)
Anonim

Precis som en professionell kock eller hjärtkirurg är en maskinalgoritm bara lika bra som träningen. Och eftersom algoritmer i allt högre grad tar regeringar och fattar beslut för människor, upptäcker vi att många av dem inte fick den finaste utbildningen, eftersom de efterliknar mänskliga rasen- och könsbaserade fördomar och till och med skapar nya problem.

Av dessa skäl gäller det särskilt att flera stater, inklusive Kalifornien, New York och Wisconsin, använder algoritmer för att förutse vilka personer som kommer att begå brott igen efter att de har blivit fängslade. Ännu värre verkar det inte ens fungera.

I en tidning publicerad onsdag i tidningen Science Advances, ett par datavetenskapare vid Dartmouth College fann att ett allmänt använt datorprogram för att förutsäga återfall är inte mer exakt än helt utbildade civila. Detta program, som kallas Korrektiva Offender Management Profiling for Alternative Sanctions, analyserar 137 olika faktorer för att avgöra hur sannolikt det är att en person kommer att begå ett annat brott efter frisläppandet. COMPAS anser att faktorer som substansanvändning, social isolering och andra faktorer som kriminologer teoretiserar kan leda till återfall, rangordna människor som hög, medel eller låg risk.

Visst är riskbedömningen bra. Varför inte ha mer information för att hjälpa domstolen att avgöra vem som är större risk? Men vad Dartmouth datavetenskapare Julia Dressel och Hany Farid fann var att otränade individer dömde korrekt risken för återfall med ungefär samma noggrannhet som COMPAS, vilket tyder på att algoritmens antagna kraft inte är faktiskt där.

I en försök som inkluderade bara en bråkdel av den information som användes av COMPAS (sju faktorer i stället för 137 och exklusiv ras), utvärderades en grupp mänskliga volontärer på internet, med förmodligen ingen utbildning i kriminalriskbedömning, fallrapporter. De uppskattade korrekt en persons återfall med 67 procent noggrannhet jämfört med COMPAS 65 procents noggrannhet.

Ta en stund att låt det sjunka in. Orenade människor på webben var lite bättre för att förutsäga om en person skulle gå tillbaka till fängelset än verktyget som är bokstavligen utformat för att förutsäga om en person skulle gå tillbaka till fängelse. Och det blir värre. När du väl har lagt till ett svarandes lopp var volontärens falskt positiva och falsk-negativa priser inom bara några procentenheter av COMPAS. Så inte bara COMPAS är inte så bra för att förutsäga återfall, det är lika benäget för raseri som människor är. Så mycket för datorns kalla logik.

Forskarna gjorde då en linjär modell som matchade COMPAS förutsägelse med bara två faktorer: ålder och antal tidigare domar. Bara för att vara tydlig, skulle denna förutsägelse också vara orättvist, men det visar bara hur felaktigt COMPAS är.

Och medan den här forskningen är ny, är det inte de stora takeawaysna som det förutsätter. I en 2016-undersökning, ProPublica Reportrar fann att inte bara COMPAS är opålitligt, det är faktiskt systematiskt förspänd mot afroamerikaner, som konsekvent betygsätter svarta människor som högre risk än vittnen som begått mer allvarliga brott. Förhoppningsvis kommer denna nya forskning att bidra till att bana väg för rättvisare riskbedömningsprocesser inom straffrättssystemet.

Det faktum att COMPAS är värdelöst och djupt partisk i värsta fall tyder på att datorbaserade riskbedömningar kan fördjupa de orättvisor som rättssystemet ska hantera. Eftersom riskbedömningar kan tillämpas vid varje steg i straffrättsliga förfarandena, inklusive när man fastställer en persons bindning, bestämmer om de ges parole, och i vissa stater, även för att bestämma en persons mening, tyder den här undersökningen på ett oerhört behov av att ompröva användningen av COMPAS och andra program.

$config[ads_kvadrat] not found