A.I. Forskningsinstitut visar hur man skapar ansvarsfulla algoritmer

$config[ads_kvadrat] not found

Skapa berättelser med digitala verktyg

Skapa berättelser med digitala verktyg
Anonim

Forskningsinstitutet AI publicerade nu nya rekommendationer för ansvarigt genomförande av algoritmer inom den offentliga sfären på onsdagen. Deras råd riktar sig till en arbetsgrupp som bildades av New York City Council i januari som studerar regeringens användning av artificiell intelligens.

AI Nu rapport, Algoritmiska konsekvensbedömningar: Mot ansvarsfull automatisering i offentliga organ, skisserar behovet av öppenhet när det gäller att distribuera algoritmer. Algoritmer har stor inverkan på vårt dagliga liv, men deras inverkan går ibland obemärkt. Eftersom de bakas in i infrastrukturen för sociala medier och videoplatformar är det till exempel lätt att glömma att programmen ofta bestämmer vilket innehåll som drivs på internetanvändare. Det är bara när något går fel, som en konspirationsteorivideo som når toppen av YouTubes trendlista, att vi granskar de automatiserade beslutsprocedurerna som skapar onlineupplevelser.

Och algoritmer är inte begränsade till internetplattformar. Regeringsinstitutionerna har blivit alltmer beroende av algoritmer, inom områden som sträcker sig från utbildning till straffrättsliga frågor. I en ideal värld skulle algoritmer avlägsna mänsklig förspänning från tuffa beslut, som att bestämma huruvida en inmate ska ges parole. I praktiken är dock algoritmerna lika effektiva som de människor som gör dem.

Till exempel en undersökning av ProPublica visade att riskbedömningsalgoritmer som används i rättssal var rasistiskt förspända. För att göra saken värre är många av de algoritmer som används i den offentliga sektorn privatägda, och vissa företag vägrar att dela koden som ligger bakom deras programvara. Det gör det omöjligt att förstå varför dessa så kallade "black box" -algoritmer returnerar vissa resultat.

En möjlig lösning som erbjuds av AI Now? Algoritmiska konsekvensbedömningar. Dessa utvärderingar utgör en norm för fullständig insyn, vilket innebär att myndigheter som använder algoritmer skulle behöva publicera när och hur de använder dem. "Detta krav i sig skulle gå långt för att skingra på vilken teknik som används för att tjäna allmänheten, och där ansvarighetsforskningen bör fokuseras", säger rapporten.

En politik med öppenhet kring algoritmer skulle också öppna dörren för medborgarna att granska och protestera mot deras användning. Vill du ha en algoritm som ger dig en riskbedömningspoäng baserad på faktorer utanför din kontroll, speciellt när den poängen kan hjälpa dig att avgöra om du går i fängelse? Kanske, kanske inte. Hur som helst är det viktigt att veta exakt vilka variabler som analyseras av algoritmen.

Dessutom rekommenderar AI nu att man ställer en lagstadgad standard för att människor ska lita mot orättvisa algoritmer.

Om exempelvis en byrå inte avslöjar system som rimligen faller inom ramen för dem som fattar automatiska beslut eller om det gör det möjligt för leverantörer att göra överlagrade affärshemliga påståenden och därigenom blockerar meningsfull systemåtkomst, bör allmänheten ha chans att ge problem med en myndighetstillsynsorgan eller direkt i domstol om byrån vägrade att rätta till dessa problem efter den offentliga kommentarperioden.

Rekommendationerna baserar sig i huvudsak på ett överordnat mandat: Om du använder algoritmer, var inte skumma över det.

Läs hela rapporten här.

$config[ads_kvadrat] not found