Vapande Maskininlärning mot ISIS kommer att krossa militära kedjor av befäl

$config[ads_kvadrat] not found
Anonim

Alla på internet hade en bra tid med Tay, Microsofts Twitter-robot som blev en rasistisk förintelse i en fråga om några timmar (då kom tillbaka och gjorde det igen). Företaget hade skapat en PR-flik - mer händelse än en katastrof - samtidigt som allmänheten fick en objektläsning om fördelarna med och inverkan av maskininlärning: Automation kan utnyttja mönster till fascinerande effekt i snabb takt, men resultatet blir förutsägbart svårt att förutsäga.

Som ofta är militären en tidig adoptör av automationsteknologi. Det är - på en gång - ledande laddningen mot maskininlärning och försöker också desperat att fortsätta. Ett av de viktigaste fokusområdena för Pentagon är autonoma robotar och hur de kommer att laga sig med människor - till exempel en R2D2-stil robotvinge. Men denna vecka redogjorde vice-sekreterare för försvarsminister Robert Work en annan uppgift för A.I.: datakrypning med öppen källkod.

"Vi är helt övertygade om att användningen av djuplärande maskiner kommer att göra det möjligt för oss att få en bättre förståelse för ISIL som ett nätverk och bättre förståelse om hur man målvakar det exakt och leda till dess nederlag", säger sekreterare, enligt DoDs webbplats. Enligt det kontot, Arbeta, som talade vid ett evenemang organiserat av Washington Post, hade sin epiphany medan du tittar på ett Silicon Valley tech företag demonstrera "en maskin som tog in data från Twitter, Instagram och många andra offentliga källor för att visa juli 2014 Malaysia Airlines Flight 17 nedskuren i realtid."

Privata företag och brottsbekämpning har försökt att ge mening om "stora data" under lång tid. Men militären har en fördel: resurs. Dessutom har de tillgång till klassificerade material.

Förenta staternas regering verkar vara beredd att satsa på att programvaralgoritmer kan sortera igenom den enorma mängden data där ute för att identifiera ISIS-mål som annars skulle ha försvunnit dem och upptäcka och störa tomter innan planerna kan utföra dem. Regeringen försöker redan studera sociala medier för att förutse storleken på online protester. Det är ingen tvekan om att maskininlärning kommer att ge intelligensanalytiker ökande makt för att ge mening om den stora mängd tillgänglig information i världen. Men när den intelligensen blir grunden till vilken en dödlig strejk tas, blir de etiska frågorna mer komplexa, även om de verkar enkla.

Även om arbetet var snabbt att konstatera att Pentagon inte skulle "delegera dödlig auktoritet till en maskin", är det slutspelet. Under tiden kommer människor att vara "i slingan", som jargongen går. Men som alla som tittat på en iPhone för en väderleksrapport när de står bredvid ett fönster vet det att de relationer vi har med våra enheter och programvara inte är enkla. Vi är problematiskt trovärdiga och lätt distraherade av användargränssnitt.

"Automation bias", tendensen för människor att skjuta upp till maskiner, presenterar en tydlig och alltmer närvarande fara. Gå till exempel för att illustrera detta fenomen är när telefonen berättar att du tar en resväg som du vet är fel men du gör det ändå, förutsatt att telefonen måste veta något du inte gör. Detta är ett vanligt problem i icke-militära sammanhang. Vad Pentagon verkar vara närmare, dock är hotrapporter som består av artificiell intelligens. Vi vet ingenting om den potentiella effekten av detta program än att det kommer att vara svårt för människor att genomföra.

I ett dokument från 2001 som tittar på student- och professionella piloter och automationsbias, fann forskare att "i scenarier där korrekt information var tillgänglig för att korsa och upptäcka automatiseringsanomalier, identifierades felprocenter approximativt 55% dokumenterade över båda populationerna." Studien fann också att lägga till en extra mänsklig lagkamrat inte mildra problemet.

På samma sätt fann en MIT-studie från förra året att det var oroväckande att dator- och videospelare hade en "högre benägenhet för överstyrningsautomatisering". Det kan innebära att ju mer tid vi spenderar stirrar på våra skärmar, desto mer litar vi på vad vi ser. Återigen är problemet inte med systemen vi använder, men med det sätt vi använder dem. Felet ligger inte i våra stjärnor, utan i oss själva.

Stora data kvarstår lovande. Maskininlärning är fortsatt lovande. Men när maskiner råder människor är resultaten förutsägbart oförutsägbara. Tulls omvandling till en neo-nazistisk misogynist innebär att Twitter hatar judar och kvinnor? Det är svårt att veta, men ganska osannolikt. När vi inte förstår processen genom hur ingångar blir utgångar, kämpar vi för att hantera resultaten på ett rationellt sätt. Vilket sätter Pentagon i en intressant position. Är de som programmerar militärens maskininlärningssoftware kommer att vara de som beställer airstrikes? Det är inte hur kommandokedjan fungerar, men kommandokedjorna blir trassliga när tekniken blir involverad.

$config[ads_kvadrat] not found