Musk, Wozniak, Hawking, andra genier står emot autonoma vapen

$config[ads_kvadrat] not found

Elon Musk, Stephen Hawking Warn of Killer Robot Wars

Elon Musk, Stephen Hawking Warn of Killer Robot Wars
Anonim

I årtionden har AK-47 varit den dödande maskin som valts i många dammiga hörn av världen eftersom den är billig, hållbar och allestädes närvarande. Samma faktorer, argumenterar undertecknare av ett öppet brev som släpptes måndagen från Future of Life Institute, är anledningen till att autonoma vapen är fyllda med fara. Men det som skiljer artificiell intelligensvapen från Kalashnikovs är att den autonoma maskinen kan "välja och engagera mål utan mänskligt ingripande" - som i fela händer skulle kunna begå grymheter som är mycket större än något oförklarligt gevär.

Undertecknarna har sitt arbete klippt ut för dem. Som människor är vi som helhet mycket bättre att reagera än att tänka. De stora aktörerna har varit långsamma för att sänka våra kärnvapen (och bygga autonoma droner, tänkandet går, skulle kräva en bråkdel av den maskin som går ut på att skapa en nukleär). Annars ligger landminor fortfarande decennier gamla slagfält. När en teknik stod för att revolutionera krigföring - vare sig det är krut- eller marinskräp eller anrikat uran - det har nästan aldrig inte varit en vapen race.

FLI gör en skillnad mellan de droner vi har nu, piloterade fjärran av mänskliga händer, och en robot startade och lämnade till sina egna mordiska enheter. Skapandet av sistnämnda skulle gnista en global AI-vapen race som FLI argumenterar, och som Kalashnikovs historia demonstrerar, skulle inte sluta bra:

Det kommer bara att vara fråga om tid tills de dyker upp på den svarta marknaden och i händerna på terrorister, diktatorer som vill bättre kontrollera sin befolkning, krigsherrar som vill begå etnisk rensning etc. Autonoma vapen är idealiska för uppdrag som mord, destabiliserande nationer, dämpa befolkningar och selektivt döda en särskild etnisk grupp. Vi tror därför att en militär AI-vapen race inte skulle vara till nytta för mänskligheten. Det finns många sätt på vilka AI kan göra slagfälten säkrare för människor, särskilt civila, utan att skapa nya verktyg för att döda människor.

Det här är lite tungt. Och namnen bakom den här varningen är inte dina skinnkrackpottar - de är skapare, ingenjörer, forskare och filosofer som har hjälpt till att forma vad vår teknik ser ut idag. En skiva av namnen är: Apples Steve Wozniak, Skype Jaan Tallinn, Harvard-fysiker Lisa Randall, en som är som av AI-forskare och robotister - inklusive Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - skådespelerskan Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawking har lite på lite av en pessimistisk böjd på senare tid, och upprepar också sina förutsägelser om farorna med att möta utomjordiskt liv. Han kommer också att svara på frågor om detta brev och teknikens framtid på Reddit den här veckan - vi kanske inte kan kontrollera fientliga utlänningar, men vi kan sätta "onus på forskare i framkant av denna teknik för att hålla den mänskliga faktorn framför och centrum av deras innovationer."

Du kan också lägga till ditt namn i brevet.

$config[ads_kvadrat] not found