Tufts Roboticist Calls for Machine Morals: Robots Måste "vara obeveklig för att lyda"

$config[ads_kvadrat] not found

Debate: Ethics & Morality of Robotics

Debate: Ethics & Morality of Robotics
Anonim

Robotar blir mer centrala för våra vardagsliv, och snart måste de börja möta några av de tuffa moraliska val som vi måste göra regelbundet. Matthias Scheutz, en datavetenskapsprofessor i Tufts Universitys Human-Robotics Interaction lab, är särskilt bekymrad över att vi inte har utrustad även våra mest avancerade prototyprobotar med förmågan att hantera några av dessa situationer. Scheutz tror att robotar måste lära sig att vara olydiga människor om vi någonsin vill att de verkligen ska betjäna våra behov.

I en kommentar på Idag Online, provokativt betecknad "Robots Måste Olycka För att lyda", frågar Scheutz läsaren att bestämma vad en robot ska göra om han konfronteras med en uppsättning situationer som till och med kan vara förvirrande för en människa. Några av dem:

En äldreomsorgrobot uppgift av en glömlig ägare att tvätta de "smutsiga kläderna", trots att kläderna just kommit ut ur tvättmaskinen.

En elev beordrade sin robothandledare att göra alla läxor, istället för att göra det själv.

En hushållrobot instruerad av sin upptagna och distraherade ägare att skräpa bort soporna, även om skedar och knivar fastnar i den.

Vad Scheutz syftar till att beskriva i artikeln är det enkla faktumet att vi ska behöva robotar som vet hur man säger nej till människor. Många av hans exempel har att göra med tillförlitligheten hos den som styr robotten, men det är svårare än det låter att programmera en robot som vet att man tar instruktioner från någon som inte är för ung eller för gammal eller uppenbarligen försöker orsaka problem.

Några av dessa frågor diskuteras redan varmt i huvudkontoret för världens mest kraftfulla teknikföretag, eftersom de letar efter nya sätt att tekniken kan ta över delar av våra liv. Scheutz lyfter exemplet på en autonom bil som är inriktad på att säkerhetskopiera men märker en hund som ligger i sin väg. De flesta av oss är överens om att även den människa som kör bilen skulle vilja att bilen ska sluta, men vad händer om djuret var ekorre eller tvättbjörn? Vad händer om bilen körde 45 km / h ner en landsväg och bromsar plötsligt för en hund som riskerar att exponera bilen för att kollisionera med ett annat fordon bakom det?

"I båda fallen är det viktigt att båda autonoma maskinerna upptäcker den potentiella skada som deras åtgärder kan orsaka och reagera på genom att försöka undvika det eller om det inte kan undvikas skada genom att vägra att utföra den mänskliga instruktionen" Scheutz skriver om ett liknande dilemma.

Scheutz team har arbetat med dessa problem med sina prototyper och fann att den svåraste delen av dessa frågor skiljer de små graderna av skada som kan uppstå när en robot följer en viss ordning. Så de tilldelade sin robot en mycket enkel men kraftfull moralisk lektion som skulle göra även de stora filosoferna skamma.

"Om du instrueras att utföra en åtgärd och det är möjligt att utföra åtgärden kan orsaka skada, får du inte utföra det."

På ett subtilt sätt är det en revolutionerande prognos från Scheutz. Visst, vi försöker alla att undvika skada, men är det inte möjligt att vi ibland tycker att det är okej att ta risker? Jaywalking på gatan, att äta en sekund med hjälp av efterrätt, eller till och med att kopiera en väns anteckningar från klassen kan bryta mot Scheutz axiom.

Begreppet robotinterferens föreslår också att Scheutz vill att hans robotar ska följa lagen. Förvänta dig inte att din Scheutzian-robotassistent hjälper dig att ladda ner ny musik olagligt. Det skulle skada aktieägarna i EMI!

Det är ett komplicerat område med moralisk, juridisk och teknisk tanke, och Scheutz är inte blyg från att attackera den på huvudet.

$config[ads_kvadrat] not found