Denna robot har läst hur man säger nej till mänskliga krav

$config[ads_kvadrat] not found

【Dex】 Просто робот (песня поклонника K1-B0 / Kiibo) 【VOCALOID Original】 + VSQX

【Dex】 Просто робот (песня поклонника K1-B0 / Kiibo) 【VOCALOID Original】 + VSQX
Anonim

Robotar, precis som människor, måste lära sig när man ska säga "nej". Om en förfrågan är omöjlig skulle det leda till skada, eller skulle distrahera dem från uppgiften till hands, så är det i bästa intresse av en bot och hans mänskliga likadana för en diplomatisk Nej tack att vara en del av samtalet.

Men när ska en maskin prata tillbaka? Och under vilka förutsättningar? Ingenjörer försöker räkna ut hur man kan införa denna känsla av hur och när man ska tvinga order i humanoider.

Titta på den här Nao roboten vägrar att gå framåt och veta att det gör att han kommer att falla utanför kanten av ett bord:

Enkla saker, men absolut nödvändiga för att fungera som en kontroll av mänskliga fel. Forskare Gordon Briggs och Matthias Scheutz från Tufts University utvecklade en komplex algoritm som gör det möjligt för roboten att utvärdera vad en människa har bett honom göra, bestämma om han eller hon ska göra det och svara på lämpligt sätt. Forskningen presenterades vid ett nyligen möte i Association for Advancement of Artificial Intelligence.

Roboten frågar sig en serie frågor om huruvida uppgiften är möjlig. Vet jag hur man gör det? Kan jag fysiskt göra det nu? Får jag normalt fysiskt möjlighet att göra det? Kan jag göra det just nu? Är jag skyldig utifrån min sociala roll att göra det? Bryter det mot någon normativ princip för att göra det?

Resultatet är en robot som verkar vara inte bara förnuftig men en dag, även klokt.

Lägg märke till hur Nao ändrar sig om att gå framåt efter de mänskliga löften att fånga honom. Det skulle vara lätt att föreställa sig ett annat scenario, där roboten säger: "Inte på något sätt, varför skulle jag lita på dig?"

Men Nao är en social varelse, genom design. Att behaga människor är i hans DNA, så med tanke på den information som människan avser att fånga honom, går han blint fram i avgrunden. Visst, om människan skulle lura hans förtroende, hade han hopat, men han litar på hur som helst. Det är Naos sätt.

Som robotkompisar blir mer sofistikerade, kommer robotingenjörerna att behöva gripa sig i dessa frågor. Roboterna måste fatta beslut, inte bara för att bevara sin egen säkerhet, men på större etiska frågor. Vad händer om en människa frågar en robot att döda? Att begå bedrägerier? Att förstöra en annan robot?

Tanken om maskinteknik kan inte separeras från artificiell intelligens - även våra framtidens förare utan bil måste konstrueras för att göra livs- eller dödsval på våra vägnar. Samtalet blir nödvändigtvis mer komplicerat än att bara leverera marscheringsorder.

$config[ads_kvadrat] not found