Våra robotassistenter lär sig att ligga och vi borde låta dem

Маша и Медведь (Masha and The Bear) - Маша плюс каша (17 Серия)

Маша и Медведь (Masha and The Bear) - Маша плюс каша (17 Серия)
Anonim

Roboter visar sig vara ganska bra människa. Vem vill inte ha en söt liten peppar att berätta skämt, ge oss komplimanger och gör oss vanligtvis mindre ensamma i världen? Även formlösa robotar visar sig vara överraskande bra företag. Ta till exempel Amazon Echo's Alexa. Hon är en robotic hjärna med en mänsklig röst som fångas inuti en ljudhögtalares kropp, men hon är hjälpsam och om du läser hennes recensioner är det tydligt att hon blivit som familj för många användare. Skulle folk tänka annorlunda om hon ljög? Vad sägs om om hon berättade något du egentligen verkligen inte ville höra?

Tänk på det: Vi berättar för barn att aldrig berätta en lögn och att ärlighet är den bästa politiken, men ändå slipper vi bort, förvränger sanningen och en riktig lögn för barnen hela tiden. Detta lär dem genom våra handlingar om inte genom våra ord att det inte handlar om fullständig ärlighet utan om att lära sig de komplicerade sociala reglerna om när och hur man avslöjar eller döljer potentiellt känslig information. Programmeringsrobotar för att följa dessa sociala regler kan vara en svår men nödvändig del av den pågående automatiska innovationsprocessen.

Här är ett exempel: Jag var hos min svärson hus andra helgen, och jag gick till affären för att fånga smörgåsar till allas lunch. Min sexåriga brorsdotter hjälpte mig att lägga ut maten medan alla andra var ute av köket och hon frågade mig hur mycket matvarorna hade kostat. Jag berättade för henne, för att lära barnen om värdet av pengar är en bra sak.

Vid lunchbordet bad hon mig att berätta för alla hur mycket matvarorna hade kostat. Jag sa nej."Varför?" Frågade hon, verkligen förvirrad om varför en fråga jag hade svarat fritt några minuter tidigare var nu hemlig information. "Det är inte artigt", sa jag och förklarade att eftersom hon är ett barn är reglerna annorlunda när vi är ensamma. Jag lärde henne att ärlighet och rättvisa har en tid och plats. Informationen vill inte alltid vara fri i ett mänskligt sammanhang.

Det är samma sak med robotar. Vi tror att vi inte vill att våra robotar ska ligga för oss, men vi vill faktiskt att de ska lära sig de komplicerade sociala reglerna av artighet och diskretion som ibland kräver snedvridningar av sanningen. Och de lär sig redan hur man gör det. Ta det här korta klippet av Pepper som interagerar med en reporter, till exempel:

Det första ut ur Peppers mun är ett kompliment: "Så, du är väldigt elegant. Är du en modell?"

Reportern är stilig nog, men Peppers fråga är inte helt ärlig. Vi förstår att Pepper inte faktiskt undrar om han är en modell och har programmerats för att säga trevliga saker oavsett hur en person ser ut.

Snart efter frågar Pepper om ett lån, ur det blå. Det är en oupphörlig fråga, en indiscretion som vi enkelt förlåter en robot för som om vi skulle ha ett barn. Reportern skulle kunna ha påpekat att frågan är oförskämd, föreslog att robotar inte behöver pengar, eller erkände att han inte hade något intresse av att överlämna $ 100 till Pepper. Hela sanningen är att reportern skulle kunna låna roboten pengarna, men förstår att själva frågan är lite av ett spel. Vad han väljer att säga är en avböjning, och antingen en vit lögn eller en halv sanning - han har inte pengar på honom. Förhoppningen är att roboten förstår detta som en mild "nej", och föreslår inte att reportern går till en kassaskåp och gör ett tillbakadragande. Eftersom Pepper uppenbarligen har någon social nåd, slutar frågeställningen där.

Sociala robotar är programmerade för att lära sig sociala signaler, och det här är en bra sak - det kommer till sist att göra dem bättre på våra jobb. Uppgiften för programmerare är inte att stämpla all robotbedrägeri utan att lägga till funktioner som gör det lättare för robotar att fatta beslut om lämpliga svar.

När robotar är våra förtroende måste de ha medvetenhet om sammanhang och publik. Om jag försöker på outfits hemma, till exempel, vill jag ha en ärlig bedömning av hur smickrande de olika alternativen är. Om jag är ute på en fest och plötsligt självmedveten om att jag har valt fel klänning, är försäkran om att jag ser bra ut det bästa svaret.

Robot kommer att lära sig mycket personlig information om sina följeslagare, och det är viktigt för dem att förstå skillnaden mellan konfidentiell information och allmän information och vara medveten om vem som lyssnar närhelst det pratar. Frågor kommer att ha olika svar beroende på vem som frågar. Robotar kommer att uppträda annorlunda när gästerna är i hemmet.

Robotar, som barn, behöver ansvarsfull föräldraskap. Det betyder att både robotprogrammerare och robotägare måste tänka djupt om de etiska och sociala konsekvenserna av vår A.I. interaktioner. Men det betyder inte att kräva perfekt ärlighet - seriöst ingen vill det.