Маша и Медведь (Masha and The Bear) - Маша плюс каша (17 Серия)
Roboter visar sig vara ganska bra människa. Vem vill inte ha en söt liten peppar att berätta skämt, ge oss komplimanger och gör oss vanligtvis mindre ensamma i världen? Även formlösa robotar visar sig vara överraskande bra företag. Ta till exempel Amazon Echo's Alexa. Hon är en robotic hjärna med en mänsklig röst som fångas inuti en ljudhögtalares kropp, men hon är hjälpsam och om du läser hennes recensioner är det tydligt att hon blivit som familj för många användare. Skulle folk tänka annorlunda om hon ljög? Vad sägs om om hon berättade något du egentligen verkligen inte ville höra?
Tänk på det: Vi berättar för barn att aldrig berätta en lögn och att ärlighet är den bästa politiken, men ändå slipper vi bort, förvränger sanningen och en riktig lögn för barnen hela tiden. Detta lär dem genom våra handlingar om inte genom våra ord att det inte handlar om fullständig ärlighet utan om att lära sig de komplicerade sociala reglerna om när och hur man avslöjar eller döljer potentiellt känslig information. Programmeringsrobotar för att följa dessa sociala regler kan vara en svår men nödvändig del av den pågående automatiska innovationsprocessen.
Här är ett exempel: Jag var hos min svärson hus andra helgen, och jag gick till affären för att fånga smörgåsar till allas lunch. Min sexåriga brorsdotter hjälpte mig att lägga ut maten medan alla andra var ute av köket och hon frågade mig hur mycket matvarorna hade kostat. Jag berättade för henne, för att lära barnen om värdet av pengar är en bra sak.
Vid lunchbordet bad hon mig att berätta för alla hur mycket matvarorna hade kostat. Jag sa nej."Varför?" Frågade hon, verkligen förvirrad om varför en fråga jag hade svarat fritt några minuter tidigare var nu hemlig information. "Det är inte artigt", sa jag och förklarade att eftersom hon är ett barn är reglerna annorlunda när vi är ensamma. Jag lärde henne att ärlighet och rättvisa har en tid och plats. Informationen vill inte alltid vara fri i ett mänskligt sammanhang.
Det är samma sak med robotar. Vi tror att vi inte vill att våra robotar ska ligga för oss, men vi vill faktiskt att de ska lära sig de komplicerade sociala reglerna av artighet och diskretion som ibland kräver snedvridningar av sanningen. Och de lär sig redan hur man gör det. Ta det här korta klippet av Pepper som interagerar med en reporter, till exempel:
Det första ut ur Peppers mun är ett kompliment: "Så, du är väldigt elegant. Är du en modell?"
Reportern är stilig nog, men Peppers fråga är inte helt ärlig. Vi förstår att Pepper inte faktiskt undrar om han är en modell och har programmerats för att säga trevliga saker oavsett hur en person ser ut.
Snart efter frågar Pepper om ett lån, ur det blå. Det är en oupphörlig fråga, en indiscretion som vi enkelt förlåter en robot för som om vi skulle ha ett barn. Reportern skulle kunna ha påpekat att frågan är oförskämd, föreslog att robotar inte behöver pengar, eller erkände att han inte hade något intresse av att överlämna $ 100 till Pepper. Hela sanningen är att reportern skulle kunna låna roboten pengarna, men förstår att själva frågan är lite av ett spel. Vad han väljer att säga är en avböjning, och antingen en vit lögn eller en halv sanning - han har inte pengar på honom. Förhoppningen är att roboten förstår detta som en mild "nej", och föreslår inte att reportern går till en kassaskåp och gör ett tillbakadragande. Eftersom Pepper uppenbarligen har någon social nåd, slutar frågeställningen där.
Sociala robotar är programmerade för att lära sig sociala signaler, och det här är en bra sak - det kommer till sist att göra dem bättre på våra jobb. Uppgiften för programmerare är inte att stämpla all robotbedrägeri utan att lägga till funktioner som gör det lättare för robotar att fatta beslut om lämpliga svar.
När robotar är våra förtroende måste de ha medvetenhet om sammanhang och publik. Om jag försöker på outfits hemma, till exempel, vill jag ha en ärlig bedömning av hur smickrande de olika alternativen är. Om jag är ute på en fest och plötsligt självmedveten om att jag har valt fel klänning, är försäkran om att jag ser bra ut det bästa svaret.
Robot kommer att lära sig mycket personlig information om sina följeslagare, och det är viktigt för dem att förstå skillnaden mellan konfidentiell information och allmän information och vara medveten om vem som lyssnar närhelst det pratar. Frågor kommer att ha olika svar beroende på vem som frågar. Robotar kommer att uppträda annorlunda när gästerna är i hemmet.
Robotar, som barn, behöver ansvarsfull föräldraskap. Det betyder att både robotprogrammerare och robotägare måste tänka djupt om de etiska och sociala konsekvenserna av vår A.I. interaktioner. Men det betyder inte att kräva perfekt ärlighet - seriöst ingen vill det.
Vetenskapen förklarar ... När du borde och borde inte lita på din hjärna
Rådgivning är vanligen kokt ner till regurgitations av tanken att du är den bästa domaren. Följ ditt hjärta, lita på din tarm, att du själv är sant - alla uttalanden som väsentligen säger, hej, vad du känner och vad du tänker är förmodligen alla data du behöver för att göra ett bra beslut. I sitt tal prai ...
Vad händer när Abbi och Ilana slutar ligga på "Broad City"?
Plocka upp från där förra veckans episod slutade, Abbi (Abbi Jacobson) och Trey (Paul W. Downs) håller fortfarande ihop. Trey vill ta Abbi på ett officiellt datum, men Abbi tycker fortfarande om Trey som ett pinsamt skyldigt nöje. Hon börjar planera att berätta för honom på deras datum att hon bara vill vara vänner-med-b ...
10 Lilla vita lögner du borde ligga på en första dejt
Har du någonsin varit på ett första datum och var tvungen att ljuga av rädsla för vad de kan tänka? I så fall är du inte ensam. Här är 10 lögner som du antagligen har berättat förut!