Georgia Techs stereotyprobot är framtiden för AI, inte rasism

$config[ads_kvadrat] not found

Robots + Terrarium = Robotarium

Robots + Terrarium = Robotarium
Anonim

För öron sensibiliserad av efterskolan specialiteter och mångfaldsseminarier, det här låter dåligt, men vi vill att robotar ska göra snabba bedömningar utifrån utseendet. Att övervinna fördomar är bra, men oförmågan att stereotypa minskar intelligens - artificiell och annars. Alan Wagner, Ph.D., en robotist vid Georgia Tech, är den främsta förespråkaren för stereotypteknik. Han argumenterar för att denna typ av logik inte behöver tillämpas på ras eller kön, bara situationer och beteenden.

I ett tidigt test av sin stereotypalgoritm utbildade Wagner en naiv robot för att dra slutsatser av vad det såg. Roboten lärde sig och blev perceptiv, vilket gjorde att Wagner började tänka kritiskt på etiken i robotantaganden, särskilt de förprogrammerade. Han pratade med Omvänd om hans arbete och dess konsekvenser.

Gå igenom hur experimentet fungerade.

Roboten växlar med olika typer av individer - brandman, EMT, eller vad som helst - men det har ingen tidigare erfarenhet av någon av dessa kategorier av individer. Det är i grunden erfarenhetslärande.

Tanken var att visa att roboten kunde använda perceptuella funktioner från individen för att förutsäga deras behov när det gäller verktygsanvändning. Hur algoritmen fungerade skulle robotens kamera uppfatta olika aspekter av hur individen såg ut - deras likformiga färg, till exempel om de hade skägg och hårfärg.

Det skulle också ställa frågor till dem om hur de ser ut. Att ställa frågor är naturligtvis inte vad du vill göra på fältet, men robotens uppfattning är så begränsad just nu. Vi behövde ett sätt att starta processen om att lära sig en person. Personen skulle välja verktyget, och då skulle roboten välja verktyget, och med tiden skulle roboten lära sig vilket verktyg varje typ av person föredrog.

Förväntade du dig att roboten skulle veta att ett märke betyder polis eller en tung reflekterande kappa betyder en brandman?

Vi väntat på det. Men det var också några överraskande saker.Till exempel erkände roboten felaktigt att ett skägg förutspås med en brandman - det var konstigt, men när man tittar på data var det inte förvånande. De första flera personer som interagerade med det var brandmän som hade skägg. Så vi argumenterar för ett behov av perceptuell mångfald, en uppfattning om att om roboten skulle kunna se stora, stort sett olika typer av individer i en kategori, skulle det bättre utveckla och förstå kategorin.

Skulle du säga att autonoma robotar ska utbildas för att stryka ut dessa egenskaper, så en robot tror inte om den här personen har skägg, han är brandman?

Absolut. Det är viktigt att vi stryker ut dessa saker. Det är viktigt att vi har dessa robotar som fungerar från en mångfald olika individer.

Vad kan det här inlärningen se ut?

Det skulle tillåta roboten att fokusera på saker som bättre karakteriserar brandmän. Till exempel kanske en brandman inte ens bär en jacka. Roboten skulle då märka andra aspekter av brandbekämpning, kanske stövlarna, kanske handskarna, kanske hjälmar. Det skulle säga, "OK, den här personen verkligen är en brandman i denna miljö."

Om du hade tillräckligt med människor kan det känna igen en brandman vid en eld mot en brandman på en Halloween-fest. Det är subtila perceptuella detaljer, som skillnaden mellan kvaliteten på typerna av uniformer eller kontextuella miljöer.

Förutom att associera skägg med brandmän, hur framgångsrikt var denna algoritm?

Det var två saker vi verkligen ville titta på: En, vad kan du göra med det? Om robotar kan känna igen brandmän, hjälper det verkligen på något sätt? Papperet visade att det låter dig begränsa din sökning. I stället för att titta på skägg för hårfärg, leta efter ögonfärg eller vad som helst du kan leta efter, kan du fokusera på de funktioner som verkligen betyder något. Har personen en brandbeklädnad? Det kan påskynda processen.

En annan väldigt kritisk sak som vi tittade på är, vad om den kategori som roboten förutser är fel? Hur påverkar det dig? Du kan tänka dig att sök- och räddningsmiljöer kan vara kaotiska: du kanske arbetar i rökfyllda förhållanden, roboten kanske inte kan uppfatta allt väldigt bra, det kan ha fel. Du kan föreställa dig ett sämre fall, där roboten tycker att personen är ett offer när de i själva verket är brandmän. Så det försöker spara en brandman. Det skulle vara hemskt. Vi ville se var det bryter, hur det bryter, vilka funktioner påverkar det mest och vilka är de olika typerna av fel.

Du kan använda detta tillvägagångssätt på olika sätt - om de inte kan se personen alls, men kan se de åtgärder som de gör. Om jag kan se den person som väljer en ax, så kan jag förutsäga att de har en hjälm.

Hur närmar du dig att få en robot för att bedöma kontext och göra en förutsägelse?

Vi har försökt att titta på ett par olika typer av miljöer - en restaurang, en skola och ett vårdhem. Vi försökte fånga funktioner om miljön och vilka föremål som finns i miljön, vilka åtgärder personen väljer och vad människorna i miljön ser ut och försöka använda det för att göra många sociala förutsägelser. Till exempel i en skolmiljö lyfter människor sina händer innan de pratar. Så om jag ser den handling som människor hämtar sin hand, vilken typ av objekt skulle jag förvänta mig att se i miljön? Förväntar mig att se en tavla; förväntar jag mig att se ett skrivbord? Jag förväntar mig att se barn.

Förhoppningen finns att använda denna information. Om roboten utför en evakueringsprocedur skulle det se vilka typer av människor som finns och var de kan vara.

Låt oss säga att det finns en robot som kommer till din dörr och säger: "Följ mig till utgången." Något som är så enkelt som det är faktiskt väldigt komplext. Om en robot knackar på en dörr i en lägenhetsbyggnad har du ingen aning om vem du ska interagera med. Det kan vara ett fyraårigt barn, det kan vara en 95-årig person. Vi skulle älska för roboten att skräddarsy sitt interaktiva beteende till den typ av person som den ser för att rädda dem. Vi tar några av dessa kontextuella lektioner och försöker utveckla den applikationen.

Använder du en liknande definition av "stereotyp" för robotar och människor, eller är det något annat som händer?

Termen stereotyper har ett negativt sammanhang. Hur vi använder det är helt enkelt att utveckla kategorier av människor och använda kategorisk information för att förutsäga personers egenskaper. Jag vet i psykologi att mycket arbete fokuserar på ansikts stereotyper och könsstereotyper. Vi gör inget sådant. Är processen samma? Jag vet inte. Ingen aning.

Är du orolig att människor kanske har missuppfattningar om ditt arbete?

Några år tillbaka utvecklade vi den här idén om robotar som kunde lura människor. I media var det lite missuppfattning att detta skulle leda till att robotar stjäl folkens plånböcker.

Jag skulle vilja använda nödsituationen för evakuering: Du vill inte alltid vara helt ärlig med en person i en evakuering, eller hur? Till exempel, om någon frågade dig, "Är min familj okej?" Det kan vara hemskt om roboten sa "Nej, de alla dog. Följ mig till avfarten. "Det finns några situationer där roboten faktiskt behöver vara kort oärlig. Men min erfarenhet var att människor kände att vi försökte leda till världens ände.

Vi är alltid intresserade av de pro-sociala aspekterna av dessa humantrobotekniker. Vi försöker hjälpa människor, inte vara något dåligt.

$config[ads_kvadrat] not found