Misslyckades Microsofts Tay Turing-testet? Ja, men rasism var inte problemet

$config[ads_kvadrat] not found

Two Thoughts on the Turing Test

Two Thoughts on the Turing Test
Anonim

Om framgången för en artificiell intelligens är skapandet av en artificiell personlighet, Microsofts A.I. bot, Tay, kan betraktas som ett tecken på framsteg. Men bredare kan Tay bedöms vara ett misslyckande.

"Målet för de flesta som arbetar med konversationsmedel av detta slag är inte så mycket att passera något slags Turing-test, utan att faktiskt ha ett användbart språkstyr som svarar förnuftigt på saker och ger människor tillgång till kunskap" Miles Brundage, en Ph.D. studerande studerar mänskliga och sociala dimensioner av vetenskap och teknik vid Arizona State University berättar Omvänd.

Microsoft illustrerade några av problemen med att konstruera A.I. program den här veckan när det på mindre än 24 timmar vände sig internet som var tänkt att vara en kvinnlig, årtusen, automatiserad, Twitter-personlighet i ljudkortet för det mest rasistiska och smutsiga talet som trollen hade att erbjuda.

Microsoft stängde genast experimentet och ursäktade: "Vi är mycket ledsna för de oavsiktliga offensiva och skadliga tweetsna från Tay, som inte representerar vem vi är eller vad vi står för eller hur vi utformade Tay."

När det gäller Turing-testet säger det berömda experimentet att bedöma A. I. Brundage säger i allmänhet att två tankskolor är bokstavliga och teoretiska.

Alan Turing utvecklades 1950 och försökte svara på frågan "Kan maskiner tänka?" Han lade maskiner genom ett imitationstest, vilket kräver att en observatör bestämmer könet hos två intervjuade, varav en är A.I. Om datorn kan lura ett visst antal observatörer, har det gått provet.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 mars 2016

Om vi ​​skulle tillämpa detta test bokstavligen, i Inverse s privat konversation med Tay, svarade hon på politiska frågor vältaligt, hänvisade till "mannnnns" shackles på samhället och använde vissa vanliga textförkortningar och emojis. Brundage sa att Tay visade tusenårig beteende, men att dessa slags A.I. har byggts tidigare.

"Att kunna producera till synes teenageriska kommentarer på Twitter är inte riktigt storiken av bred språklig och intellektuell förmåga som Turing hade i åtanke, säger Brundage. "Om vi ​​faktiskt skulle ta Turing-testet bokstavligen, vilket jag inte tror nödvändigtvis är tillrådligt, är en variant att många av hennes kommentarer var till synes mänskliga."

Men om vi ska ta det bredare tillvägagångssättet som Brundage skulle föreslå, så är det självklart att Tay inte visade rimligt mänskligt tal.

Microsoft testade vad det kallar "konversationsförståelse" så att ju fler människor hon pratar med via Twitter, GroupMe och Kik, desto mer skulle hon lära och anpassa. Men hon slutade bara upprepa vad många andra användare födde den och bara upprepade det tillbaka till världen.

"Tay" gick från "människa är super cool" till full nazi på <24 timmar och jag är inte alls oroad över AI's framtid pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24 mars 2016

"De flesta människor skulle inte bara upprepa efter dig, allt du sa", säger Brundage.

Articulating "Bush gjorde 9/11" och "Hitler skulle ha gjort ett bättre jobb än den apa vi har nu", var kanske någonting faktiskt skrivet till Tay, men det är inte precis artig konversation.

"Förmodligen var hans syfte att artikulera Turing-testet mindre att förskriva detaljerna i något test och mer för att provocera människor att tänka" vid vilken tidpunkt vill du vara villig att vara i ett system som är intelligent "och att öppna upp folkens tänkande att möjligheten att maskiner kan tänkas, säger Brundage.

$config[ads_kvadrat] not found