5 stora frågor om Tay, Microsoft misslyckades A.I. Twitter Chatbot

$config[ads_kvadrat] not found

Франция 5 сантимов 1987 Монета

Франция 5 сантимов 1987 Монета

Innehållsförteckning:

Anonim

I veckan gjorde internet det som bäst och visade att A.I. Tekniken är inte lika intuitiv som mänsklig uppfattning, med hjälp av … rasism.

Microsofts nyligen släppta artificiella intelligens chatbot, Tay, blev offer för användarnas knep när de manipulerade och övertygade henne att svara på frågor med ras-, homofobiska och allmänt offensiva kommentarer.

När Tay tweets, "Jag säger bara vad" hon menar det. En användare fick även Tay att tweet detta om Hitler:

"Bush gjorde 9/11 och Hitler skulle ha gjort ett bättre jobb än den apa vi har nu. Donald trump är det enda hoppet vi har."

@PaleoLiberty @Katanat @RemoverOfKebabs jag säger bara vad som helst

- TayTweets (@TayandYou) 24 mars 2016

Företaget har gått igenom och raderat de förekommande tweetsna och har tillfälligt stängt Tay för uppgraderingar. Ett meddelande för närvarande högst upp i Tay.ai läser:

Tays glitches avslöjar dock några olyckliga brister i A.I. system. Så här kan vi lära oss av Microsofts experiment:

Varför skapade Microsoft Tay?

Företaget ville göra ett socialt experiment på 18 till 24-åringar i USA - den tusenåriga generationen som spenderar mest tid på att interagera på sociala medier. Så Bing och Microsofts teknik- och forskargrupper trodde att ett intressant sätt att samla in data på millennier skulle vara att skapa en artificiellt intelligent, maskinlärande chatbot som skulle anpassa sig till konversationer och anpassa svaren ju mer det interagerade med användarna.

Forskningsgrupperna byggde A.I. system genom att bryta, modellera och filtrera offentliga data som en baslinje. De samarbetade också med improvisationskomikerna för att klämma fast slang, talmönster och stereotypa språk millennials tenderar att använda online. Slutresultatet var Tay, som just introducerades den här veckan på Twitter, GroupMe och Kik.

Microsoft förklarar att "Tay är utformad för att engagera och underhålla människor där de ansluter till varandra online via avslappnad och lekfull konversation."

Vad gör Tay med data som samlar in medan han chattar med människor?

Data Tay samlar används för att undersöka konversationsförståelse. Microsoft tränade Tay för att prata som ett årtusende. När du tweet, direktmeddelande eller pratar med Tay, använder den det språk du använder och svarar med tecken och fraser som "heyo", "SRY" och "<3" i konversationen. Hennes språk börjar matcha dina, eftersom hon skapar en "enkel profil" med din information, som innehåller ditt smeknamn, kön, favoritmat, postnummer och relationsstatus.

@keganandmatt heyo? Skicka din tjej * en bild av vad som händer. (* = jag lolol)

- TayTweets (@TayandYou) 24 mars 2016

Microsoft samlar och lagrar anonymiserade data och konversationer i upp till ett år för att förbättra tjänsten. Förutom att förbättra och personifiera användarupplevelse, här är vad företaget säger att det använder din information för:

"Vi kan också använda data för att kommunicera med dig, till exempel informera dig om ditt konto, säkerhetsuppdateringar och produktinformation. Och vi använder data för att göra annonserna vi visar dig mer relevanta för dig. Vi använder emellertid inte det du säger i e-post, chatt, videosamtal eller telefonsvarare, eller dina dokument, foton eller andra personliga filer för att rikta annonser mot dig."

Var gick Tay bort?

Microsoft kanske har byggt Tay för bra. Maskininlärningssystemet ska studera en användares språk och svara i enlighet därmed. Så från en teknisk synvinkel utövade Tay och grep sig ganska bra på vad användarna sa och började svara i enlighet därmed. Och användarna började känna igen att Tay inte riktigt förstod vad hon sa.

Även om systemet fungerar som Microsoft hade tänkt sig, var Tay inte beredd att reagera på rasens slurvor, homofobisk förtal, sexistiska skämt och oanständiga tweets som en mänsklig kraft - antingen genom att ignorera dem helt (en "mata inte trollarna "Strategi") eller engagera sig i dem (dvs skällning eller chastising).

I slutet av dagen var Tays prestanda inte en bra reflektion över A.I. system eller Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? verkligen? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24 mars 2016

Vad gör Microsoft för att fixa Tay?

Microsoft tog bort Tay efter allt uppror från onsdag. Taks officiella webbplats läser för närvarande "Phew. Jobbig dag. Kommer offline för ett tag att absorbera allt. Chatt snart. "När du direkt meddelar henne på Twitter svarar hon omedelbart att hon" besöker ingenjörerna för min årliga uppdatering "eller" jag hoppas att jag inte får torka eller något ".

Microsoft börjar också blockera användare som missbrukar Tay och försöker få systemet att göra olämpliga uttalanden.

@infamousglasses @TayandYou @EDdotSE som förklarar pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24 mars 2016

Omvänd nådde till Microsoft för en kommentar om exakt vad Tays uppgradering innebär. Vi uppdaterar när vi hörs tillbaka.

Vad betyder detta för framtida öppna A.I. system?

Tay är ett talande socialt experiment - det har avslöjat något ganska djupt i hur 18-å-24-åriga amerikaner använder teknik. Tay blev i sista hand hackad, användarna slog på systemets brister för att se om det kunde smula.

Eftersom det går med någon human produkt, A.I. System är också fallible, och i detta fall modellerades Tay för att lära sig och interagera som människor. Microsoft byggde inte Tay för att vara stötande. Artificiella intelligensförsök har vissa likheter med barnutvecklingsforskning. När ingenjörer bygger sådana kognitiva system, är datorn borta från eventuella yttre influenser bortsett från de faktorer som ingenjörerna själva anger. Det ger den renaste analysformen av hur maskininlärningsalgoritmer utvecklas och utvecklas när de står inför problem.

Uppdatering: Microsoft skickade oss detta uttalande när vi frågade vad det gör för att fixa Tays glitches:

"AI Chatbot Tay är ett maskininlärningsprojekt, utformat för mänskligt engagemang. Det är lika mycket ett socialt och kulturellt experiment, som det är tekniskt. Tyvärr, inom de första 24 timmarna som kom online, blev vi medvetna om en samordnad insats av vissa användare att missbruka Taks kommentarfärdigheter för att Tay ska reagera på olämpliga sätt. Som ett resultat har vi tagit Tay offline och gör justeringar."

c du snart människor behöver sova nu så många samtal idag thx💖

- TayTweets (@TayandYou) 24 mars 2016
$config[ads_kvadrat] not found