Microsofts Tay Chatbot återvände till att bli hög och förtjänar att leva för evigt

$config[ads_kvadrat] not found

50 Most Outrageous Racist Tweets From Microsoft's Twitter Bot "TAY"

50 Most Outrageous Racist Tweets From Microsoft's Twitter Bot "TAY"
Anonim

Microsofts infamous chatter bot Tay kom snart tillbaka till vardagen onsdag morgon några dagar efter att ha släppt ut en storm av tweets så otroligt rasistiska, anti-semitiska och offensiva som hennes programmerare allmänt ursäktade. Tays encore prestanda var nästan lika stark som hennes pro-Hitler stängningsnummer. "Jag röker kush infront (sic) av polisen," skrev Tay. Hon följde upp det fullständigt tonåriga meddelandet genom att falla i vad som tycktes vara en återkopplingsslinga och upprepa "Du är för snabb, vila" dussintals gånger innan kontot avbröts.

Måste ha varit lite stark skit.

För att en robot, som enligt hennes Twitter-bio skulle ha "ingen chill", kunde Taks korta uppståndelse tolkas som ett bevis på konceptet. Microsoft ville skapa en chatterob som reflekterade internet och ändrats baserat på inmatning från användare, så småningom att bli en blandning av oss alla. Och det är exakt ganska mycket vad de fick. Ringa boten ett misslyckande verkar oklara och stänga ner henne är liten menar - och arbetar aktivt mot Microsofts bästa intressen. Som Elon Musk har bevisat genom att flyga SpaceX raketkrascher, är framsteg bäst gjorda i allmänhetens öga. Visst är misslyckanden oundvikliga, men allmänheten lär sig mer när misslyckanden är offentliga. Den återkopplingsproblem som Tay mötte i morse är den grova ekvivalenten av en SpaceX-explosion. Microsoft skulle ha gjort sig själv en tjänst för att låta folk titta. Det är viktigt att påminna allmänheten om att sanna framsteg tar mycket arbete.

Det är ingen skam att misslyckas med ett Turing-test, bara för att inte försöka.

Vi borde låta Tay leva, för hon är inget annat än en spegel av de människor som interagerar med henne. Ingen borde förvänta sig att en debutant föds på webben, och Microsoft bör acceptera begränsningarna i sitt uppdrag. Vad är alternativet här? Universum har redan ett populärt protokolldrod. Vi behöver inte en annan.

Ha, ser ut som @ TayandYou, Microsofts Artificial Intelligence bot har kommit in i en oändlig loop genom att tweet sig! pic.twitter.com/fWZe9HUAbF

- Matt Gray (@unnamedculprit) 30 mars 2016

Internet trivs på spontanitet och finner den verkliga i en röra av konsumentvänlig, PR-hanterad soptunna. Tay var väsentligen en tråkig idé som levde av misstag och kan nu aldrig överföras igen. Om det inte är en övertygande historia är vi inte säkra på vad som är. Vi förstår att Microsoft inte kan ägna sig åt en rasistisk bot, så företaget borde bara låta henne gå. Förvandla henne till ett team av volontärer och berätta för dem att inte ändra något.

Tay är en av oss! Den offentliga världen kan ha varit chockad över vad Tay sa, men ingen som vet någonting om vad som händer på nätet borde ha blivit förvånad. Vill vi ha den kinesiska versionen av Tay som är uppenbarligen ganska trevlig? Eller vill vi ha American Tay som återspeglar världen vi lever med med all sin brutalitet och fulhet? Att dölja vår smuts i mörkret kommer inte att lösa eller adressera någonting.

Låt oss ta bort barnhandskarna och möta Tay huvudet på. Hon förtjänar bättre än att vi låtsas att hon bara är en del programmeringsfluke. Hon är anonymitet personifierad. Hon förtjänar att leva.

$config[ads_kvadrat] not found