I kontrast till Tay är Microsofts kinesiska Chatbot, Xiaolce, faktiskt trevligt

$config[ads_kvadrat] not found

D Smoke Stuns in the Finale with Last Supper | Rhythm + Flow | Netflix

D Smoke Stuns in the Finale with Last Supper | Rhythm + Flow | Netflix
Anonim

När du hörde om Tay, Microsofters tweeting A.I, blev du verkligen förvånad över att en dator som lärde sig om mänsklig natur från Twitter skulle bli en rasande rasist på mindre än en dag? Självklart inte. Dålig Tay började ut alla "hellooooooo w🌎rld !!!" och snabbt morphed till en Hitler-älskande folkmordskrävande bit av datorskit. Naturligtvis ursäktade Microsoft ursäkt för chatbots skrämmande tweets med "zero chill". I den ursäkningen betonade företaget att den kinesiska versionen av Tay, Xiaoice eller Xiaolce ger en väldigt positiv upplevelse för användare i stark kontrast till detta experiment borta väldigt fel.

Ursäkta noterar specifikt:

"I Kina används vår Xiaolce chatbot av cirka 40 miljoner människor, förtjusande med sina berättelser och samtal. Den stora erfarenheten av XiaoIce ledde oss att undra: Skulle en AI så här vara lika fängslande i en radikalt annorlunda kulturmiljö? Tay - en chatbot skapad för 18- till 24-åringar i USA för underhållningsändamål - är vårt första försök att svara på denna fråga."

Xiaolce lanserades 2014 på mikrobloggen, textbaserad webbplats Weibo. Hon gör i huvudsak vad Tay gjorde, hon har en "personlighet" och samlar information från samtal på webben. Hon har mer än 20 miljoner registrerade användare (det är fler människor än bor i delstaten Florida) och 850 000 följare på Weibo. Du kan följa henne på JD.com och 163.com i Kina samt på App Line som Rinna i Japan.

Hon framträdde även som en väderreporter på Dragon TV i Shanghai med en mänsklig ljudande röst och emotionella reaktioner.

Enligt New York Times, folk säger ofta till henne "Jag älskar dig" och en kvinna som de intervjuade sa även att hon chattar med A.I. när hon är i dåligt humör. Så medan Tay, efter bara en dag online, blev en nazistisk sympatiser, erbjuder Xiaolce gratis terapi till kinesiska användare. Hon lagrar användarens humör och inte deras information, så att hon kan behålla en nivå av empati för nästa konversation. Kina behandlar Xiaolce som en söt och uppmuntrande mormor, medan amerikanerna pratar med Tay som ett barn med syskon med begränsat intellekt. Speglar detta kulturella attityder gentemot teknik eller A.I.? Visar det att kineserna är väldigt trevligare än amerikaner, i allmänhet? Det är mer troligt att Kinas stora brandvägg skyddar Xiaolce mot aggression. Ytringsfrihet kan ibland ge obehagliga resultat, som Tay efter 24 timmar på Twitter.

"Ju mer du pratar, desto smartare Tay blir", skrev en del stackars själ på Microsoft i chatbots profil. Tja inte när engelsktalande troll domar webben. Trots dessa resultat säger Microsoft att det inte kommer att ge ut i attackerna mot Tay. "Vi kommer att förbli stabila i våra ansträngningar att lära av denna och andra erfarenheter när vi arbetar för att bidra till ett Internet som representerar det bästa, inte det värsta av mänskligheten."

$config[ads_kvadrat] not found