Social Media Trolling: Hur A.I. Kommer att bli bättre vid att förutse shitposts

$config[ads_kvadrat] not found

Johan Airijoki - Allting kommer att bli bra // Gothenburg Sessions #74

Johan Airijoki - Allting kommer att bli bra // Gothenburg Sessions #74
Anonim

Internet är ett helvete som drivs av troll och domineras av felfria Facebook-argument eller sämre. Och medan sociala medier jättar över nätet äntligen började utrusta mer robusta ansträngningar för att försöka avstå från nedsättande dialog, tenderar dessa lösningar att vara reaktiva, det vill säga efter att skadan redan har gjorts.

Det bör inte bli någon överraskning då artificiella intelligensforskare är angelägna om att utveckla system som kan förutse ett online-argument innan det händer. Men som ett team av forskare vid Cornell University förklarade nyligen för Omvänd, den här brådskande innovationen är inte så långt ifrån att försöka berätta framtiden.

"Tidigare har det varit arbete med att upptäcka huruvida en given kommentar är giftig", säger datavetenskap Ph.D. Jonathan Chang. "Vårt mål är lite annorlunda, vi vill veta om det är möjligt att förutse huruvida ett nuvarande civilt samtal kommer att gå ur hand någon gång i framtiden. För att utforska denna fråga, tittar vi på konversationer mellan Wikipedia-redaktörer, varav några är civila och andra är borta."

Chang och hans kollegor analyserade hundratals meddelanden som skickades mellan de ibland lättirriterade Wikipedia-kuratorerna. De använde sedan 1.270 samtal som tog en offensiv tur till att träna en maskinlärningsmodell i ett försök att automatisera denna typ av moderering. Deras resultat publicerades i ett papper som presenterades vid årskonferensens förbundsmöte den 15 juli.

Så hur var "låt oss lugna ner" bot göra? Lyckligtvis, inte för illa. Det slutade vara 65 procent exakt, något lägre än människans 72 procent framgångsrika. Forskarna hittade denna statistik genom att skapa en onlinequiz där människor kunde testa sina kommentarer moderering färdigheter. Visas, det är ganska jävligt svårt att ta reda på om sociala medieanvändare kommer att vara vilda eller vara civila.

"Tanken är att visa att uppgiften är svår men inte omöjlig - om människor bara fick 50 procent noggrannhet, skulle det vara så att det inte är bättre än slumpmässigt gissning och det skulle inte finnas någon anledning att tro att vi skulle kunna utbilda en maskin att göra något bättre, säger Chang. "Att jämföra vår modell med mänskliga svar har gett oss en inblick i hur liknande eller annorlunda vårt beräkningsmetod är mänsklig intuition."

Chang tror inte att detta kommer att rensa internet från skräppost, men han ser det som ett sätt att hjälpa mänskliga sociala medier moderatorer. I stället för att behöva uppmärksamma de miljontals kommentarerna som kan läggas ut en dag, kan deras algoritm identifiera hundratals av de som riskerar att bli ett argument.

Medan man kanske tror att kammar genom alla dessa potentiellt oförutsägbara skvaller skulle ge Chang ett larm av sorg, säger forskaren att erfarenheten faktiskt har givit honom hopp om mänskligheten.

"Idag finns det mycket pessimism kring online-konversationer, men här ser vi att även i de fall där en konversation börjar på ett ovänligt sätt finns det fortfarande en chans för deltagarna att ha andra tankar, ändra deras ton och sätt konversationen på rätt väg för ett ljusare resultat, säger han. "Framtiden är inte stängd."

Kanske finns det hopp för internet trots allt.

$config[ads_kvadrat] not found