Elon Musk's OpenAI Terrifies its Creators
OpenAI, den ideella organisationen som forskar artificiell intelligens, medgrundad av Elon Musk i 2016, har gjort stora framsteg - även efter att Musk har skiljat sig bland tvivel om sin riktning. Forskare har utvecklat system som kan spela spel, skriva nyhetsartiklar och flytta fysiska föremål med banbrytande nivåer av fingerfärdighet.
OpenAI har orsakat kontrovers med sin forskning. Förra veckan tillkännagav den utvecklingen av en språkmodell, GTP2, som kan generera texter med begränsade uppmaningar. Med tanke på den mänskliga skriftliga prompten "blev Miley Cyrus fångad på butikshöjning från Abercrombie och Fitch på Hollywood Boulevard idag", producerade systemet en trovärdig komplett historia som fortsatte med "den 19-åriga sångaren blev fångad på kameran som eskorterades ut ur affären av säkerhetsvakter."
Det skapade också denna ursprungliga historia om pratande enhörningar baserat på en kort prompning:
"Jag har inte varit inblandad nära OpenAI i över ett år och har inte hantering eller styrelseövervakning," Musk kommenterade Twitter under helgen. "Jag var tvungen att fokusera på att lösa ett smärtsamt stort antal tekniska och tillverkningsproblem hos Tesla (speciellt) och SpaceX. Tesla konkurrerade också för några av samma personer som OpenAI & I var inte överens med några av vilka OpenAI-team som ville göra. Lägg till det hela och det var bara bättre att dela på bra sätt."
Företaget verkade ursprungligen ett idealiskt sätt för Musk att uppnå sina mål att utnyttja A.I. för mänsklighetens bästa. Entreprenören har varnat för att den "grundläggande risken" för civilisationen ställs av supermaskiga maskiner, uppmanar regeringarna att reglera "som vi gör mat, droger, flygplan och bilar".
Musk lovade 10 miljoner dollar för att starta företaget i början och dess uppdragsinriktning fokuserar på att "upptäcka och anta vägen till säker artificiell allmän intelligens".
Det är inte svårt att se hur program som gör historier som den som delas av OpenAI: s verkställande Greg Brockman kan användas av ett relativt litet antal personer för att påverka åsikter från en mindre kunnig allmänhet.
En OpenAI-anställd har skrivit ut det här AI-skrivna provet och lagt det i papperskorgen: http://t.co/PT8CMSU2AR pic.twitter.com/PuXEzxL7Xd
- Greg Brockman (@gdb) 14 februari 2019
"På grund av vår oro över skadliga tillämpningar av tekniken släpper vi inte ut den utbildade modellen," förklarade företaget i ett blogginlägg. "Som ett försök med ansvarsfullt avslöjande släpper vi istället en mycket mindre modell för forskare att experimentera med, såväl som ett tekniskt papper."
Meddelandet ledde till att tekniken skulle kunna användas för att generera falska nyheter. Analytics Indien varnade för att, med det kommande indiska valet senare i år, A.I. kan orsaka kaos med den demokratiska processen. OpenAIs forskare säger själv att, i kombination med forskning om att producera syntetiskt ljud och video, "måste allmänheten bli mer skeptisk till text som de hittar online."
Ryan Lowe, en A.I. vetenskapsman och tidigare OpenAI-praktikant, sammanfattade hotet om ett sådant program som används för att skapa falska nyheter kortfattat i denna genomgången Medium post:
… Ett automatiserat system skulle kunna: (1) möjliggöra dåliga aktörer, som inte har resurser att anställa tusentals människor, att utföra storskaliga informationskampanjer, och (2) drastiskt öka omfattningen av de informationskampanjer som redan drivs av statliga aktörer.
Inte alla OpenAIs forskning har visat sig vara så kontroversiell. Dactyl, avslöjad i juli 2018, kan anpassa sig till den verkliga fysiken för att manipulera föremål i den verkliga världen. Robotens hand är mycket komplex, med 24 grader av frihet, men systemet kan enkelt flytta objekten runt bara genom att använda tre RGB-kameror och koordinaterna för roboten.
Robothanden utnyttjar de allmänt använda förstärkningsinlärningsalgoritmerna som används för att slå människor i videospel. "OpenAI Five" -laget möttes mot ett team av professionella Dota 2 spelare 2018. Systemet utbildades på 180 år av spel och utnyttjade en staggerande 128.000 processorkärnor och 256 grafikprocessorer. Medan det slog ett mänskligt lag av ex-proffs och Twitch streamers, misslyckades det mot professionella spelare.
Musk använde Dota 2 matcher för att uppmärksamma Neuralink, hans plan att skapa ett symbiotiskt förhållande med A.I. genom att länka upp mänskliga hjärnor och undvika en robotöverföring:
Stort arbete av @OpenAI. Behöver den neurala gränssnittet snart aktivera human / AI symbios.
- Elon Musk (@elonmusk) 6 augusti 2018
I sin textgeneratormeddelande sa OpenAI att den planerar att diskutera sin bredare strategi om sex månader. Företaget hoppas att gnista en nyanserad diskussion om farorna med artificiell intelligens, ett drag som skulle kunna undvika några av de katastrofscenarier som Musk förutsåg. Men även företaget erkänner att det är "inte säkert att" hålla textgenerern "är det rätta beslutet idag." Med en schism som redan bildats mellan två stora enheter varna om farorna med AI är det osannolikt att lagstiftare kommer att ha en lätt tid på att utveckla lösningar.
OpenAI: Documents Reveal Elon Musks enorma donation till A.I. Forskning
Elon Musk är kopplad till en stor donation på $ 10 miljoner till OpenAI, nya dokument avslöjade onsdagsshowen och belyser omfattningen av den tekniska entreprenörens finansiering för att stödja forskning om avancerad artificiell intelligens. Musk, som grundade företaget men lämnade styrelsen förra året, har regelbundet varnat för farorna ...
Elon Musks OpenAI kan vara muskel för säker artificiell intelligensforskning
Under helgen tillkännagav Elon Musk, Sam Altman och andra Silicon Valley bigwigs oväntat lanseringen av OpenAI, ett ideellt företag som beskriver sitt mål som: "för att fördjupa digital intelligens på det sätt som mest sannolikt kommer att gynna mänskligheten som helhet, obestridd av ett behov av att generera finansiell avkastning. "
Elon Musks OpenAI-projekt identifierade 4 stora problem för AI
De flesta av problemen som kan uppstå av alltmer sofistikerad artificiell intelligens är mycket mer subtila än SkyNet, men det betyder inte smartare A.I. kommer inte utan riskerna.