OpenAI: Elon Musks tidigare firma ligger på randen av en ny A.I. Epok

$config[ads_kvadrat] not found

Elon Musk's OpenAI Terrifies its Creators

Elon Musk's OpenAI Terrifies its Creators
Anonim

OpenAI, den ideella organisationen som forskar artificiell intelligens, medgrundad av Elon Musk i 2016, har gjort stora framsteg - även efter att Musk har skiljat sig bland tvivel om sin riktning. Forskare har utvecklat system som kan spela spel, skriva nyhetsartiklar och flytta fysiska föremål med banbrytande nivåer av fingerfärdighet.

OpenAI har orsakat kontrovers med sin forskning. Förra veckan tillkännagav den utvecklingen av en språkmodell, GTP2, som kan generera texter med begränsade uppmaningar. Med tanke på den mänskliga skriftliga prompten "blev Miley Cyrus fångad på butikshöjning från Abercrombie och Fitch på Hollywood Boulevard idag", producerade systemet en trovärdig komplett historia som fortsatte med "den 19-åriga sångaren blev fångad på kameran som eskorterades ut ur affären av säkerhetsvakter."

Det skapade också denna ursprungliga historia om pratande enhörningar baserat på en kort prompning:

"Jag har inte varit inblandad nära OpenAI i över ett år och har inte hantering eller styrelseövervakning," Musk kommenterade Twitter under helgen. "Jag var tvungen att fokusera på att lösa ett smärtsamt stort antal tekniska och tillverkningsproblem hos Tesla (speciellt) och SpaceX. Tesla konkurrerade också för några av samma personer som OpenAI & I var inte överens med några av vilka OpenAI-team som ville göra. Lägg till det hela och det var bara bättre att dela på bra sätt."

Företaget verkade ursprungligen ett idealiskt sätt för Musk att uppnå sina mål att utnyttja A.I. för mänsklighetens bästa. Entreprenören har varnat för att den "grundläggande risken" för civilisationen ställs av supermaskiga maskiner, uppmanar regeringarna att reglera "som vi gör mat, droger, flygplan och bilar".

Musk lovade 10 miljoner dollar för att starta företaget i början och dess uppdragsinriktning fokuserar på att "upptäcka och anta vägen till säker artificiell allmän intelligens".

Det är inte svårt att se hur program som gör historier som den som delas av OpenAI: s verkställande Greg Brockman kan användas av ett relativt litet antal personer för att påverka åsikter från en mindre kunnig allmänhet.

En OpenAI-anställd har skrivit ut det här AI-skrivna provet och lagt det i papperskorgen: http://t.co/PT8CMSU2AR pic.twitter.com/PuXEzxL7Xd

- Greg Brockman (@gdb) 14 februari 2019

"På grund av vår oro över skadliga tillämpningar av tekniken släpper vi inte ut den utbildade modellen," förklarade företaget i ett blogginlägg. "Som ett försök med ansvarsfullt avslöjande släpper vi istället en mycket mindre modell för forskare att experimentera med, såväl som ett tekniskt papper."

Meddelandet ledde till att tekniken skulle kunna användas för att generera falska nyheter. Analytics Indien varnade för att, med det kommande indiska valet senare i år, A.I. kan orsaka kaos med den demokratiska processen. OpenAIs forskare säger själv att, i kombination med forskning om att producera syntetiskt ljud och video, "måste allmänheten bli mer skeptisk till text som de hittar online."

Ryan Lowe, en A.I. vetenskapsman och tidigare OpenAI-praktikant, sammanfattade hotet om ett sådant program som används för att skapa falska nyheter kortfattat i denna genomgången Medium post:

… Ett automatiserat system skulle kunna: (1) möjliggöra dåliga aktörer, som inte har resurser att anställa tusentals människor, att utföra storskaliga informationskampanjer, och (2) drastiskt öka omfattningen av de informationskampanjer som redan drivs av statliga aktörer.

Inte alla OpenAIs forskning har visat sig vara så kontroversiell. Dactyl, avslöjad i juli 2018, kan anpassa sig till den verkliga fysiken för att manipulera föremål i den verkliga världen. Robotens hand är mycket komplex, med 24 grader av frihet, men systemet kan enkelt flytta objekten runt bara genom att använda tre RGB-kameror och koordinaterna för roboten.

Robothanden utnyttjar de allmänt använda förstärkningsinlärningsalgoritmerna som används för att slå människor i videospel. "OpenAI Five" -laget möttes mot ett team av professionella Dota 2 spelare 2018. Systemet utbildades på 180 år av spel och utnyttjade en staggerande 128.000 processorkärnor och 256 grafikprocessorer. Medan det slog ett mänskligt lag av ex-proffs och Twitch streamers, misslyckades det mot professionella spelare.

Musk använde Dota 2 matcher för att uppmärksamma Neuralink, hans plan att skapa ett symbiotiskt förhållande med A.I. genom att länka upp mänskliga hjärnor och undvika en robotöverföring:

Stort arbete av @OpenAI. Behöver den neurala gränssnittet snart aktivera human / AI symbios.

- Elon Musk (@elonmusk) 6 augusti 2018

I sin textgeneratormeddelande sa OpenAI att den planerar att diskutera sin bredare strategi om sex månader. Företaget hoppas att gnista en nyanserad diskussion om farorna med artificiell intelligens, ett drag som skulle kunna undvika några av de katastrofscenarier som Musk förutsåg. Men även företaget erkänner att det är "inte säkert att" hålla textgenerern "är det rätta beslutet idag." Med en schism som redan bildats mellan två stora enheter varna om farorna med AI är det osannolikt att lagstiftare kommer att ha en lätt tid på att utveckla lösningar.

$config[ads_kvadrat] not found