Naturligt språkförståelse är framtiden för A.I. Röstigenkänning

$config[ads_kvadrat] not found

Naturligt urval

Naturligt urval
Anonim

Med adventen av Amazons Alexa och Siri konsekventa kapacitet att ta på sig fler sysslor (och bli mer och mer sassy), undrar många: vad är nästa för naturlig språkförståelse och konversationella röstgränssnitt?

Det finns flera företag hals och nacke i den här loppet. Det finns Wit.ai, företaget Facebook förvärvade - du kan leka med demo. (Prova det här kommandot: "Jag vill titta på katter.") Apple har sin HomeKit och gör med det som Apple gör bäst - sparkar röv. Amazon är också ute med sin Alexa-utrustade Echo och Echo Dot.

Ett företag som är varmt på spåret av naturlig språkförståelse är MindMeld. MindMeld tillhandahåller sina naturliga språkkunnande möjligheter till andra företag som vill lägga till intelligenta röstgränssnitt till sina produkter, tjänster eller enheter. Det San Francisco-baserade företaget ger partners infrastruktur och anpassningsalternativ så att deras enheter kan ha sina egna, finjusterade personliga assistenter. MindMeld meddelade nyligen ett sådant partnerskap med Spotify, men arbetar också med bilföretag, försvarsbyråer, e-handelsföretag och mycket mer. (Och det är naturligtvis inte möjligt att dela många detaljer i sådana partnerskap.)

Omvänd talade med MindMelds Sam Vasisht om tillståndet för röstigenkänningsfältet - men han var snabb att påpeka att "röstigenkänning" som ett företag är nu ett "vardagligt ämne." I dag handlar det om "naturlig språkförståelse. "Röstigenkänning har nästan nådt sin zenith: efter 50-taliga år av utveckling kan AIs nu effektivt känna igen tal. Dessa system är nästan bättre än människor på jobbet, och kommer säkert att överträffa bara dödliga snart.

Det förutsägbara nästa steget, då är det - precis som ett barns utveckling - att undervisa dessa system förstå språket som de nu kan känna igen. "Den här människan talar ord; Det här är orden "är långt ifrån", jag förstår vad den här människan säger; låt mig hjälpa till."

Och det ytterligare steget och utvecklingen kräver tolkning av menande: Imitera hur människans sinne behandlar verbal information. Det finns två delar i denna ekvation. Den första är avsikt: Vad är människans mål eller önskan att prata denna mening? En dator som kan extrahera en avsikt från en talad mening kan "förstå" att människan vill påverka x eller interagera med y. Sammankopplat med denna process är den andra delen av ekvationen: Enhet. A.I. måste veta hur man bestämmer den enhet som behandlas, syftet med människans avsikt.

För att göra det är MindMeld inte (som jag antog, eller hoppades) att använda filosofer. Det anlitar naturliga språkexperter, men mycket av A.I. "Inlärning" -processen är själv relativt hands-off. Om du lär dig att systemet ska förstå kaffebeställningar, måste du visa systemet på alla sätt som människor kan förmodligen beställa kaffe.

"Jag skulle vilja ha en mocka."

"Kan jag ha en kopp joe?"

"Bara ett stort kaffe för mig."

Och det är där de naturliga språkeksperterna - lingvisterna - kommer in. Men det är inte längre nödvändigt för att vi kan skaffa oss massor av data. Med dessa verktyg kan du fråga tusentals människor samma fråga och sammanställa deras svar. Då matar du bara svaren till A.I och voila: A.I. kan reagera på ett brett spektrum av möjliga förfrågningar. "Från tusentals frågor kan vi nu bara i princip lära oss hur miljarder andra frågor kan genereras", säger Vasisht.

Omvänd frågade Vasisht, som länge varit insider i A.I. och naturligt språk förståelse rike, att spekulera för oss.

Kan MindMeld delta i utökad dialog? Om jag till exempel frågar en uppföljningsfråga, kommer A.I. förstå och fortsätt att svara?

Ja. Det är en del av designen. Om någon frågar en fråga som är ofullständig - till exempel om jag beställer kaffe, och jag anger inte storleken på det kaffe jag vill, kommer det att komma tillbaka och säga, "Vilken storlek kaffe gör du vilja?"

Förväntar du dig några framsteg på Turing-testet?

Jag tycker att vi är ganska darn nära det. Jag menar, gjorde IBM Watson Jeopardy!, och jag tycker att det var ett riktigt bra exempel. Vi är på den tiden: Det blir väldigt nära. Precis som nu när det gäller taligenkänning är vi på den punkt där maskinerna är lika bra som människor, tror jag att vi kommer att - säkert under de kommande tre till fem år - vara i en punkt där de flesta av dessa konversationsröst system anses vara lika bra som människor.

Vilken typ av hemautomatisering saker gör MindMeld?

Vi kan tillämpa vår teknik på någon form av produkt, någon form av service, någon form av datadomän. Hemautomatisering är en av dessa. Inom hemmet har du belysningskontroll, termostat, säkerhetssystem, ljudsystem, videosystem, alla sådana saker. Vi kan styra något av systemen förutsatt att det finns ett lämpligt gränssnitt.

Vad önskar du att du kan ansluta till MindMeld i ditt eget hem?

Jag tycker att mer avancerade användarfall - som att prata med min Spotify för att säga "Spela mig Rolling Stones-spellistan" eller "Spela mig klassisk musik i kväll" - de här sakerna skulle vara fantastiska.

Någon mer oväntad eller out-of-the-box som du vill kontrollera med din röst?

Det jag har beskrivit för dig är de saker som jag tror är nära förestående. Med andra ord kommer dessa att hända mycket snart. Vad som inte händer omedelbart tror jag att det skulle vara saker som mikrovågor, kaffebryggare och kylskåp. Att ha dessa typer av apparater styrs - så jag kan i princip säga, "Är min kaffebryggare redo att göra kaffe? Slå på kaffemaskinen "och om den inte har blivit prepped ska den komma tillbaka och säga" Jag är ledsen, men din kaffemaskin är inte redo "- den typen av intelligens finns inte. Det kommer att vara den heliga graalen: Var i princip kan varje enhet prata tillbaka till dig och berätta vad det kan och inte kan göra. Men vi är inte helt där än.

Vad tycker du håller branschen tillbaka?

Dessa är extremt billiga apparater, nu. Jag menar att det här är apparater du kan köpa för nästan ingenting. För tio år sedan kostar de mycket mer.Så att bygga i nya funktioner är något som lägger till kostnaderna för dessa enheter. I slutändan är current värde propositionen mycket stark; De flesta av dessa tillverkare är inte benägna att lägga till nya funktioner, om inte de är till en mycket låg kostnad.

Jag tycker att det är en aspekt av det. Den andra aspekten av det är att vi pratar om att ha dessa enheter anslutna. Så det måste finnas mer än bara ett röstanvändningsfall för att ansluta dessa enheter. Det måste finnas fler funktioner som måste rida på den anslutningen innan de blir lönsamma.

Känner du till något företag som arbetar med den senare kapaciteten?

En hel del halvledarföretag arbetar med mycket låga mikrofonarrayer. Den typ av sak som du kan basera inbäddat - till mycket låg kostnad, på ungefär vilken enhet eller applikation som helst som tillåter att det finns en röstinmatning. Och du behöver inte stå bredvid dessa enheter - du kan prata 10 meter bort. Bygga den förmågan - Jag tror att det är utgångspunkten. Och jag tror att det kommer att tillåta folk att börja lägga mikrofoner på enheter, och sedan kommer andra avancerade funktioner att följa. Men från och med nu vet jag inte något företag som bygger denna typ av en smart kaffemaskin, smidig mikrovågsugn eller tvättmaskin.

Vad är din bästa uppskattning när vi har helt smarta hem, helt smarta lägenheter?

Idag har vi faktiskt nästan alla väsentliga delsystem i huset som människor vill ha automatiserade, som kan automatiseras. Detta inkluderar ljus, termostater, säkerhetssystem, garageportar, dörrlås - saker som det. Alla dessa saker kan göras. Frågan är verkligen runt prispunkter. Dessa är fortfarande på prispunkten där det är främst tidiga adoptrar och människor som har ett riktigt djupt behov av dem. Men priset på dessa saker faller dramatiskt, mycket snabbt. Jag tror att vi antagligen kommer att få dessa delsystem till massmarknaden de närmaste åren.

De andra sakerna jag pratade om - automatisera de mycket billiga apparaterna - jag tror att de antagligen är i fem till sju år långa tidsramar. Mer som 10 år ute, innan de blir verklighet. Men som jag sa tidigare är det saker som kommer att kräva ett antal andra saker att komma ihop. Och det kan hända tidigare om dessa olika ingredienser meshas ihop tidigare.

Vad tror du att en lägenhet i New York City eller San Francisco skulle se ut, säg 2050?

2050! Wow. Jag tror att vi kommer vara helt där. Den typ av saker som vi ser i science-fiction-filmer - där du kan prata ganska mycket med varje system i ditt hus och kontrollera allt med röst - Jag tror att sådana typer av funktioner kommer att bli utbredd. Visst i städer som New York och San Francisco.

$config[ads_kvadrat] not found