Forskare avslöjar hemliga kommandon för kapning av din Siri

$config[ads_kvadrat] not found

Forskare Anna Wåhlin om den normala höjningen av havsytan

Forskare Anna Wåhlin om den normala höjningen av havsytan
Anonim

Forskare har avslöjat hur hemliga kommandon skulle kunna använda röstkontrollverktyg som Siri och Google Now för att ta över din smartphone utan din kunskap.

"Medan albiquitous röstigenkänning ger många fördelar," skriver forskarna i ett papper som presenteras i augusti, "dess säkerhetsimplikationer är inte väl studerade." Så laget från Georgetown University och University of California, Berkeley, körde en serie av tester för att se hur lätt dessa assistenter kunde luras och när de visat att en telefon skulle kunna tvingas aktivera flygläge eller ring 911, försökte man räkna ut hur man försvarar mot dessa attacker.

Forskarna kunde göra dessa virtuella assistenter svara på ett kommando som människor inte ens kan förstå. (Det låter lite som ett kors mellan ett barns försök att tala en hel mening och bruset som gjorts av en trasig kaffekvarn.) Det beror på att virtuella assistenter ska kunna förstå så många som möjligt, vilket innebär att de kan gissa på ord även om vi inte kan analysera.

Forskarna fann att maskinerna var bättre på att förstå kommandon än människor hela tiden - med ett undantag - och är mycket bättre att upptäcka när kommandon har blivit obfuscated. Chansen är bra att din virtuella assistent gör ett bättre jobb för att förstå mänskligt tal än du gör, vilket innebär att du aldrig vet om det har fått ett kommando.

Detta är en mindre olägenhet om någon kommandonerar telefonen för att aktivera flygläget. Det kan vara ett större problem om de kan öppna en webbsida som används för att distribuera skadlig kod, eller för att få telefonen att dela information som den inte ska dela. Och just nu finns det inget sätt att försvara sig mot dessa typer av attacker utan att inaktivera Google Now, Siri eller vilken virtuell assistent som finns på din telefon.

"Vi är inte medvetna om någon enhet eller ett system som för närvarande försvarar mot obfuscated röstkommandon," skriver forskarna i sitt papper. De föreslår några möjliga försvar - audio CAPTCHAs, som hjälper virtuella assistenter att upptäcka skillnaderna mellan naturligt eller syntetiserat tal, meddelande användare när ett kommando är utfärdat - men ingen av dem är för närvarande tillgängliga för konsumenterna.

Så se upp nästa gång du bestämmer dig för att titta på en slumpmässig YouTube-video. Du vet aldrig när någon kan dra nytta av en av telefonens flaggskeppsfunktioner för att irritera dig i bästa fall och kompromissa med din telefons säkerhet i värsta fall.

Läs hela papperet, "Dolda röstkommandon", nedan:

$config[ads_kvadrat] not found