Tech reviews and news

Gömmer hemliga kommandon Alexa, Siri och Assistant inom musik?

click fraud protection

På 1970- och 1980-talet anklagade dessa älskvärda fundamentalistiska kristna typer Led Zeppelin för att dölja satantiska meddelanden i låten Stairway To Heaven. Dessa var naturligtvis bara hörbara när spåret spelades bakåt.

Den "backmasking" furore, som ledde till masskrossning och bränning av skivor i kyrkor, låter riktigt dumt idag (som det antagligen skulle ha gjort då).

Men fyra decennier senare skulle vi kunna upprepa en upprepning.

Snabbspolning fram till 2018 och forskning som hävdar att musik kan dölja hemliga kommandon till röststyrda personliga assistenter inom våra anslutna enheter.

Forskare vid University of California, Berkeley kunde aktivera AI-assistenterna på smartphones och smarta högtalare, vilket fick dem att öppna webbplatser eller ringa telefonnummer.

Oroande säger studenterna att de dåliga skådespelarna kan använda meddelanden gömda i musiken för att låsa upp dörrar, komma åt konton eller lägga till föremål i inköpslistor.

Relaterad: Google Assistant vs Amazon Alexa

Det nya forskningsdokumentet undersöker hur kommandona kan inbäddas i musik eller inspelade textinspelningar för att manipulera de alltid lyssnande assistenterna som Siri, Alexa och Google Assistant.

Kommandona är inte urskiljbara för människor, men kommer att slukas av Echo- eller Home-högtalare, föreslår forskningen.

"Vi ville se om vi skulle kunna göra det ännu mer smygande", säger doktorsexpert Nicholas Carlini. "Mitt antagande är att de skadliga människorna redan anställer människor för att göra vad jag gör."

Forskarna fokuserar sitt arbete på hur människor och maskiner känner igen tal på olika sätt.

De kunde utföra kommandot "Okej Google, bläddra till evil.com" inom den talade frasen "utan dataset är artikeln värdelös."

Det kunde också bädda in samma kommando inom ett fyra sekunders segment av Verdis Requiem.

Du kan höra ljudfilerna på Carlinis webbplats. Försök som vi kan, vi kunde inte urskilja skillnaden.

A New York Times rapporten förklarar hur det fungerar:

”Med ljudattacker utnyttjar forskarna klyftan mellan taligenkänning mellan människor och maskiner. Taligenkänningssystem översätter vanligtvis varje ljud till en bokstav, så småningom sammanställs det till ord och fraser. Genom att göra små ändringar av ljudfiler kunde forskare avbryta det ljud som taligenkänningssystemet var tänkt att höra och ersätta det med ett ljud som skulle transkriberas annorlunda av maskiner medan det nästan inte kan detekteras för människan öra."

Med detta i åtanke kan gärningsmän potentiellt spela musik inom "hörsnäcka" på ett Google Home-mikrofon för att beordra det att få åtkomst genom ditt smarta dörrlås.

Amazon berättade för NYT är att vidta åtgärder för att hålla Alexa säker, medan Google säger att assistenten har funktioner som kan mildra kommandon som inte är urskiljbara för människor. Apple påpekar att HomePod inte kan göra saker som att öppna dörrar, medan iPhones måste vara upplåsta för att utföra vissa Siri-kommandon.

Carlini tillade: "Vi vill visa att det är möjligt och hoppas sedan att andra kommer att säga," OK det är möjligt, nu ska vi försöka fixa det. ""

Stänger du av mikrofonerna på dina smarta högtalare när vi pratar? Eller låter detta långsökt? Skicka oss en rad @TrustedReviews på Twitter

Varför iOS 9 Spotlight-sökning gör mig hjärnskad

Varför iOS 9 Spotlight-sökning gör mig hjärnskad

Jag installerade pliktmässigt iOS 9 så snart det var tillgängligt för min iPhone 6 Plus, men det ...

Läs Mer

IPhone 7 kan ha hemknappen 'Force Touch ID'

Det finns nya bevis för att iPhone 7 (eller vad det än heter) kan komma med en “Force Touch ID” -...

Läs Mer

Kör hem till jul? Så här ger du en liveuppdatering

Ny forskning från WhatsApp visar att 4 av 10 av oss är sena hemma när vi gör längdåkning. Vill du...

Läs Mer

insta story