Artikel top billede

(Foto: Computerworld)

Hackere kan kontrollere digitale assistenter med laserlys

Billige lasere kan beordre digitale, stemmestyrede assistenter som Alexa, Siri og Google Assistant til at gøre hvad som helst selv på lang afstand og gennem lukkede vinduer.

Af Palle Vibe, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Det er allerede et par år, siden at forskere ved Zhejiang University opdagede, at det er muligt at opnå kontrol over stemmestyrede digitale assistenter som Amazons Alexa, Apples Siri og Googles Assistant samt nogle stemmestyrede funktioner fra Samsung og Huawei ved at snyde dem med supersoniske lyde, som det menneskelige øre ikke kan opfatte.

Men nu viser det sig, at hackere med skumle hensigter også uden videre kan kompromittere de samme assistenter samt stemmeadlydende smartphones, tablets og bærbare computere bare ved at vifte med en laser.

Denne chokerende opdagelse fremgår af en undersøgelse foretaget af University of Michigan og University of Electro-Communications i Tokyo. Undersøgelsen, der bl.a. er finansieret af den japanske sammenslutning for Promotion of Science sammen med U.S. Defense Advanced Research Projects Agency (DARPA), skulle afdække mulige sårbarheder i IoT-enheder.

Mange mikrofoner ser lyset

Forskerne konstaterede nemlig, at de mikrofoner, som alle de nævnte stemmestyrede assistenter, gør brug af, reagerer på lys på samme måde, som de reagerer på lyd. For nok er mikrofoner konstrueret til at omsætte lydbølger til elektriske signaler, men de kan også påvirkes af lys, der rettes direkte mod dem.

Hvis du med andre ord retter en laser direkte mod en mikrofon i en stemmestyret enhed, bliver lyssignalerne omsat til elektriske signaler ganske som lyden fra dine stemmekommandoer bliver omsat til elektriske signaler af mikrofonen, når du taler.

Så ved at sigte med en lyskilde med høj intensitet og modulere lysstrålen med de rigtige informationer, fandt forskerne ud af, at du kan snyde flere trådløse, stemmestyrede IoT-enheder til at udføre de samme kommandoer, som du ellers aktiverer med din stemme.

Dermed kan hackere inducere uhørlige kommandoer i de stemmestyrede enheder ved hjælp af en almindelig laser, der såmænd sagtens kan være en billig 5 milliwatt laser-pointer af den slags, der bruges helt almindeligt til præsentationer, foredrag osv.

Ganske vist vil du under visse omstændigheder kunne se laserstrålen, men bruger hackerne usynlige infrarøde lasere, kan det foregå komplet uopdaget.

Sådanne angreb kan, ifølge forskerne, udføres på op til 110 meters afstand (om end selve laserglimtet vil kunne ses endnu længere væk). På den måde vil du altså pludselig kunne komme ud for, at nogen giver ordrer til dine stemmestyrede assistenter om at skrue ned for din musik, åbne garagedøren og starte din bil.

Laser-hackerens værktøjskasse

Det er desværre forbavsende simpelt at udføre laser-angreb mod trådløse stemmestyrede enheder. Alt hvad du (eller rettere en hacker) skal bruge er en billig laserpen, en laser-diode-driver, en lydforstærker og en kikkertlinse for bedre at kunne fokusere laseren ved større afstande. Billedet viser det nødvendige værktøj til at hacke stemmestyrede assistenter, og som du ser, er det hverken omfattende, specielt eller kostbart.

Ligeledes kan metoden også bruges til at kompromittere selve det Wi-Fi-netværk, assistenterne er tilsluttet for dermed også at kunne skaffe sig kontrol over din smartphone, tablet og computer. På den måde kan hackerne i sidste ende bl.a. misbruge dine kontokort og fifle med eventuelle medicinske enheder forbundet med netværket.

Sigtet behøver ikke engang at være ultra præcist. I nogle tilfælde lod forskerne blot laserlyset flyde i en lind strøm mod enheden. Men du kan også til eksempel koncentrere laserstrålen gennem en telelinse.

Ganske vist godtgjorde undersøgelsen, at mens de stemmestyrede assistenter som typisk bor i trådløse højttalere uden videre, lod sig snyde af sådanne laserlysglimt, var det sværere at narre mobiler.

I hvert fald fandt forskerne, at en iPhone kun kunne aktiveres på en afstand af omkring 10 meter, og i hvert fald to forskellige Android-mobiler skulle være inden for det halve. Og da smartphones og tablets som oftest kræver fingeraftryk eller ligefrem ansigtsgenkendelse, er faren måske ikke så stor. Men risikoen består immervæk i alle tilfælde.

Den koncise årsag til, at mikrofonerne reagerer sådan, har undersøgelsen lidt sværere ved at fastslå. Det har været foreslået, at laserpulserne opvarmer mikrofonens membran, der så igen opvarmer luften omkring den, så der opstår trykændringer svarende til lydbølger.

Forskerne mener, at mikrofonernes utilsigtede reaktion på lys skyldes en særlig fotoakustisk effekt, der af og til kan opstå i mikroelektromekaniske systemer (såkaldte MEMS), som eksempelvis de indbyggede mikrofoner i stemmestyrede IoT-enheder.

Forskere har fundet ud af, at stemmestyrede enheder kan hackes med billige laserpenne evt. med telesigte fra høje bygninger og langt væk. Glimt i dine ruder samt på enheden kan dog advare dig (hvis du er hjemme).

Men en nok så umiddelbar grund til, at det kan lade sig gøre, er at stemmestyrede enheder som Alexa, Siri og Google Home (og sikkert andre såvel) normalt ikke kræver efterfølgende godkendelse af dine ordrer (i stil med computerprogrammers ”er du sikker?”), før de fører dine kommandoer ud i livet. Og dermed er det blevet lidt lettere for ondsindede laserpen-svingere, der er ude i lyssky medfør.

Undersøgelsen slår også fast, at mens industrien først og fremmest koncentrerer sig om stadigt at forbedre de stemmestyrede enheders færdigheder, bruger producenterne kun begrænsede ressourcer på at undersøge de samme systemers sårbarhed over for software og hardware-baserede angreb.

Nu er det ganske vist professionelle forskere, der har stået bag undersøgelsen og udført eksperimenterne, men ondsindede personer kan sagtens gøre det samme (selv om der ganske vist ikke er rapporter om, at det er sket – endnu). Og der er desværre tale om lidt af en ond spiral, for selv om der er modforholdsregler, ligger hackerne ikke på deres lade side og vil formentlig udtænke nye angrebsmuligheder og nye våben.

Er der ikke noget, du kan stille op?

Der er (heldigvis) visse begrænsninger ved angrebsmetoden. Laser-hacking forudsætter jo selvsagt, at hackeren har fri sigtelinje til målet og kan se og ramme mikrofonen ret præcist. På den anden side er det i praksis desværre vanskeligt at konstatere, om du er udsat for et laserangreb.

Måske kan du bemærke, hvis angrebet sker pga. laserlys (medmindre de kriminelle bruger infrarøde lasere). Måske kan det også være, at din enhed kvitterer med en mistænkelig verbal respons eller reagerer atypisk på anden måde. Vil du undgå en trussel, kan du bl.a. prøve at aktivere mute-funktionen, når assistenten ikke nødvendigvis skal kunne modtage stemmeordrer fra dig.

Amazon-brugere kan desuden oprette pin-koder for at beskytte Alexa mod ondsindede laserpenne, men desværre kan en sådan pin-kode ”bruteforces” (altså bombarderes med forsøg, indtil den knækker), fordi der ikke er indbygget en begrænsning af antallet af mulige forsøg.

Andre selskaber og producenter ser et fremtidigt rede-sign af mikrofonerne i stemmestyrede assistenter til at være det bedste modtræk.

Da hackere normalt kun vil kunne bruge en enkelt laserpen ad gangen og næppe vil være i stand til at rette flere lasere mod en given enhed samtidig og præcist, foreslår forskerne eksempelvis at forsyne kommende enheder med flere mikrofoner, der opfanger din stemme fra forskellige retninger og positioner.

Dette skema viser, hvor tæt på laseren skal være, for at kunne påvirke forskellige stemmestyrede assistenter.

Bliver kun en enkelt mikrofon i din enhed påvirket, vil det så være en oplagt indikation af, at din enhed er udsat for et laserangreb, og enhedens software vil forholdsvis let kunne programmeres til at afvise enhver sådan induceret ordre.

Det vil også være en mulighed at afskærme mikrofonen på forskellig vis. Enten gennem et passende design eller ved at montere et lille uigennemsigtigt filter foran mikrofonen. En eventuel hacker vil dog altid kunne skrue op for laserstyrken for på den måde at forcere sig vej til enhedens mikrofon eller ligefrem beame så kraftigt, at laserlyset afbrænder filtret, så vejen på denne måde ligger åben.

Det hjælper selvsagt ingen her og nu. Det bedste, du i dag kan gøre, hvis du konstaterer uregelmæssige reaktioner fra en enhed, er straks at slukke for enheden.

Da angreb ad lysvejen selvsagt også forudsætter, at en hacker har frit udsyn til din enhed, er den næstbedste modforanstaltning at holde samme enhed langt væk fra vinduer og andre områder, hvor de på forskellig vis kan være synlige udefra gennem vinduerne i din bolig.

Men det allerbedste er nok at huske på, at der ikke i praksis har været konstateret angreb mod stemmestyrede trådløse enheder udført af indehavere af laserpenne. Endnu.
Se mere: https://voicebot.ai/2019/11/05/lasers-can-hack-voice-assistants-study