Die Amazon-Sprachsteuerung Alexa hat ein Sicherheitsproblem, wie Sicherheitsforscher der Universität Catania und der Royal Holloway University London
herausgefunden haben. So kann ein Angreifer, wenn er denn nahe genug an einem Alexa-fähigen Gerät wie einem von Amazons Echo Smart Speakern ist, diesen sozusagen kapern. So kann mit einem einfachen Sprachbefehl an Alexa ein weiterer Bluetooth-Lautsprecher gekoppelt werden, womit auch weitere Kommandos an das Zielgerät weitergegeben werden können, etwa über Text-to-Speech-Funktionen. Das Sicherheitsproblem wurde Full Voice Vulnerability respektive AvA (Alexa versus Alexa) genannt (
via "Ars Technica").
Wenn ein Gerät übernommen wurde, kann damit natürlich auch allerhand Schabernack betrieben werden, bis hin zu ernsthaft gefährlichen Aktionen. Denkbar ist neben dem Auslösen von Online-Bestellungen etwa die Kontrolle von Smart Devices, was im Falle eines Backofens oder eines Smart Locks problematisch sein kann.
Amazon selbst sieht das Problem als nicht besonders schlimm an, da das Ausnutzen der Lücke die physische Nähe eines Angreifers voraussetzt. Die Wissenschaftler empfehlen, das Mikrofon des Smart Speakers auszuschalten, wenn man selbst nicht zugegen ist. Im Video unten gibt es eine Demo des Exploits zu sehen.
(win)