Siri hört auf fremde Befehle!

0
6

Musikstücke, Sprachaufnahmen oder Ultraschall-Aufnahmen mit heimlichen Befehlen, die die Nutzer nicht hören können, können Sprachassistenten wie Siri, Alexa oder Google Assistant aktivieren und große Gefahren für Nutzer auslösen.
Chinesische und amerikanische Forscher haben herausgefunden, dass man Sprachassistenten wie Siri mit versteckten Befehle in Musik steuern kann. Für die Forschung hat die Forschungsgruppe aus Berkeley bestimmte Befehle zur Steuerung von Geräten im Haushalt in Musikstücke an die digitale Sprachassistenten geschickt.
FREQUENZEN, DIE SIRI KENNT, WIR ABER NICHT!
Bedrohlich klingt es, wenn sie erzählen, dass sie Frequenzen zur Hilfe gezogen, die das menschliche Ohr nicht hören kann. Diese können aber die Mikrofone von Siri, Google Assistant oder Alexa wahrnehmen. Die Frage ist nun, wie gefährlich ihre Reaktionen auf solche versteckten Befehle sein können.
ENTSPERREN VON TÜREN DURCH EIN SONG ÜBER RADIOSENDUNG

google assistant
Die Studie zeigt, dass solche versteckten Befehle das Zuhause gefährden können. Noch schlimmer kann es sogar sein, wenn diese sich in Musikstücken befinden und durch Radiosendungen in vielen Haushalten Geräte gleichzeitig aktivieren. Das Aktivieren von Heizungen oder Einkauf mit fremden Kreditkarten sind nur einige Beispiele, inwieweit die Sprachassistenten von Verbrechern als Tatwerkzeug genutzt werden können.
DELPHIN-ATTACKEN ALS NEUE DIETRICH VON VERBRECHERN
Solche Befehle werden als Delphin-Attacken bezeichnet und alle verfügbaren Systeme sind betroffen. Angreifer können auch bestimmte Webseiten zur Hilfe ziehen, die beim Ansurfen einen Ton als Delphin Attacke geben können. Nach solchen Befehlen kann sich das Smartphone, das sich im Raum befindet, aktivieren.
VORHANDENE SICHERHEITSSYSTEME SIND VÖLLIG UNAUSREICHEND
Die Wissenschaftler empfehlen deshalb, dass alle Sprachassistenten mit einer stark verbesserten Sicherheit geschützt werden. Sie sollen in der Lage sein, mit einer höheren Genauigkeit die Befehle wahrzunehmen und zu erkennen, ob der Befehl wirklich von dem Nutzer stammt.
Forscher sehen hier eine große Aufgabe, die noch erfüllt werden soll. Was solche Systeme bereits für solche Gefahren anbieten, ist offensichtlich nicht ausreichen, so die Wissenschaftler.

Ein anderes Problem war, dass Apples Siri versteckte Nachrichten vorliest. Selbst bei gesperrtem iPhone können fremde Menschen die Nachrichten von WhatsApp, Facebook Messenger und Gmail vorlesen.

Hinterlasse eine Antwort