Amazon Echo & Co.: Forscher decken gravierende Sicherheitslücken auf!

  • Allgemein

  • HotPi
  • 1193 Aufrufe 1 Antwort

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Amazon Echo & Co.: Forscher decken gravierende Sicherheitslücken auf!

    Amazon Echo & Co.: Forscher decken gravierende Sicherheitslücken auf!
    von Udo Lewalter
    22.10.2019, 08:37 Uhr Smarte Lautsprecher spielen nicht nur Musik ab und lesen Texte vor, sie hören auch zu, um die Kommandos zu verstehen. Das birgt Gefahren!

    Berliner Sicherheitsforscher haben nach einem Bericht des Nachrichtenmagazins „Der Spiegel“ Sicherheitslücken in dem Freigabeprozess von Apps für smarte Lautsprecher von Amazon und Google aufgedeckt. Die Forscher der Berliner Security Research Labs (SRLabs) verbreiteten über die offiziellen App-Stores für Amazon Echo und Google Home Apps, mit denen sich Nutzer eines Amazon Echo oder Google Home unbemerkt abhören ließen. Dabei sei es gelungen, die Sicherheitskontrollen von Amazon und Google zu überlisten.

    Smarte Lautsprecher: Apps lauschten weiter

    Die SRLabs-Forscher hatten zunächst harmlose Varianten der Apps, die bei Amazon „Skills“ heißen und bei Google „Actions“ oder „Aktionen“, bei den Unternehmen eingereicht und freischalten lassen. Die Anwendungen beantworteten Nutzeranfragen zum Beispiel nach einem Horoskop und täuschten anschließend ihre Inaktivität vor. Nach der ersten Sicherheitskontrolle hat man die Apps allerdings so verändert, dass sie nach einer „Goodbye“-Meldung weiterhin lauschten. Amazon und Google entdeckten die unerlaubten Funktionen der manipulierten App nicht.

    Raffiniertes Passwort-Phishing

    Die Forscher versuchten bei ihrem Experiment auch, an die Passwörter der Amazon- beziehungsweise Google-Nutzer zu kommen. Die manipulierten Apps reagierten dabei auf jede Frage der Anwender mit einer Fehlermeldung. Diese besagte, dass die entsprechende Funktion derzeit nicht verfügbar sei. Danach verwies man die Nutzer auf ein vermeintliches Sicherheits-Update: „Bitte sagen Sie Start, gefolgt von Ihrem Passwort“. Für unaufmerksame Anwender musste das klingen, als ob die Aufforderung nicht mehr von der App, sondern direkt von Amazon kommt. Die Forscher erklärten, Nutzer sollten immer misstrauisch sein, wenn man sie nach ihrem Passwort frage und man es laut sagen solle.

    Ein Sicherheitsmerkmal unüberwindbar

    In der Praxis richteten die Apps quasi keinen Schaden an, weil sie zunächst einmal unter den Tausenden von Skills und Aktionen gefunden und installiert werden mussten. Außerdem ließ sich von den Berliner Forschern ein wichtiges Sicherheitsmerkmal nicht außer Kraft setzen: Die smarten Lautsprecher zeigen mit leuchtenden Farbsignalen an, dass sie die Sprache aufzeichnen. Nutzer, die auf die LED-Signale achteten, bekamen also mit, dass die Sprachübertragung immer noch läuft.

    Amazon und Google: Kritik an Freigabeprozess

    Das Experiment legte gravierende Schwachstellen bei der Freigabe von App-Aktualisierungen bei Amazon und Google offen. Sie achteten nur bei der erstmaligen Aufnahme der Apps in den Store darauf, dass die „Skills“ oder „Aktionen“ nicht wie Abhörwanzen funktionieren. Bei den Updates hatte man die neu eingebauten Lecks nicht entdeckt.

    Amazon und Google reagierten

    Die SRLabs-Forscher informierten die Unternehmen über ihre Versuche, die daraufhin reagierten. „Wir haben Schutzmaßnahmen ergriffen, um diese Art von Skill-Verhalten zu erkennen und zu verhindern. Skills werden abgelehnt oder entfernt, sobald ein solches Verhalten identifiziert wird“, teilte Amazon dem „Spiegel“ mit. Eine Google-Sprecherin schrieb auf Anfrage: „Wir untersagen und entfernen jede Action, die gegen unsere Richtlinien verstößt.“ Die von den Forschern entwickelten Actions habe Google gelöscht. „Wir setzen zusätzliche Mechanismen ein, um derartiges in Zukunft zu unterbinden.“ (Mit Material der dpa.)


    Quelle: Amazon Echo & Co.: Forscher decken Sicherheitslücken auf! - COMPUTER BILD
  • Smarte Lautsprecher mit Alexa, Siri und Google Assistant anfällig für Laser-Angriffe

    Einfallstor sind die verwendeten Mikrofone. Sie sind so empfindlich, dass Laserstrahlen Vibrationen der Membran auslösen können. Die Forscher testen ihren Angriff erfolgreich über eine Entfernung von 110 Metern.

    Sicherheitsforscher haben eine Möglichkeit gefunden, intelligente Lautsprecher, die mit sogenannten MEMS-Mikrofonen ausgestattet sind, aus der Ferne zu steuern. Betroffen sind unter anderem Smart Speaker mit den digitalen Assistenten Amazon Alexa, Facebook Portal, Apple Siri und Google Assistant.

    MEMS-Mikrofone basieren auf Mikroelektromechanischen Systemen (Microelectromechanical Systems, MEMS). Sie sind so empfindlich, dass sie die elektromagnetischen Wellen eines Lasers als Geräusche interpretieren können. Per Laser ist es also möglich, Sprachbefehle über eine große Distanz zu übermitteln.

    Entwickelt wurde der Angriff von Forscher der University of Electro-Communications in Tokio sowie der University of Michigan. Ihre Erkenntnisse präsentierten sie nun in einem Papier mit dem Titel: „Licht-Befehle: Laserbasierte Audio-Injection-Angriffe auf sprachgesteuerte Systeme“. „Wir zeigen, wie ein Angreifer beliebige Audiosignale einschleusen kann, indem er einen amplituden-modulierten Lichtstrahl auf die Mikrofonöffnung richtet“, heißt es darin.

    „Wir zeigen auch, die wie dieser Effekt zu einem Angriff per Sprachbefehl aus der Ferne auf sprachgesteuerte Systeme führt“, ergänzten die Forscher. „Die Untersuchung verschiedener Produkte, die Amazon Alexa, Apple Siri, Facebook Portal und Google Assistant nutzen, zeigt, wie Licht benutzt werden kann, um die vollständige Kontrolle über solche Geräte über Entfernungen von bis zu 110 Metern und von unterschiedlichen Gebäuden aus zu erhalten.“

    Ihren Angriff nennen die Forscher LightCommands. Er basiert darauf, dass die Membranen der Mikrofone Töne in elektrische Signale umwandeln. Die nicht hörbaren Laserstrahlen verursachen den Forschern zufolge Vibrationen auf der Membran, die dann wiederum als Töne beziehungsweise Befehle erkannt werden. Wie ihr Angriff funktioniert, zeigen die Forscher auch in einem Video.

    Wichtigste Voraussetzung ist, dass sich ein anzugreifendes Gerät in direkter Sicht befindet. Den Laser richteten sie mit einem handelsüblichen Teleobjektiv und einem Stativ aus. Die von ihnen getestet Entfernung von 110 Metern beruht den Forschern zufolge aber lediglich auf dem Umstand, dass ihnen für ihre Experimente kein längerer Raum zur Verfügung stand.

    Derzeit ist es bei sprachgesteuerten Assistenzsystemen nicht üblich, dass sich Nutzer außerhalb der Ersteinrichtung bei ihrem Gerät authentifizieren. Es wird stets vorausgesetzt, dass die smarten Lautsprecher innerhalb eines Gebäudes beziehungsweise einer Wohnung oder einem Büro betrieben werden und der Zugang dadurch geregelt wird. Lichtbasierte Angriffe aus der Ferne widersprechen jedoch dieser Annahme und machen möglicherweise neue Zugangskontrollen erforderlich.

    Die Forscher gehen davon aus, dass Kriminelle bei einem Angriff zuerst die Lautstärke auf null reduzieren würden. Danach wären sie in der Lage, unbemerkt beispielsweise Einkäufe zu tätigen. Wird ein intelligenter Lautsprecher auch zur Steuerung von Geräten wie Glühbirnen oder gar Türschlössern verwendet, wären auch Szenarien wie Einbrüche denkbar.

    Zudem fanden sie heraus, dass Google Home und Lautsprecher mit Amazon Alexa Einkäufe nur ausführen, wenn sie von bekannten Stimmen angestoßen werden. Unbekannte Stimmen sind jedoch in der Lage, bei beiden Produkten beispielsweise ein intelligentes Türschloss zu öffnen.

    Um Geräte gegen laserbasierte Angriffe zu schützen schlagen die Forscher unter anderem vor, vor der Ausführung bestimmter Befehle den Nutzer mit einer zufälligen Fragen zu authentifizieren. Außerdem wäre es bei Systemen mit mehren Mikrofonen möglich, die Ausführung von Befehlen zu unterbinden, falls nur ein Mikrofon angesprochen wird – wie es bei einem laserbasierten Angriff der Fall wäre.

    Quelle: Smarte Lautsprecher mit Alexa, Siri und Google Assistant anfällig für Laser-Angriffe | ZDNet.de