Découvert: 1000 phrases qui déclenchent incorrectement Alexa, Siri et Google Assistant

Alors qu’Alexa, Google Home, Siri et d’autres assistants vocaux sont devenus des appareils dans des millions de foyers, les défenseurs de la vie privée se sont inquiétés du fait que leur écoute quasi constante des conversations à proximité pourrait présenter plus de risques que d’avantages pour les utilisateurs. De nouvelles recherches suggèrent que la menace pour la vie privée pourrait être plus grande qu’on ne le pensait auparavant.

Les résultats montrent à quel point il est courant que les dialogues dans les émissions de télévision et d’autres sources produisent de faux déclencheurs qui provoquent l’allumage des appareils, envoyant parfois des sons à proximité à Amazon, Apple, Google ou d’autres fabricants. Au total, les chercheurs ont découvert plus de 1 000 séquences de mots, y compris celles de Le Trône de Fer, Famille moderne, Château de carteset les diffusions d’actualités – qui déclenchent incorrectement les appareils.

“Les appareils sont intentionnellement programmés d’une manière un peu indulgente, car ils sont censés être capables de comprendre leurs humains”, l’une des chercheurs, Dorothea Kolossa, m’a dit. “Par conséquent, ils sont plus susceptibles de démarrer une fois trop souvent plutôt que pas du tout.”

Ce qu’il ne faut pas dire

Exemples de mots ou de séquences de mots qui fournissent de faux déclencheurs:

  • Alexa: «inacceptable», «élection» et «une lettre»
  • Google Home: “OK, cool” et “D’accord, qui lit”
  • Siri: «une ville» et «hey jerry»
  • Microsoft Cortana: «Montana»

Les deux vidéos ci-dessous montrent Eu personnage Jon Snow disant “une lettre” et Famille moderne le personnage Phil Dunphy prononçant «hey Jerry» et activant Alexa et Siri, respectivement.

Déclenchement accidentel # 1 – Alexa – Cloud

Déclenchement accidentel # 3 – Hey Siri – Cloud

Dans les deux cas, les phrases activent le périphérique localement, où les algorithmes analysent les phrases; après avoir conclu à tort qu’il s’agit probablement d’un mot de réveil, les appareils envoient ensuite l’audio à des serveurs distants où des mécanismes de vérification plus robustes confondent également les mots avec des termes de réveil. Dans d’autres cas, les mots ou les phrases ne trompent que la détection locale des mots de réveil mais pas les algorithmes dans le cloud.

Intrusion dans la vie privée inacceptable

Lorsque les appareils se réveillent, selon les chercheurs, ils enregistrent une partie de ce qui est dit et le transmettent au fabricant. L’audio peut ensuite être transcrit et vérifié par les employés, dans le but d’améliorer la reconnaissance des mots. Résultat: des fragments de conversations potentiellement privées peuvent se retrouver dans les journaux de l’entreprise.

Le risque pour la vie privée n’est pas uniquement théorique. En 2016, les autorités chargées de l’application des lois enquêtant sur un meurtre a assigné Amazon pour des données Alexa transmises dans les moments précédant le crime. L’année dernière, The Guardian a rapporté que les employés d’Apple transcrire des conversations sensibles entendues par Siri. Ils incluent des discussions privées entre médecins et patients, des accords commerciaux, des transactions apparemment criminelles et des rencontres sexuelles.

Le document de recherche, intitulé “Inacceptable, où est ma vie privée?”, Est le produit de Lea Schönherr, Maximilian Golla, Jan Wiele, Thorsten Eisenhofer, Dorothea Kolossa et Thorsten Holz de l’Université de la Ruhr Bochum et Max Planck Institute for Security and Privacy. Dans un bref résumé des résultats, ils ont écrit:

Notre configuration a pu identifier plus de 1 000 séquences qui déclenchent incorrectement des haut-parleurs intelligents. Par exemple, nous avons constaté qu’en fonction de la prononciation, «Alexa» réagit aux mots «inacceptable» et «élection», tandis que «Google» déclenche souvent «OK, cool». «Siri» peut être dupe de «une ville», «Cortana» de «Montana», «Computer» de «Peter», «Amazon» de «and the zone» et «Echo» de «tabac». Voir des vidéos avec des exemples de tels déclencheurs accidentels ici.

Dans notre article, nous analysons un ensemble diversifié de sources audio, explorons les biais de genre et de langage et mesurons la reproductibilité des déclencheurs identifiés. Pour mieux comprendre les déclencheurs accidentels, nous décrivons une méthode pour les fabriquer artificiellement. Grâce à la rétro-ingénierie du canal de communication d’un Amazon Echo, nous sommes en mesure de fournir de nouvelles informations sur la manière dont les sociétés commerciales gèrent ces déclencheurs problématiques dans la pratique. Enfin, nous analysons les implications sur la vie privée des déclencheurs accidentels et discutons des mécanismes potentiels pour améliorer la confidentialité des haut-parleurs intelligents.

Les chercheurs ont analysé les assistants vocaux d’Amazon, Apple, Google, Microsoft et Deutsche Telekom, ainsi que trois modèles chinois de Xiaomi, Baidu et Tencent. Les résultats publiés mardi se sont concentrés sur les quatre premiers. Des représentants d’Amazon, d’Apple, de Google et de Microsoft n’ont pas immédiatement répondu à une demande de commentaire.

L’article complet n’a pas encore été publié, et les chercheurs ont refusé d’en fournir une copie avant la date prévue. Cependant, les résultats généraux fournissent déjà des preuves supplémentaires que les assistants vocaux peuvent empiéter sur la vie privée des utilisateurs même lorsque les gens ne pensent pas que leurs appareils écoutent. Pour ceux qui sont préoccupés par le problème, il peut être judicieux de garder les assistants vocaux débranchés, éteints ou bloqués à l’écoute, sauf en cas de besoin, ou de ne plus les utiliser.

Leave a Reply