in , ,

Amazon Echo peut envoyer vos conversations à vos contacts à votre insu

amazon echo bug

Utilisateurs d’Amazon Echo, prenez garde ! Une histoire inquiétante s’est déroulée à Portland, aux Etats-Unis. La conversation d’une famille a été enregistrée par l’enceinte connectée, avant d’être envoyée, au hasard, à une personne dans la liste de contacts des utilisateurs. 

Les enceintes connectées peuvent s’avérer très utiles, mais de nombreux consommateurs craignent d’être espionnés en permanence à leur insu par le Google Home, l’Amazon Echo ou encore l’Apple HomePod. Aujourd’hui, une nouvelle anecdote laisse penser que ces soupçons ne sont pas pleinement infondés.

C’est dans un foyer de Portland que s’est déroulée la mésaventure. Alors qu’une famille d’utilisateurs d’Amazon Echo conversait tranquillement, l’enceinte connectée a enregistré leur discussion et l’a envoyée à l’un de leurs contacts : un employé du père de famille. Le destinataire involontaire a alors prévenu son patron.

Amazon Echo : un incident provoqué par 4 erreurs d’interprétation successives

amazon echo alexa erreurs

Furieuse, la famille a directement contacté Amazon pour savoir ce qui a bien pu se passer. La firme américaine a alors passé en revue les logs et a découvert la cause de cette fâcheuse anomalie. En réalité, le Amazon Echo s’est activé lorsqu’un mot proche de « Alexa » a été employé au cours de la conversation.

Par la suite, l’assistant vocal a mal interprété les mots de ses propriétaires. Alexa a pensé qu’on lui demandait d’envoyer un message contenant les phrases précédentes. Sans que les utilisateurs y prêtent attention, elle a ensuite demandé à qui envoyer le message. L’un des mots prononcés a alors été confondu avec le nom du contact. Au moment où Alexa a demandé confirmation, l’un des membres de la famille a prononcé le mot « oui ».

Au total, ce sont donc quatre erreurs d’interprétation qui se sont succédé pour donner lieu à cet événement regrettable. Suite à la publication de cette histoire insolite, Amazon a d’ores et déja promis de prendre les mesures nécessaires pour qu’un tel incident ne se reproduise plus jamais.

One Comment

Commenter
  1. Le vrai problème, est-ce l’erreur d’interprétation de l’IA qui est somme toute amusante et à relativiser avec nos propres erreurs d’envoi de mail ou autre à la mauvaise personne?
    Le vrai problème n’est il pas la capacité d’Amazon d’accéder directement à la bande son pour faire son debug? Ont-ils demandé l’autorisation à la famille? Est-ce stocké en local, sur le cloud? ne stocke-t-il que le son après l’activation par le mot ‘Alexa’ ou la totalité de la journée? Pendant combien de temps ces conversations sont conservées pour analyse?
    C’est à mon avis la partie intéressante à creuser …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.