in

Amazon veut faire parler vos proches décédés avec Alexa

amazon alexa proches décédées

Alexa, l'assistant vocal d', sera capable de ressusciter la voix de parents décédés. Les utilisateurs auront ainsi l'impression de parler à des êtres perdus dans l'au-delà.

Le premier vice-président d'Alexa, Rohit Prasad, a présenté à la conférence Re : Mars d'Amazon une nouvelle fonctionnalité stupéfiante de l'assistant vocal. Il s'agit de la capacité supposée d'imiter les voix. Amazon n'a pas précisé quand elle comptait commercialiser cette fonctionnalité ni si elle prévoyait de restreindre son utilisation.

Alexa d'Amazon imitera la voix de vos proches décédés

Amazon a présenté une capacité d'imitation comme un moyen de commémorer des êtres chers disparus. La société a diffusé une vidéo de démonstration dans laquelle Alexa fait la lecture à un enfant avec la voix de sa grand-mère récemment décédée. Mr Prasad a souligné que l'entreprise cherchait des moyens de rendre l'IA aussi personnelle que possible. « Si l'IA ne peut pas faire disparaître cette souffrance liée à la perte d'un être cher, la technologie peut certainement faire durer les souvenirs »

Il a ajouté qu'Amazon cherchait également à rendre l'assistant Alexa plus proche de la réalité afin qu'il puisse faire preuve d'un « bon sens de type humain » et d'une « empathie de type humain ».

Selon un porte-parole d'Amazon, la nouvelle compétence peut créer une empreinte vocale synthétique. Pour ce faire, elle doit être entraînée sur une minute d'enregistrement audio de la personne qu'elle est censée reproduire.

Une technologie qui soulève des problèmes de sécurité

Actuellement, de nombreuses banques utilisent la reconnaissance vocale comme alternative aux mots de passe des services bancaires par téléphone. Cette nouvelle fonctionnalité soulève de nombreuses inquiétudes quant à son utilisation pour usurper l'identité de personnes vivantes. En effet, elle peut être utilisée pour contourner les systèmes de sécurité.

Par exemple, en 2020, aux Émirats arabes unis, des fraudeurs ont trompé un directeur de banque. Ils lui faisaient transférer 35 millions de dollars après s'être fait passer pour un directeur d'entreprise. Mais les délits de contrefaçon audio profonde restent relativement inhabituels. Et les outils dont disposent les escrocs sont, pour l'instant, relativement primitifs.

Restez toujours informé avec TECHNPLAY.COM !

Abonnez-vous à notre chaîne YouTube et suivez-nous sur Google Actualités pour ne rien rater.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *