in

Deepfake et effet Mandela : que faut-il savoir sur le sujet ?

Depuis quelques mois, il existe de plus en plus de personnes qui partagent des deepfakes sur les réseaux sociaux. Pourtant, ces faux contenus provoquent un phénomène social appelé « effet Mandela » qui recèle de véritables dangers pour la population. Dans cet article, vous découvrirez les informations essentielles à connaître sur le sujet.

Les NTIC et l'intelligence artificielle sont en train de révolutionner le monde du travail et le mode de vie des Hommes. En effet, elles commencent à changer leurs habitudes, à établir de nouvelles normes et à maîtriser les compétences de certains professionnels. De plus, elles gagnent progressivement en importance dans divers secteurs d'activités et leur utilisation finira probablement par devenir inévitable pour les entreprises souhaitant rester compétitives. Même leur usage dans le domaine du divertissement commence à produire des impacts de plus en plus inquiétants pour la société.

Les deepfakes sont les parfaits exemples de la déviation des bienfaits des NTIC et de l'intelligence artificielle. Comment sont-ils créés ? De quelle manière provoquent-ils l'effet Mandela ? Quels sont ses dangers sur la mémoire collective ? Les réponses dans ces quelques lignes.

Qu'est-ce qu'un deepfake ?

Pour faire simple, un deepfake est un faux contenu créé par des outils d'IA particulièrement avancés dans le but de monter des canulars médiatiques. Il peut prendre la forme d'une image, d'un fichier audio ou d'une vidéo extrêmement réaliste qui trouble l'esprit des gens. Concrètement, il les amène à croire en un événement fictif qui ne s'est jamais produit. L'équipe d'experts d'ExpressVPN a justement écrit un article détaillé sur le sujet. Elle explique les effets des deepfakes sur la mémoire collective.

À titre d'illustration, une photo du pape François portant une doudoune blanche à la mode est devenue virale en fin mars 2023. Elle suggérait que cette haute personnalité de l'Église catholique romaine portait des habits « inadaptés » à sa place au niveau de la société. Une vive controverse éthique et théologique a éclaté sur le sujet. Pourtant, cette image a été créée de toutes pièces par une intelligence artificielle de génération de contenus. Elle a certainement berné beaucoup de gens.

Qu'est-ce que l'effet Mandela ?

L'effet Mandela est défini comme un phénomène psychologique de société qui se manifeste par la croyance d'une communauté en une chose qui n'a jamais existée. Ce terme est utilisé lorsque la population est convaincue de l'authenticité d'un événement déformé de la réalité ou de la véracité d'une information erronée. Il fait référence à la détorsion de la mémoire collective par la création de faux souvenirs. Par exemple, de nombreuses personnes ont accordé du crédit au fait que Nelson Mandela est mort en prison dans les années 1980. Pourtant, cet homme politique sud-africain ne fut décédé qu'en 2013, après qu'il soit devenu président.

Quels sont les dangers des deepfakes sur la mémoire collective ?

Les deux précédentes définitions nous amènent à penser que les deepfakes visent principalement à provoquer un certain effet Mandela. En effet, ces faux contenus persuadent les gens de l'existence d'un fait erroné ou d'une œuvre fictive. Ils peuvent influencer leur opinion politique, porter atteinte à la réputation de certaines célébrités et multiplier les cas de fraude. Par ailleurs, certaines personnes s'en servent pour usurper des identités, harceler leurs ennemis et diffuser des fake news. Elles les utilisent pour falsifier des faits historiques, réfuter des preuves scientifiques ou créer de faux alibis. Ainsi, il est nécessaire de toujours rester critique et sceptique à l'égard de certaines informations avant de les accepter comme vraies.

Restez toujours informé avec TECHNPLAY.COM !

Abonnez-vous à notre chaîne YouTube et suivez-nous sur Google Actualités pour ne rien rater.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *