in

Facebook défend son IA face à la montée des contenus haineux

Young people watching a live streaming. Social media concept.

Le Wall Street Journal a déclaré que l’IA de Facebook ne réussit toujours pas à détecter les contenus haineux. Ce que la plateforme contredit complètement.

Le vice-président de l’intégrité de Facebook, Guy Rosen, a fermement démenti les propos concernant l’inefficacité de l’IA. Même si la prévalence de ces contenus avait chuté de 50 % au cours des trois dernières années.

Facebook met en avant son travail d’intégrité

L’entreprise travaille continuellement pour le développement de ses systèmes d’identification des problèmes pour créer des solutions. Ceci est un message en réponse à l’article du Wall Street Journal. Ce dernier doutait de la capacité de Facebook à filtrer efficacement les contenus haineux. Il indiquait notamment que cette crainte émane principalement des employés chargés de supprimer les contenus offensants.

Des documents internes montrent que Facebook a ajusté le temps d’étude. Ceci a réduit d’une façon notable les plaintes. Cela a donné l’impression que l’intelligence artificielle faisait mieux respecter les règles de la plateforme.

Une équipe d’employés de Facebook a travaillé sur l’automatisation des systèmes d’étude et de suppression de contenus haineux. Les publications haineuses les plus vues et le contenu enfreignant les règles gérant l’incitation à la violence, sont ainsi supprimés.

Rosen a fait valoir que se focaliser sur les suppressions n’était pas la meilleure manière d’appréhender le combat contre les discours haineux. Pour lui, il faudrait être certain que le contenu en question est vraiment un discours de haine avant de le supprimer.

La meilleure manière de venir à bout des contenus haineux

Actuellement, la société se concentre sur la prévalence des discours haineux visionnés pour les réduire à l’aide de divers outils. Par exemple, pour 10 000 vues d’un contenu sur Facebook, il y avait cinq vues de discours de haine. La prévalence est la plus objective manière de venir à bout de ces discours.

Les documents internes démontrent que des éléments importants ont pu échapper à la détection de Facebook. La lanceuse d’alertes, Frances Haugen a témoigné devant le Congrès de ce fait. Facebook consciente de l’impact négatif de sa plateforme, a contesté ce signalement fait sur la base de ses documents internes.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.