L’intelligence artificielle, malgré tous ses atouts, n’est pas 100% fiable. Surtout quand il s’agit de faire des recherches avec des outils comme l’IA de chez OpenAI. En effet, chatGPT peut vous dire des mensonges.
Et à ce sujet, des chercheurs de la Columbia Journalism Review (CJR) ont récemment décidé de creuser la question. Ils ont soumis divers extraits d’articles à huit modèles d’IA pour voir s’ils pouvaient identifier la source, l’éditeur, la date de publication et le lien associé et voici les résultats de cette étude.
Ne comptez pas sur l’IA pour vos recherches !
Les résultats de cette analyse sont plutôt alarmants. Les chercheurs ont noté que plus de 60 % des résultats donnés par les IA contiennent des informations erronées.
Dans certains cas, ces modèles se mettent même à spéculer ou à donner des réponses complètement à côté de la plaque. Et c’est particulièrement le cas quand une IA n’a pas de données sur lesquelles se baser. L’IA ChatGPT peut par exemple dire des âneries ou des mensonges sous forme d’hallucination.
Pire encore, les IA peuvent inventer des liens ou des sources, et parfois même plagier le travail original d’un auteur au lieu de fournir la vraie référence. La CJR met donc en garde contre le fait que ces IA affichent n’importe quoi sans avoir de remords.
Les erreurs visibles de l’IA
Les IA peuvent donc rédiger des textes rapidement sans jamais utiliser de formules prudentes. On peut donc dire que l’IA ne dit pas: « il semblerait que » ou « il est possible que » dans les réponses qu’elle donne. Ce qui fait que les modèles ont souvent du mal à reconnaître leurs propres erreurs.
Cette étude renforce également l’idée qu’il est légitime d’être méfiant vis-à-vis des recherches effectuées par IA. Pourtant, le grand public ne semble pas partager cette prudence. La CJR révèle que 25 % des utilisateurs aux États-Unis se tournent vers ces outils pour leurs recherches, délaissant même les moteurs de recherche traditionnels.
Mais malgré ces lacunes évidentes, les géants de la tech continuent de promouvoir ces outils. Prenez ChatGPT Search. L’IA créée par la société de Sam Altman présente de sérieuses failles de sécurité, car elle dit souvent des mensonges.

Google, de son côté, est aussi loin d’être un bon élève puisqu’il intensifie l’intégration de l’IA dans ses services. Le mois dernier, la firme de Mountain View a commencé à tester des résultats de recherche générés par l’IA.
Énoncer des mensonges, une mauvaise tendance de l’IA
Ensuite, l’étude de la CJR met en lumière un problème bien connu de l’IA. C’est sa tendance à fournir des réponses évasives. Cependant, de nombreuses entreprises continuent d’utiliser cette technologie afin de promouvoir leurs services ou gérer leurs activités.
Alors qu’il est préférable d’avoir des informations sûres et vérifiées, un bon nombre d’entreprises se laissent prendre au jeu de l’IA. Il est donc crucial de faire preuve de prudence face aux informations mensongères fournies par des modèles d’IA comme ChatGPT ou Gemini.
En somme, même si l’IA peut sembler être un outil pratique, il est essentiel de garder un esprit critique. Ne vous laissez pas berner par les belles paroles des algorithmes. Avant de prendre pour argent comptant ce que vous trouvez, vérifiez toujours les sources et n’hésitez pas à croiser les informations.
- Partager l'article :