La sécurité de l’IA est un sujet brûlant, car il est possible qu’elle comporte des failles. Alors que les risques à long terme, comme la perte de contrôle des systèmes d’IA aurait dû être évoquée lors du Sommet de Paris, l’accent se déplace désormais vers des menaces plus immédiates. Il s’agit des manipulations de modèles, des fuites de données, des deepfakes et des cyberattaques.
Lors de la conférence Def Con, les hackers éthiques, ont pointé du doigt les faiblesses des pratiques actuelles. Parmi elles, il y a le « red teaming ». C’est insuffisant pour anticiper toutes les vulnérabilités de l’IA. Mais voici plus en détails ce qu’on dit sur le sujet.
Appel à un rassemblement pour se protéger des éventuelles menaces liées aux failles de l’IA
Lors du Def Con, le plus grand rassemblement annuel pour les hackers éthiques, Sven Cattell, son fondateur a fait une annonce. Apparemment, les méthodes actuelles ne peuvent pas sécuriser les modèles d’IA.
Le fait de tester leur potentiel de jailbreaks, de désinformation, d’hallucinations, de fuites de données personnelles, et d’injection de prompt n’est pas suffisant afin de dire qu’une IA est sûre. Il existe toujours des variables inconnues et imprévisibles qui peuvent faire dérailler des modèles.
Il plaide pour une collaboration accrue entre les acteurs du secteur de l’IA. C’est le meilleur moyen pour endiguer ce souci. C’est en utilisant des modèles éprouvés, partager et corriger leurs « bugs » ou vulnérabilités qu’on peut créer des bases de données publiques et des mécanismes de signalement efficaces.
La sécurité de l’IA et son développement
En Corée du Sud, afin de prévenir les failles de l’IA, le chatbot DeepSeek a été temporairement suspendu. C’est le temps que les autorités vérifient sa conformité aux lois sur la protection des données. Cette décision reflète les défis réglementaires auxquels font face les technologies d’IA, notamment en matière de respect de la vie privée.
Sur un autre plan, le développement d’autres IA ne s’arrête pas. Perplexity, une startup ambitieuse, propose désormais un outil de recherche approfondie nommé Deep Research. Il peut analyser des centaines de sources pour fournir des réponses détaillées. Cette innovation s’inscrit dans une tendance plus large où les outils d’IA cherchent à rivaliser avec les géants comme Google et OpenAI.
De son côté, Elon Musk vient récemment de sortir Grok 3, une meilleure version de son IA, via sa société xAI. Mais toutes ces nouveautés n’arrêtent en rien les débats sur la sécurité et des initiatives audacieuses en matière d’IA.

Le domaine dans lequel les failles de l’IA sont pointées
Sinon, une étude publiée dans The BMJ soulève des inquiétudes sur la fiabilité à long terme des modèles d’IA dans le domaine médical. Les chercheurs ont observé un déclin cognitif similaire à celui des humains chez des chatbots comme ChatGPT et Gemini.
Cela remet en question leur capacité à remplacer les médecins. Ces résultats suggèrent que les modèles d’IA pourraient nécessiter des vérifications régulières pour maintenir leur précision, une découverte qui pourrait freiner l’enthousiasme autour de leur utilisation dans les diagnostics médicaux. C’est une des failles de l’IA que les développeurs n’ont pas encore pu régler.
- Partager l'article :