Actuellement, plus les outils d’intelligence artificielle (IA) sont employés, plus cela devient un vrai casse-tête pour la sécurité des données. En 2025, la sécurité de l’IA sera sans doute encore plus renforcée dans le domaine de la cybersécurité. Mais le réel souci du moment, c’est l’apparition de l’IA fantôme ou shadow AI.
Pour illustrer ce phénomène, je vous propose de parler de l’affaire Disney. Leurs données ont été piratées par un mystérieux Shadow AI et 44 millions de messages internes ont fait couler beaucoup d’encre.
Un employé de Disney victime d’un coup de semonce
Si vous recevez un message comme celui-ci : « J’ai des infos sensibles sur ta vie privée et ton boulot. » il est clair que vous allez vous sentir menacer. C’est justement ce qu’i s’est produit en ‘à vécu Matthew Van Andel, un ancien employé de Disney en juillet 2023.
L’auteur de ce message anonyme sur Discord a su reproduit une conversation privée sur Slack qu’il a eu. Il connaissait son numéro de carte de crédit, ses identifiants de connexion aux images de sa caméra Ring. Pas de doute, il avait été piraté.
Mais le pire restait à venir. Le lendemain, le groupe de hackers Nullbulge a balancé en ligne plus de 44 millions de messages internes de Disney. Cela a révéler des informations sensibles sur la confidentialité des clients, des numéros de passeport d’employés et même des données financières sur les parcs d’attractions et Disney+.
Quel est le point d’entrée de cette attaque ?
Selon l’enquête menée à l’époque, un logiciel d’IA téléchargé par Van Andel en février 2023 sur GitHub cachait un cheval de Troie bien vicieux. Ce programme malveillant a permis aux hackers de siphonner les identifiants de son gestionnaire de mots de passe 1Password. Ironiquement, il n’avait pas d’authentification à deux facteurs.
Les pirates ont ensuite profité de cette brèche pour infiltrer le réseau interne de Disney en employant des cookies de session Slack dérobés. Puis, ils ont laissé passer 5 mois avant d’attaquer.
Ce phénomène, surnommé Shadow AI (ou IA fantôme), pourrait bien devenir le cauchemar des responsables de la sécurité des systèmes d’information (RSSI).
Shadow AI ou IA fantôme : le nouveau complice des hackers
L’affaire Disney n’est qu’un cas parmi tant d’autres. Une enquête de Google Mandiant mentionne que près de 40 % des cyberattaques à but lucratif en 2023 ont été facilitées par des identifiants volés. Ce chiffre a doublé par rapport à 2022. Et la cause de ce phénomène est simple : c’est l’utilisation non régulée des outils d’IA dans les entreprises.
Il suffit que les employés utilisent des outils d’IA non autorisés pour booster leur productivité ou résoudre un problème en interne. Mais c’est la porte ouverte aux shadow AI ou IA fantômes.
Selon le rapport Work Trend Index 2024, 78 % des employés avouent utiliser des outils d’IA personnels au travail. Mais 52 % d’entre eux préfèrent garder cela secret, de peur de se faire taper sur les doigts. Une autre étude révèle que 74 % des utilisateurs de ChatGPT, Gemini et Bard se connectent via des comptes personnels, échappant ainsi aux politiques de sécurité de leur entreprise.
En gros ces solutions de facilité ne le sont pas. Ces IA non autorisés sont souvent stockées sur des serveurs externes, hors de portée de l’entreprise. D’ailleurs, l’utilisation de modèles d’IA open source aggrave encore le risque, car ces plateformes sont particulièrement vulnérables aux attaques.

Un appel à la vigilance
Le monde de la finance et de la santé sont particulièrement exposés. Le rapport CX Trends 2025 indique que l’utilisation de l’IA fantôme dans ces domaines a explosé de 250 % en un an. Par conséquent, les entreprises ne peuvent plus faire l’autruche face à cette tendance.
- Partager l'article :