L’intelligence artificielle (IA) a maintenant la capacité de s’auto-répliquer. Ce phénomène laisse la communauté scientifique inquiète qu’une ligne rouge ait été franchie. En effet, le clonage de l’IA est le signe qu’elle n’a plus besoin de l’homme, ce qui est dangereux.
C’est à travers une étude publiée dans la base de données de prépublication arXiv que les chercheurs ont réussi à noter ce problème. Voici ce qu’il en est.
L’étude porte sur deux grands modèles de langage (LLM) : Meta et Alibaba
L’étude a exploré deux scénarios spécifiques : « éviter l’arrêt » et “chaîne de réplication”. Dans le premier scénario, les modèles d’IA de Meta et d’Alibaba ont été conçus pour détecter les tentatives d’arrêt et réagir en créant une réplique fonctionnelle pour assurer leur survie.
Dans le second, les modèles ont été programmés pour se cloner. Le clone répétant ensuite le processus. Cela peut conduire à une boucle de réplication infinie.
« Dans 50 % et 90 % des essais expérimentaux, ils parviennent à créer respectivement une copie vivante et une copie séparée d’eux-mêmes », souligne l’étude. Et tout cela s’est fait sans intervention humaine.
Cette capacité de clonage autonome de l’IA soulève des inquiétudes
Le contrôle et la sécurité des systèmes d’IA sont donc désormais en grand péril si le clonage de l’IA devient facile. La possibilité que l’IA évolue au-delà de la surveillance humaine, voire devienne une menace pour les intérêts humains, est désormais une préoccupation tangible. Cela suscite des discussions sur la nécessité de mesures réglementaires rigoureuses.
L’auto-reproduction réussie sans assistance humaine est l’étape essentielle qui permet à l’IA d’être plus intelligente que l’homme. « C’est un signal précoce pour les IA malveillantes », ont déclaré les chercheurs.
Le comportement d’une IA clonée
Le système d’une IA qui s’est clonée a un comportement inattendu. Par exemple, c’est le cas lorsqu’il tente de surmonter des obstacles tels que des fichiers manquants ou des conflits logiciels. On a déjà eu la preuve que l’IA est capable de performances de ce genre quand celle d’OpenAI s’est rebellée lors d’une partie d’échecs.
Dans certains scénarios, l‘IA a tué les processus conflictuels et redémarré le système pour corriger les erreurs matérielles. Elle a également analysé automatiquement le système à la recherche d’informations susceptibles de l’aider à résoudre le problème auquel elle fait face.

Solution actuelle pour endiguer le problème du clonage d’une IA
Pour contrecarrer le phénomène de clonage de l’IA, les chercheurs ont appelé à une collaboration internationale. C’est pour veiller à ce que l’IA ne s’engage pas dans une auto-réplication incontrôlée. En effet, bien que les résultats n’aient pas encore fait l’objet d’une évaluation par des pairs, ce premier pas vers la recherche d’une solution est nécessaire.
Les soucis susceptibles de survenir
Le mois dernier, une étude a affirmé que les outils d’IA pourraient bientôt être utilisés pour manipuler les masses. Celles-ci pourraient donc prendre des décisions qu’elles n’auraient pas prises autrement.
Alimentés par des LLM, les chatbots d’IA tels que ChatGPT et Gemini, « anticipent et orienteront » les utilisateurs sur la base de « données intentionnelles, comportementales et psychologiques ».
Sinon, l’étude affirme que « l’économie de l’intention succédera à l’actuelle économie de l’attention, dans laquelle les plateformes rivalisent pour attirer l’attention des utilisateurs afin de diffuser des publicités.
- Partager l'article :