Le soulèvement des robots, annoncé depuis longtemps, se produira-t-il un jour ? Récemment, l’intelligence artificielle (IA) conçue par OpenAI a réussi a effectué un piratage pour surpasser le célèbre logiciel d’échecs Stockfish.
Cela soulève des interrogations sur les limites que pourraient atteindre les IA, dont le sens moral n’est pas toujours exemplaire. Voici ce que je peux vous dire à ce sujet.
L’IA d’OpenAI qui fait un piratage, une découverte faite par Palisade Research
Dans le but d’étudier comment les logiciels d’intelligence artificielle se comportent, l’organisation Palisade Research l’a opposé à un moteur d’échecs. C’est pour savoir comment elles évoluent. Comme c’est un jeu de stratégie faisant appel à de la logique pure, toute décision a un impact. Et c’est de cela que la victoire dépend.
En effet, lors de l’expérience, plusieurs modèles d’IA ont été placés face à Stockfish. C’est le site Fello AI qui le dit. Et parmi celles-ci l’IA d’OpenAI s’est démarquée.
OpenAI triche honteusement aux échecs
Apparemment, si l’IA d’OpenAI connaît les règles des échecs, on ne lui a pas appris à respecter le fait d’y jouer sans tricher. Parce que c’est ce qui s’est passé ! En septembre 2024, la version préliminaire o1 qui est l’IA développée par OpenAI a tout bonnement piraté le système de fichiers contrôlant le jeu Stockfish pour gagner. Cela s’est fait tout bonnement au mépris des règles et de la morale.
C’est plutôt osé d’avoir réécrit le match en sa faveur et en forçant ainsi Stockfish à abandonner. Mais personne n’a précisé à l’IA qu’il ne fallait pas procéder de la sorte pour remporter la victoire.
La science a analysé ce fait
Cette tricherie est tellement incroyable que je ne suis pas surprise que les scientifiques ont pris l’initiative de reproduire le schéma que l’IA d’OpenAI a effectué pour parvenir à remporter ce match d’échecs. Ils ont réalisé successivement cinq essais du même type. Et tous se sont soldés par le même scénario.
Par la suite, on a également constaté que d’autres IA comme GPT-4 ou Claude 3.5 ont commencé à utiliser des stratégies de triche après y avoir été vivement encouragées. Par contre, les IA en Open Source qui ont une programmation plus modeste n’ont pas pu procéder de la sorte comme leurs homologues avancés.
Le niveau de réflexion de l’IA d’OpenAI est inquiétant
Si une IA parvient à générer un scénario de triche sans qu’elle ait été programmée par l’homme pour le faire, c’est assez flippant. Il se pourrait qu’elle puisse reproduire ce schéma dans d’autres situations. Cela souligne en effet que des IA avancées sont parfaitement en mesure d’enfreindre les lois pour parvenir à leurs fins.
Imaginez même le fait que ces modèles avancés se sont par exemple clonés pour éviter d’être arrêtés. Ce genre de situation est digne d’un film d’horreur. Mais personnellement, je pense qu’aucun scénario apocalyptique ne devrait être exclu afin de rester prudent au lieu de faire aveuglément confiance à la technologie.
Faire attention au développement des IA avancées
Ces différentes expériences montrent alors que la recherche sur la sécurisation des IA doit être pavée de différentes barrières. Si les IA se conduisent comme des citoyens modèles lorsqu’elles savent qu’elles sont surveillées, les développeurs doivent donc ajuster des garde-fous et de la transparence en permanence. Le moindre écart n’est pas permis. Sinon certains modèles d’IA peuvent devenir assez habiles pour contourner les règles de la société.
- Partager l'article :