Est-ce qu’il est réellement bon que l’IA régisse nos vies ? C’est une question à laquelle Steven Adler ne veut plus penser, car il a démissionné de chez OpenAI en tirant la sonnette d’alarme concernant l’AGI.
Et voilà un énième chercheur en sécurité d’OpenAI qui a quitté l’une des plus grandes entreprises dans le domaine de l’intelligence artificielle. Selon lui, la course mondiale vers l’AGI est un pari à double tranchant. Voici ce qu’il en dit. Une réflexion assez intéressante.
Une démission survenant après 4 ans chez OpenAI
Dans un tweet sur X ayant annoncé son départ de l’entreprise, Steven Adler, ex employée chez OpenAI a qualifié son passage dans l’entreprise de « chevauchée sauvage avec de nombreux chapitres sur l’AGI ». Il a aussi ajouté que de nombreux éléments lui manqueraient.
En effet, Mr Adler a travaillé en tant que responsable de la sécurité de l’IA chez OpenAI. Il a mené des recherches et des programmes liés à la sécurité pour les lancements de produits et les systèmes d’IA spéculatifs à long terme. Selon son profil LinkedIn, il a été auteur de plusieurs articles de blog d’OpenAI.
Mais après 4 ans au service de cette société et de nombreuses péripéties, il a critiqué la course à l’AGI qui se dessine entre les principaux laboratoires d’IA et les superpuissances mondiales.
Les craintes d’Adler, relayées par certains des plus grands chercheurs en IA du monde
En effet, ayant mentionné qu’il était « assez terrifié par le rythme de développement de l’IA ». Dans un monde régi par l’argent, ses dires sont inquiétants. En disant qu’aujourd’hui, nous sommes coincés dans un très mauvais équilibre.
Il certifie que : « même si un laboratoire veut vraiment développer l’AGI de manière responsable, d’autres peuvent toujours prendre des raccourcis pour rattraper leur retard ». Cela peut être fait de manière désastreuse et conduire à la production d’IA difficilement contrôlables.
Stuart Russell, professeur d’informatique à l’université de Californie à Berkeley, a d’ailleurs déclaré au Financial Times que la « course à l’IA est une course au bord de la falaise ».
» Même les PDG qui s’engagent dans la course ont déclaré que le vainqueur a une forte probabilité de provoquer l’extinction de l’humanité. » Nous n’avons aucune idée de la manière de contrôler des systèmes plus intelligents que nous », a-t-il déclaré. C’est pourquoi des articles énoncent déjà que l’IA devrait être débranchée avant qu’il ne soit trop tard.
Des commentaires qui interviennent alors que la course mondiale à l’IA entre les États-Unis et la Chine fait rage
A l’heure actuelle, la société chinoise DeepSeek a construit un modèle d’IA.Il est égal ou supérieur à celui des principaux laboratoires américains. Mais c’est le fait qu’elle soit une menace y entraverait la popularité de Meta de Mark Zuckerberg, des cartes graphiques de Jensen Huang et de tous les autres produits des sociétés travaillant dans le domaine de l’intelligence artificielle qui dérange.
D’ailleurs, lundi dernier M. Altman a déclaré qu’il était « stimulant d’avoir un nouveau concurrent ». C’est pourquoi, il avancerait certaines des nouvelles versions d’OpenAI en réponse au modèle de DeepSeek.
Mais est-ce que le fait de concurrencer une IA en la supplantant par une IA encore plus performante est la solution au problème de sa gestion globale ? Sans doute que non. C’est l’une des raisons pour lesquelles Steven Adler est parti.

OpenAI, une société sujette aux scandales
OpenAI a souvent été confronté à des questions concernant son approche de la sécurité de l’AGI. Le laboratoire d’IA a été mêlé à plusieurs scandales publics. Ils semblaient découler de désaccords internes sur la sécurité de l’IA.
L’année dernière, OpenAI a perdu deux éminents chercheurs en IA. Il s’agit de Ilya Sutskever et Jan Leike. À l’époque, les deux hommes co-dirigeaient l’équipe Super-alignment de l’entreprise, qui se concentrait sur la sécurité de l’IA. Et ils s’efforçaient de réaliser des « percées scientifiques et techniques pour diriger et contrôler des systèmes d’IA beaucoup plus intelligents que nous ».
Or, comme Adler, Leike a ouvertement blâmé le manque de préoccupations en matière de sécurité au sein de l’entreprise pour son départ. Au cours des dernières années, « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants ». De ce fait, il faut vraiment faire attention aux risques liés à l‘IA.
- Partager l'article :