in

Elon Musk lance 37 équipes de recherche pour une I.A fiable

Elon Musk l’a toujours dit, il se méfie des intelligences artificielles. Nouvelle preuve de cette méfiance, il vient d’engager 37 équipes de recherches pour « garder l’I.A fiable et bénéfique ».

Elon Musk, Bill Gates et Stephen Hawking n’ont pas comme seul point commun d’être brillants. Ils sont aussi foutrement inquiets de l’avenir de l’intelligence artificielle ou plutôt, en ont peur. En cause, les possibilités énormes offertes pas ces intelligences qui pourraient, selon eux, nous surpasser. Elon Musk, plus connu en tant que PDG de la marque de voiture électrique Tesla, a déboursé récemment 10 millions de dollars pour qu’un organisme américain (le Future of Life Institue) se focalise sur « les risques potentiels du développement d’une intelligence artificielle de niveau humain » et qui « travaillent à atténuer les risques existentiels auxquels doit faire face l’humanité ».

elon_musk1

Et parmi ces 10 millions de dollars, 7 viennent d’être attribués à pas moins de 37 équipes de recherches censés contenir et prévenir des risques en créant des techniques « pour que les systèmes d’IA intègrent les préférences des humains en observant notre comportement », ou encore « faire en sorte que les intérêts des systèmes superintelligents restent alignés avec les valeurs humaines. » Max Tegmark, le président de l’organisme américain a déclaré dans un communiqué :  » Le danger avec le scénario Terminator n’est pas qu’il se réalise, mais qu’il nous distraie des véritables problèmes posés par l’IA. (…) Les 37 équipes soutenues par ces bourses devraient aider à résoudre ce type de problèmes réels. »

Une inquiétude grandissante

Ces trois éminences grises ne sont pas les seuls à s’inquiéter des possibilités gigantesques de l’intelligence artificielle. En France aussi on commence à se poser des questions et à prendre conscience d’éventuels danger. Michel Nachez, cyberanthropologue, dans une interview accordée à nos confrères de Rue 89 avait déclaré : « On met au point des choses, on les teste, puis quand on les met en réel, on se rend compte qu’il y a des effets secondaires indésirables. Il y a des domaines où ça peut être tellement dangereux qu’on doit être absolument sûr avant d’avancer. Je pense qu’avant d’envoyer des robots connectés en réseau au sein de la population, il faudrait s’assurer qu’ils sont sécurisés, qu’ils ne sont pas « hackables », qu’ils aient un réseau interne, mais pas ouvert sur Internet… Quand on fait de la recherche sur l’intelligence artificielle, on doit se poser la question de : « Qu’est-ce qui se passe… si elle émerge ? » Et si elle émerge, de ne pas la mettre dans un réseau public dont elle connaîtra les failles, la tester suffisamment pour savoir de quelle nature elle est. C’est possible, et nous avons des gens très doués pour faire ce travail. Est-ce que ça sera fait ? Le problème est que, quand on a en face des sociétés privées comme Google, elles sont incontrôlables. »

Source