in ,

Des lois pour l’I.A. de Google moins excitantes que celles d’Asimov

I.A.

Bonne nouvelle : Google se sent concerné par les règles de sécurité à inculquer aux robots possédant une intelligence artificielle, ou I.A. Vers une utilisation des trois lois de la robotique ?

Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit exposé au danger. Si la majorité du grand public est familier avec les lois de la robotique imaginées par l’auteur Isaac Asimov dans son cycle des robots, les règles de sécurité que Google souhaite intégrer à ses I.A. se révèlent plus ennuyeuses.

robot I.A.

Une I.A. ménagère

Le vase offert par grand-mère est sauf. Oui, il s’agit bien d’un des scénarios potentiellement dangereux que les ingénieurs de Google ont imaginé pour mettre en scène les « problèmes concrets dans la sécurité des Intelligences Artificielles« . Pour une quelconque obscure raison, les chercheurs ont choisi d’illustrer ces dangers en utilisant l’exemple d’un robot ménager et non une super intelligence souhaitant asservir l’humanité.

Sans plus attendre, voici les cinq problèmes relatifs à la sécurité des hommes sur lesquels Google s’est penché :

Éviter les effets secondaires négatifs, ou « comment être sûr qu’un robot ménager ne renverse pas un vase parce que c’est plus rapide ? »

Éviter le piratage de récompense, ou « comment être sûr que le robot de ménage nettoie réellement plutôt que de couvrir le désordre ? »

La surveillance évolutive, ou « comment être sûr que le robot ménager apprenne rapidement sans demander tous les jours où se trouve la serpillière ? »

L’exploration sans danger, ou « comment être sûr que le robot explore des stratégies de nettoyage sans mettre la serpillière en question dans une prise électrique et brûler l’intégralité de la maison ? »

La robustesse à changement distributif, ou « comment apprendre au robot à reconnaître quand ses capacités sont inutiles dans un environnement différent ? »

robot I.A.

Ces exemples de robots ménagers semblent montrer que Google ne prend pas réellement au sérieux les craintes envers les I.A. Mais dans ce cas, pourquoi travaillent-ils sur un « kill switch », un gros bouton rouge selon leurs dires, qui permettrait d’éteindre toute intelligence artificielle ayant des envies de suprématie.

Dans tous les cas, l’intelligence artificielle est au cœur des nouvelles technologies, et malgré les mises en garde de Stephen Hawking pour qui utiliser l’I.A. revient à invoquer un démon, Google n’est pas le seul géant de l’informatique a adopter ce procédé.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.