in ,

Révolution ou chaos ? Google ouvre la porte aux armes à l’IA !

Il faut s’inquiéter car récemment, il a été annoncé que Google a levé son interdiction concernant l’utilisation de l’IA dans la gestion des systèmes d’armement et de surveillance. En gros, l’ de sera en mesure de contrôler des armes.

Alors que jusqu’à présent, le géant américain avait dit non à cela, voici pourquoi ils ont viré de bord. Cette décision va en effet transformer radicalement la manière dont la Silicon Valley va gérer la sécurité de l’IA et celles des sociétés d’armement.

YouTube video

Une mise en œuvre discrète

En 2018, les Principes de l’IA de Google ont été publiés. L’entreprise avait refusé d’entrer en jeu en termes de développement des IA à des fins militaires ou de surveillance. Et maintenant, ce n’est plus le cas. C’est arrivé cette semaine et la décision a été prise en catimini.

Officiellement, les changements se concentrent sur quatre points clés chez Google :

  • les technologies susceptibles de causer des dommages globaux
  • les applications militaires
  • les systèmes de surveillance
  • les technologies enfreignant le droit international et les droits humains

C’est aberrant, mais vrai. Tandis qu’il y a quelques années, le géant américain avait prôné un développement responsable de l’IA dans l’industrie, ce « bastion est tombé ». Ce sont les mots employés par Tracy Pizzo Frey, anciennement directrice senior de la gestion des produits et de l’IA responsable chez Google Cloud, dans un post sur BlueSky.

?ref_src=twsrc%5Etfw">February 5, 2025

La gestion des armes par l’IA, Google complice

Par contre, pour calmer l’audience en défaveur de cette décision de Google concernant le fait que l’entreprise donne des armes à l’IA, l’entreprise a fait des déclarations. Ils chercheront à « atténuer les résultats non intentionnels ou néfastes » de ce verdict tout en s’alignant sur des « principes internationaux de droit et des droits humains largement acceptés ». C’est assez vague.

De nombreux articles publiés sur le sujet affirment que l’IA n’est pas encore apte à être employée dans le domaine militaire. Certes ses capacités évoluent rapidement, mais les exemples de cas mentionnant des IA instables sont légions depuis le début de 2025.

Les critiques fusent à propos de ce problème

A ce propos, Pizzo Frey a déclaré que  « nous sommes dans une situation où il y a peu de confiance envers les grandes entreprises technologiques, et chaque mouvement qui semble supprimer des garde-fous engendre davantage de méfiance ».

L’humanité est donc en danger si des limites éthiques claires sont floutées. Google avait posé celles-ci au départ et les a bafouées. Elles étaient cruciales pour construire des systèmes d’IA dignes de confiance. Là, on se retrouve dans un flou éthique total.

Est-ce que les autres entreprises imiteront Google ?

De nombreux observateurs ont aussi peur que ce changement de politique influence les autres entreprises technologiques. Les barrières se rapportant à l’éthique de l’IA sont déjà assez complexes à mettre en place.

Et en effet, à mesure que la concurrence dans le développement de l’IA s’accroît, les grandes sociétés font face à la pression de raccorder développement responsable et exigences du marché. La question a posé est donc la suivante : Est-ce que le changement de politique d’IA de Google envers la gestion des systèmes d’armement établira-t-il une nouvelle norme dans l’industrie ? Difficile à dire.

Restez toujours informé avec TECHNPLAY.COM !

Abonnez-vous à notre chaîne YouTube et suivez-nous sur Google Actualités pour ne rien rater.

Au cœur de l'équipe TechNPlay, en tant que rédactrice en chef, je suis votre sentinelle dédiée à l'univers fascinant des montres connectées et des véhicules électriques. Etant donné que la technologie évolue à la vitesse de la lumière, ces petits bijoux technologiques suscitent mon admiration et ma curiosité. Chaque avancée...

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *