Google suscite l'indignation en voulant introduire l'intelligence artificielle dans l'armée
Une série d'employés de Google ont démissionné pour protester contre le contrat de l'entreprise avec le ministère américain de la Défense visant à intégrer l'intelligence artificielle développée par Google aux drones à usage militaire.
En mars dernier, Google s'est associé au Département de la Défense américain pour développer une intelligence artificielle permettant aux drones d'analyser les images capturées à des fins de reconnaissance militaire. Ce projet commun entre Google et le Département de la Défense américain s'appelle Maven.
Cependant, l'implication de Google dans le projet Maven a suscité la colère et des préoccupations éthiques de la part de ses propres employés, qui s'opposent à l'application de l'intelligence artificielle à des fins militaires.
![]() |
L’intégration de l’intelligence artificielle dans les armes sans pilote suscite de nombreuses inquiétudes quant à l’avenir de l’humanité. |
Selon la page TechnologieGizmodoUne pétition interne a été envoyée par des employés de Google au PDG de l'entreprise, Sundar Pichai, pour demander à l'entreprise de se retirer du projet Maven et de préciser clairement que Google ne participera jamais à la construction et au développement de technologies de guerre. Plus de 3 000 employés de Google ont signé la pétition.
Récemment, selon la page TechnologieGizmodoPlus d'une douzaine d'employés de Google ont démissionné ensemble pour protester contre le projet Maven. Leur décision est motivée par le fait que « le manque de transparence suscite des inquiétudes éthiques ».
De son côté, un représentant de Google a déclaré que le contrat avec le ministère américain de la Défense n'était qu'un test et incluait l'analyse d'images non classifiées, pas seulement à des fins militaires.
« Cette technologie signale les images pour examen humain et est utilisée uniquement à des fins non offensantes », a déclaré un porte-parole de Google. « L'utilisation de l'IA à des fins militaires suscite des inquiétudes. Nous discutons activement de ce sujet important en interne et avec nos partenaires, tout en continuant à élaborer des politiques et des garanties pour le développement et l'utilisation de notre technologie d'IA. »
Le projet Maven a été lancé en avril 2017 par le secrétaire adjoint à la Défense des États-Unis, Bob Work. Sa première mission est de développer et d'intégrer les algorithmes d'intelligence artificielle nécessaires à l'analyse des données vidéo et images capturées par les drones à des fins de contre-insurrection et de lutte antiterroriste.
L'idée d'appliquer l'intelligence artificielle à des fins militaires a été maintes fois débattue et a suscité des inquiétudes quant à l'avenir de l'humanité. Auparavant, des scientifiques de l'Institut coréen des sciences et technologies avancées (KAIST) envisageaient de développer l'intelligence artificielle sur des robots de guerre. Ce projet a immédiatement rencontré une opposition et a suscité de vives inquiétudes au sein de la communauté scientifique.
L'ambition du KAIST a immédiatement suscité une opposition et a inquiété de nombreux scientifiques de premier plan en intelligence artificielle. Plus de 50 chercheurs de premier plan en intelligence artificielle et en robotique ont annoncé leur intention de boycotter le KAIST en raison de cette ambition, notamment le professeur Toby Walsh de l'Université de Nouvelle-Galles du Sud (Australie), le professeur Geoffrey Hinton de l'Université de Toronto (Canada), le professeur Yoshua Bengio de l'Institut canadien d'études avancées ou le professeur Jürgen Schmidhuber de l'Université de Lugano (Suisse).
Auparavant, de nombreux scientifiques de premier plan dans le domaine de l’intelligence artificielle et de la technologie robotique ont écrit aux Nations Unies, affirmant que les armes meurtrières autonomes sans intervention humaine pourraient déstabiliser le monde et devraient être contrôlées par des traités internationaux.
Dix-neuf pays, dont l'Égypte, l'Argentine, le Pakistan et d'autres, ont soutenu la proposition des scientifiques. Mais d'autres, comme les États-Unis et le Royaume-Uni, estiment qu'elle serait irréaliste, car il est impossible de définir ce qui constitue « sans contrôle humain ». De nombreux systèmes d'armes disposent déjà d'au moins certaines capacités autonomes, notamment les drones et les réseaux de défense antimissile./.