Les États-Unis utilisent l'intelligence artificielle pour stopper les missiles nucléaires
Selon Reuters, les États-Unis mènent de nombreux programmes top secrets dans le but d’utiliser l’intelligence artificielle (IA) pour protéger le pays de la perspective d’une attaque nucléaire.
Les États-Unis développent discrètement une intelligence artificielle (IA) qui devrait être capable de calculer et de rechercher d’énormes quantités de données (y compris des images satellites) à une vitesse rapide tout en garantissant une précision dépassant même la capacité humaine à détecter les signes de processus de lancement de missiles.
Selon cette source, une fois l'IA prévenue à l'avance, les États-Unis auront suffisamment de temps pour réagir de manière appropriée. Bien que ce projet soit tenu secret, l'armée américaine manifeste depuis longtemps un intérêt particulier pour l'intelligence artificielle.
Il est difficile d’imaginer les conséquences si les armes dotées d’IA activent automatiquement le combat. |
Le ministère américain de la Défense a annoncé le recours à l'intelligence artificielle pour identifier des objets dans des vidéos capturées par des drones. Par ailleurs, l'US Air Force teste également des systèmes d'intelligence artificielle sur des avions de chasse et a obtenu quelques succès.
Parallèlement, les États-Unis espèrent que le missile LRASM à intelligence artificielle, actuellement en phase de test, sera suffisamment intelligent pour effrayer l'ennemi. Il s'agit d'une variante équipée d'intelligence artificielle (IA) pour le chasseur embarqué F/A-18E/F Super Hornet et le bombardier B-1B.
Le Pentagone a non seulement appliqué l'IA aux systèmes de défense antimissile, mais a également testé avec succès l'IA sur des avions de chasse. En juillet 2016, les États-Unis ont commencé à mener des essais extrêmement impressionnants avec cette technologie de pointe : un duel entre des pilotes américains expérimentés et une IA créée par des humains, et le pilote a perdu.
Des informations sur ce test ont été rapportées par Popular Science, citant une source militaire, affirmant que le colonel Gene Lee de l'US Air Force avec des décennies d'expérience au combat a été vaincu par le système d'IA dans toutes les batailles aériennes simulées.
Le colonel Lee est un expert tactique de l'US Air Force qui a effectué des milliers de vols en tant que pilote ou commandant de mission. Outre son expérience du combat, il a mené des simulations de combat aérien avec des systèmes d'intelligence artificielle pendant des décennies.
« J'ai été impressionné par la capacité du système à reconnaître et à réagir. Il semblait identifier chacune de mes intentions et réagir immédiatement. Il anticipait tous les changements de ma trajectoire de vol et mon intention de déployer des missiles d'attaque. Le système passait rapidement de la défense à l'attaque et vice-versa lorsque cela était nécessaire », a déclaré le colonel Lee.
Cependant, les technologies de pointe comportent des dangers imprévisibles. Le scientifique français Jean-Christophe Boni vient de lancer une mise en garde contre les dangers des armes développées sous forme d'intelligence artificielle lors d'une conférence de presse au Kaspersky Lab, à l'occasion du festival Kaspersky Geek Picnic.
« Dès 1995, Nelson Mandela écrivait que l’arme la plus dangereuse du XXIe siècle serait développée pour remplacer les armes nucléaires et autres armes de destruction massive du siècle précédent.
"A mon avis, ce sera un système d'intelligence artificielle, pour son fonctionnement, contrairement à une bombe atomique, il n'aura pas besoin d'uranium, d'usines de traitement et d'autres choses difficiles à trouver, mais seulement de silicium et d'électricité", a déclaré Jean-Christophe Boni.
Il a ajouté que la réalité virtuelle et le développement des systèmes d'intelligence artificielle sont impossibles à surveiller. Par conséquent, l'émergence de superarmes dotées d'intelligence artificielle sera extrêmement complexe et certainement imprévisible.
Jean-Christophe Boni soutient que si certaines superpuissances se développent, nous ne pourrons tout simplement pas les contrôler une fois qu’elles ne fonctionneront pas comme les humains l’ont prévu et que les conséquences seront donc inimaginables.