Le ministre de la défense américain, Pete Hegseth, au Pentagone, à Washington, DC, le 24 avril 2026. KEVIN LAMARQUE/REUTERS
Le ministère de la défense américain a annoncé vendredi 1er mai avoir passé des accords avec sept entreprises technologiques ouvrant l’accès à leurs modèles d’intelligence artificielle (IA) pour des opérations classifiées, selon un communiqué.
SpaceX, maison mère du laboratoire d’IA xAI, OpenAI, Google, Nvidia, Reflection, Microsoft et la filiale d’Amazon AWS dévouée à l’informatique à distance (cloud) ont été retenus par le Pentagone. Le gouvernement a écarté la start-up Anthropic, avec laquelle il est en contentieux, bien que son modèle, Claude, soit considéré comme l’un des plus performants au monde.
Fin février, le gouvernement Trump a décrété la rupture de tous les contrats le liant à Anthropic − une décision contestée en justice par la start-up californienne. Il a alors décidé de diversifier ses prestataires d’IA pour ses activités classifiées, dont l’accès est restreint et qui concernent souvent la sécurité nationale.
Lire aussi | Article réservé à nos abonnés Intelligence artificielle et cybersecurité, tout un programme Lire plus tard
Le Pentagone avait déjà fait état de conventions en ce sens avec OpenAI et Google. « Ces partenariats vont accélérer la transformation de l’armée américaine en une force d’intervention tournée vers l’IA », a expliqué le ministère dans le communiqué.
Les modèles d’IA des sept sociétés retenues vont être déployés pour des opérations de niveau 6 et 7, les plus élevés au sein du Pentagone. Ils serviront à « rendre plus efficace la synthèse de données, la compréhension du contexte et à contribuer à la prise de décision d’un combattant dans des environnements complexes », selon le ministère.
« Eviter d’être dépendant d’un prestataire »
C’est dans ce cadre qu’a servi le seul modèle d’intelligence artificielle actuellement autorisé pour des opérations classifiées, Claude d’Anthropic, lors de l’offensive américaine contre l’Iran. Les décisions relatives aux attaques, le moment d’une frappe, le choix de la cible, restent prises par des militaires.
En multipliant ses fournisseurs, le ministère veut « éviter d’être dépendant d’un prestataire et s’assurer d’une flexibilité à long terme », a justifié le Pentagone. Ce dernier entend s’appuyer sur « des développeurs de modèles qui permettent leur utilisation pleine et entière pour soutenir [ses] missions ».
Le Monde Jeux Chaque jour de nouvelles grilles de mots croisés, Sudoku et mots trouvés. Jouer
Le différend entre le gouvernement Trump et Anthropic est né de la volonté de l’entreprise californienne d’empêcher l’utilisation de ses modèles pour de la surveillance de masse de la population américaine et pour des attaques mortelles.
Le ministère de la défense estimait, lui, que la garantie d’un usage dans les limites de la loi était suffisante. Lundi, une lettre signée par plus de 600 salariés de Google a réclamé à la direction du groupe de renoncer à fournir à l’armée américaine ses modèles pour des opérations classifiées.
Lire aussi l’entretien | Article réservé à nos abonnés Que faire pour tirer le meilleur de l’IA et éviter le pire ? Les propositions de l’investisseur Charles Ferguson et de l’économiste Philippe Aghion Lire plus tard