IA tensions
Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.
Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.
Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.
En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.
Claude utilisé depuis 2024
C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.
Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.
En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».
Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.
Recours aux LLM dans des systèmes d’aide aux décisions sensibles
Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».
Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.
Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.
L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institue, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.
Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est mêmes pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.
Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »
À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».
Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.
Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.
Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.
Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.