C’est un revers partiel pour la pépite californienne de l’intelligence artificielle (IA). Une cour fédérale de Washington a refusé, mercredi 8 avril, de suspendre le bannissement par le Pentagone d’Anthropic, qui avait obtenu fin mars une première victoire judiciaire à San Francisco contre l’administration Trump.
La décision, consultée par l’Agence France-Presse (AFP), maintient en vigueur une mesure qui vise à contraindre les sous-traitants du Pentagone à certifier qu’ils n’utilisent pas les technologies d’Anthropic, créateur du chatbot Claude.
Cette mesure, qui a désigné Anthropic comme un « risque pour la chaîne d’approvisionnement » du Pentagone, a été prise le 27 février en réponse au refus de l’entreprise de voir ses outils d’intelligence artificielle utilisés pour la surveillance de masse des citoyens américains et pour rendre des armes totalement autonomes.
Jusqu’ici, seules des entreprises non-américaines avaient été visées par une telle désignation.
L’effectivité de cette sanction, qui relève du code des achats publics fédéraux, fait toutefois débat, certains juristes estimant que les textes réglementaires nécessaires à sa mise en œuvre font encore défaut.
« Le meilleur investissement marketing »
Le 26 mars, dans un recours parallèle, Anthropic avait obtenu une première victoire contre une sanction similaire, prise cette fois dans le cadre du code militaire : une juge de San Francisco a suspendu la directive du ministre de la défense Pete Hegseth qui a désigné Anthropic comme un « risque » pour les opérations classifiées du Pentagone. La suspension court jusqu’à ce que l’affaire soit jugée, dans les prochaines mois. La juge californienne a aussi suspendu une directive de Donald Trump qui ordonnait à toutes les agences fédérales de cesser d’utiliser les technologies d’Anthropic.
Le gouvernement a fait appel de la décision californienne, mais c’est la procédure à Washington qui reviendra sur le devant de la scène en premier : la cour d’appel fédérale a accepté d’examiner le fond en accéléré et a fixé l’audience au 19 mai.
Dans leur décision de mercredi, les trois juges ont estimé que la balance des intérêts penchait en faveur du gouvernement : si Anthropic subit « vraisemblablement un préjudice irréparable », celui-ci est « principalement financier », tandis que l’enjeu pour le gouvernement touche à la sécurité des opérations du Pentagone « dans le cadre d’un conflit militaire actif ».
La cour suggère que l’entreprise a aussi pu retirer un bénéfice, citant des déclarations de son patron, Dario Amodei, à ses employés – « le grand public et les médias nous voient comme les héros (nous sommes numéros 2 dans l’App Store !) », et un article du média spécialisé Digiday estimant que l’opposition d’Anthropic au Pentagone « pourrait s’avérer être le meilleur investissement marketing de la Silicon Valley depuis des années ».
Lundi, Anthropic a annoncé une croissance « exponentielle » de ses revenus, multipliés par trois en un trimestre, revendiquant 30 milliards de dollars de revenus annualisés, pour la première fois au-dessus des performances affichées par son grand rival OpenAI.
