La demande de régulation de l’intelligence artificielle semblait évidente : des systèmes de capacité et de complexité croissantes ne devaient pas être laissés à l’ambition privée ou au seul élan technique.
L’intelligence artificielle nécessite une régulation
Des limites, des procédures et une reddition de comptes doivent être mises en place afin de protéger l’humanité des risques potentiels que le développement technologique sans atténuation fait peser sur la société. Mais ce langage procédural dissimulait une intuition plus profonde. Une impression grandissait que le développement technologique avait dépassé le jugement politique ordinaire. La demande de régulation cherchait à réinsérer la délibération humaine dans un processus qui semblait s’accélérer sans référence à un horizon commun.
L’idée que promettait la régulation était de donner forme à quelque chose qui se déployait déjà. Elle visait à prévenir un avenir où un petit nombre d’entreprises, soutenues par du capital-risque et guidées par des incitations internes, détermineraient les conditions de la vie collective. L’État apparaissait comme le contrepoids nécessaire.
Des événements récents ont ébranlé cette confiance. La confrontation que Novara Media a récemment décrite comme le « face-à-face de Trump avec Anthropic » a mis au jour une possibilité différente que les débats antérieurs sur l’éthique de l’IA n’avaient observée que de manière imparfaite.
Anthropic est une entreprise américaine d’intelligence artificielle fondée en 2021 par d’anciens chercheurs de OpenAI, structurée autour de l’affirmation selon laquelle des systèmes avancés — et possiblement indépendants — d’intelligence avancée doivent être conçus avec prudence et orientation, et faire l’objet de déploiements graduels afin de surveiller les impacts à long terme.
Ses travaux sur la formation constitutionnelle et la contrainte interne devinrent une image de ce à quoi pourrait ressembler, dans la pratique, une innovation responsable, orientée vers des fins sociales. Pour beaucoup, cela semblait incarner un avenir défini par la convergence entre l’excellence technologique et la responsabilité publique.
Hegseth contre Claude
En janvier 2026, le secrétaire américain à la Défense, Pete Hegseth, a émis une note directive ordonnant à tous les contrats d’IA du Département de la Défense d’adopter un langage standardisé autorisant « tout usage licite » des technologies contractées.
Cette directive entra en collision avec les politiques d’utilisation de longue date d’Anthropic, intégrées dans son cadre d’intelligence artificielle constitutionnelle et dans ses conditions d’utilisation acceptables. L’entreprise, qui s’était positionnée comme une alternative soucieuse de la sécurité à l’avant-garde de l’espace IA, avait établi des prohibitions explicites contre le déploiement de ses modèles (notamment Claude) en vue de la surveillance domestique massive des citoyens américains, ou pour une application dans le développement de systèmes d’armes autonomes létales nécessitant une intervention humaine minimale.
Des rapports indiquaient que Claude avait déjà été intégré dans des opérations classifiées du Pentagone, et aurait notamment aidé à la planification d’actions de grande envergure à l’échelle mondiale, telles que l’intervention illégale au Venezuela, qui a entraîné la capture de l’ancien président Nicolás Maduro.
Néanmoins, lorsque le gouvernement américain a clairement exprimé son ambition d’intégrer l’intelligence artificielle à chaque couche de la planification militaire et stratégique, les limites que Anthropic cherchait à intégrer dans ses systèmes leur apparurent comme un obstacle aux intérêts de l’État.
Ce qui avait autrefois été salué comme de la responsabilité commençait à apparaître comme de l’hésitation face à l’urgence, telle qu’elle était définie du point de vue de l’État.
L’intelligence artificielle comme infrastructure
L’intelligence artificielle n’est plus rencontrée principalement comme un produit à acheter ou comme un outil à réguler, mais comme une forme d’infrastructure sur laquelle s’appuie de plus en plus l’ordre de la sécurité, de la vie économique et du savoir.
Dans ces conditions, la régulation ne peut être comprise comme un simple mécanisme visant à limiter les dommages. Elle devient l’un des moyens par lesquels cet ordre émergent se stabilise, orientant la forme et la répartition du pouvoir qui peut y durer.
L’importance du moment présent réside dans ce déplacement d’orientation. Les cadres institutionnels et juridiques qui se forment désormais structureront la manière dont le progrès technologique, la responsabilité politique et l’autorité seront conçus pour les années à venir.
Leurs effets ne dépendront pas du résultat d’un seul différend, mais des hypothèses sous-jacentes concernant le risque, la sécurité et la responsabilité envers le public qui s’y intègrent.
La gouvernance cesse d’être séparée du développement technologique. Elle appartient de plus en plus au même mouvement, faisant s’effondrer les frontières entre la régulation en tant qu’instrument neutre ou outil au service des intérêts de l’État.
Cependant, il ne s’agit pas seulement d’un problème de conception de politique. Il concerne la manière dont l’intelligence artificielle se manifeste dans la vie politique, moins comme un objet distinct et plus comme une condition omniprésente. Les décisions concernant son déploiement façonnent non seulement les résultats, mais l’horizon dans lequel les décisions humaines futures seront prises. Le champ se referme et s’ouvre en même temps.
Réticence dans l’innovation
À cet égard, la technologie peut être vue non seulement comme une collection d’outils, mais comme une façon dont le monde se révèle. Ce qui est décisif n’est pas une machine particulière, mais la manière dont les êtres deviennent disponibles et ordonnés. Les capacités humaines se réorganisent elles-mêmes en réponse à la manière dont l’intelligence artificielle a modifié l’horizon de l’expérience humaine.
Le conflit avec Anthropic rend visible cette transformation car il concerne les limites. Les restrictions internes de l’entreprise visaient à préserver des zones où la capacité technologique ne se traduirait pas immédiatement par une application. De telles limites présupposent qu’une retenue peut être maintenue au sein même du processus d’innovation.
Depuis longtemps, on estimait que l’ambition privée ne pouvait pas être digne de confiance; le risque existentiel nécessitait des garde-fous externes; l’État doit intervenir pour aligner l’élan technologique sur le progrès humain.
La régulation était envisagée comme une correction nécessaire face aux conséquences potentiellement catastrophiques de l’intelligence artificielle, une forme politique qui tempererait la capacité brute par la prévoyance collective. Il s’ensuit que la demande de régulation n’a donc jamais été une simple demande de contrôle, mais une tentative d’empêcher la concentration du pouvoir entre les mains d’un petit nombre d’acteurs privés dont les décisions pourraient façonner l’avenir de l’humanité, à l’abri de tout examen.
Elle ouvrirait le processus de développement technologique à l’examen, à la contestation et à une pluralité d’intérêts, interrompant (du moins dans une certaine mesure) la logique du capital.
Collusion public – privé
La possibilité de nationaliser, ou d’absorber effectivement, des entreprises de pointe en IA comme Anthropic ne s’oppose pas tant au pouvoir de la Silicon Valley qu’elle n’en révèle la proximité avec l’État. Le mouvement entre l’autorité commerciale et l’autorité gouvernementale devient de plus en plus fluide. L’expertise, le capital et la capacité stratégique circulent à travers cette frontière. Ce qui peut apparaître comme une intervention extérieure est souvent une réorganisation de l’intérieur.
Dans ce sens, le conflit ne présente pas une opposition simple entre les élites technologiques et l’autorité démocratique. Il met au jour le degré auquel le système politique est déjà structuré par des infrastructures technologiques développées par une élite sociale restreinte.
L’État s’est enlacé dans les toiles de la Silicon Valley, non pas comme un tisseur tirant les fils, mais comme une mouche prise dans la soie tissée par d’autres, chacun de ses mouvements désormais dépendant de la structure de ces fils. Autrement dit, la prétendue élite technologique n’influence pas seulement le pouvoir, elle constitue l’un de ses centres opérationnels.
Image en vedette via The Canary
