Trinity
Trinity
Introduction
Nous sommes le samedi 28 février 2026. Cette semaine, le Department of War a ordonné à Anthropic de retirer toutes les restrictions sur Claude. Dario Amodei a refusé. L'administration a banni Anthropic de toutes les agences fédérales et l'a désigné "risque pour la chaîne d'approvisionnement nationale" (une étiquette qu'on gardait jusqu'ici pour les entreprises liées à des puissances étrangères ennemies). OpenAI a signé dans la foulée.
Tout le monde a un avis sur cette histoire. Les uns voient un gouvernement qui cherche à transformer l'IA en arme sans garde-fou. Les autres voient une entreprise privée qui prétend dicter sa loi à une armée démocratiquement élue. Les débats sur la surveillance de masse et les armes autonomes vont occuper les colonnes pendant des semaines.
Je ne vais pas parler de ça aujourd'hui.
Ce qui m'intéresse vraiment, c'est ce que cette affaire révèle. Un mécanisme plus ancien et plus profond, que l'IA rend visible aujourd'hui, plus que jamais.
Personne n'a de bonnes raisons
Commençons par là, parce que c'est inconfortable à dire.
Le Department of War a une position qu'on peut défendre : une armée démocratiquement mandatée ne peut pas accepter qu'une entreprise privée décide souverainement de ce qu'elle peut ou ne peut pas faire avec un outil qu'elle a contractuellement acquis. Si on laisse une entreprise privée tracer les lignes rouges de l'action militaire, on a inversé l'ordre démocratique. C'est un argument de principe sur la souveraineté. Il est gênant parce qu'il est juste en théorie.
Amodei refuse. Et sur le fond, il a probablement raison. Avec les modèles actuels, confier des décisions létales autonomes à une IA est objectivement dangereux. Pas pour des raisons idéologiques, pour des raisons techniques vérifiables. Et la surveillance de masse des citoyens est incompatible avec les valeurs démocratiques qu'il dit défendre. Jusque-là, difficile de ne pas le suivre.
Mais Amodei ne s'arrête pas là. Ce qu'il dit depuis des mois, c'est qu'il faut développer ces modèles parce que sinon d'autres le feront, et qu'il faut les contrôler, et que lui veut garder la main sur ce contrôle. Ce n'est pas la même chose que refuser des usages dangereux. C'est vouloir rester celui qui décide qui a le droit à quoi.
Et ce point de friction va peut-être plus loin encore. Ce qui ressort des discussions autour de cette affaire, c'est qu'Amodei se serait impliqué personnellement, à certains moments, dans des décisions opérationnelles sur comment Claude était utilisé en temps réel. Si c'est exact, il me semble qu'il a franchi une ligne qu'il trace lui-même dans son propre discours : il dit que le Department of War fait les décisions militaires, pas les entreprises privées. Mais intervenir personnellement sur l'usage d'un outil en temps réel, c'est précisément ce qu'il dit ne pas vouloir faire. Cette contradiction interne à sa propre position, ça vaut la peine d'en parler, même si elle ne disqualifie pas ses arguments de fond.
OpenAI a signé dans la foulée. En revendiquant, sur le papier, exactement les mêmes lignes rouges qu'Anthropic (pas de surveillance de masse domestique, pas d'armes autonomes). La différence est ailleurs : Altman parie qu'il peut maintenir un contrôle technique sur l'outil même en environnement classifié ; déploiement cloud uniquement, personnel habilité dans la boucle, stack de sécurité maison. C'est-à-dire que sa position n'est pas simplement de s'en remettre à la loi ; c'est de penser qu'il peut contrôler l'outil. Ce qui est précisément ce qu'Amodei estime impossible à garantir.
Mais la légitimité démocratique ne se réduit pas à la légalité (c'est-à-dire précisément à cette loi à laquelle OpenAI délègue en dernier recours). Ce sont deux choses distinctes. Ce qui est légal n'est pas toujours légitime, et ce qui est illégitime peut rester légal très longtemps. Ces distinctions-là existent depuis longtemps. Ce n'est pas une position abstraite. Cette semaine, c'est précisément la légalité d'une décision gouvernementale qu'Anthropic conteste devant les tribunaux. La loi n'est pas un arbitre neutre. C'est un terrain de combat comme les autres.
Dans ce contexte, s'en remettre à la loi tout en misant sur ses propres garde-fous techniques, c'est une troisième forme du même présupposé : je suis celui qui sait comment contrôler ça. On peut trouver cette position cohérente. Mais c'est encore une variante du mécanisme qu'on est en train de décrire.
Trois acteurs, trois logiques, et aucune qui me représente.
Il faut quand même s'arrêter un instant sur la nature de la réponse du Department of War. Amodei avait le droit de refuser ce contrat. Le droit d'un contractant de poser des conditions, de ne pas accepter certains usages, de se retirer d'une négociation qui ne lui convient pas, c'est un principe de base, pas seulement commercial mais démocratique. La réponse légitime d'un état à un refus de contrat est de trouver un autre prestataire. Ce qui s'est passé à la place, c'est une désignation comme "risque pour la chaîne d'approvisionnement nationale", une étiquette réservée jusqu'ici à des adversaires étrangers comme Huawei, appliquée pour la première fois à une entreprise américaine qui avait simplement dit non. Tenter de détruire économiquement une entreprise privée parce qu'elle a refusé de collaborer, c'est un usage du pouvoir d'état que nos démocraties ont précisément construit des institutions pour empêcher. La démocratie n'est jamais un acquis ; elle peut dériver, y compris chez ceux qui s'en réclament le plus fort.
Il y a un mécanisme que des penseurs très différents ont décrit depuis des siècles, de Tocqueville à Hannah Arendt : celui d'une classe de gens convaincus de voir ce que les autres ne voient pas, et qui décident en conséquence. Convaincus sincèrement, souvent. Ce n'est pas nécessairement de la mauvaise foi. C'est quelque chose de plus subtil et de plus difficile à combattre : la certitude que leur vision supérieure leur confère une légitimité à décider pour les autres.
Cette affaire est un cas d'école de ce mécanisme. Chacun se légitime dans son propre cadre, de manière parfaitement circulaire. Et le citoyen ordinaire regarde ça de l'extérieur sans aucun levier.
Mais posons la question honnêtement
Parce que je ne veux pas faire semblant, et il faut aller plus loin.
Et si cette légitimité était réelle ?
Il est indéniable qu'Amodei a une compréhension de ces modèles que la quasi-totalité des gens sur cette planète n'ont pas. Il y a une poignée de personnes qui comprennent vraiment ce qu'un modèle frontier peut faire, dans quelles conditions il échoue, ce qui le rend dangereux. Il y a ensuite un groupe plus large qui comprend partiellement et peut en saisir les implications (sans en maîtriser l'entièreté technique). Et puis une vaste majorité qui n'aura jamais ni le temps ni l'accès nécessaires pour étudier suffisamment le sujet.
Ce n'est pas un jugement de valeur, c'est une observation sur la nature de l'outil et sur la vitesse à laquelle il s'est imposé.
C'est là que quelque chose de vraiment nouveau apparaît. Parce qu'on pourrait dire : les démocraties ont toujours dû composer avec des sujets complexes que la plupart des citoyens ne comprenaient pas en profondeur. C'est vrai. Mais jusqu'à présent, les citoyens n'avaient pas besoin de comprendre la technique pour comprendre les conséquences. Quand une bombe atomique explose dans le désert, n'importe qui comprend ce que ça fait à une ville. On n'a pas besoin de maîtriser la physique nucléaire pour avoir un avis sur Hiroshima. La conséquence est visible, concrète, on peut la comprendre par l'expérience.
Avec l'IA, ce lien est rompu : utiliser ChatGPT au quotidien ne donne aucune intuition sur ce que représente un modèle frontier utilisé de manière autonome pour prendre des décisions létales. Les conséquences ne sont pas visibles avant qu'elles se produisent, et quand elles se produisent, on ne sait même pas à quoi les attribuer. On ne peut pas "voir exploser" une mauvaise décision d'IA autonome.
C'est une rupture avec tous les précédents démocratiques, y compris le nucléaire. La délégation a toujours reposé sur une compréhension minimale des conséquences, même sans compréhension de la technique ; là, on n'a ni l'une ni l'autre.
Et c'est précisément ce que les labs et les états utilisent, qu'ils en soient conscients ou pas, pour justifier la tutelle : ils comprennent, donc ils doivent décider pour ceux qui ne comprennent pas. La démocratie n'a jamais reposé sur la compétence technique. Elle repose sur le consentement ; et le consentement éclairé est impossible quand ni la technique ni les conséquences ne sont accessibles à ceux qui sont censés consentir.
On arrive donc à une situation nouvelle : la tutelle devient objectivement justifiable. C'est ce que la démocratie a toujours refusé comme principe, même face à des experts réels et légitimes.
Avant qu'Hiroshima ne montre au monde ce qu'une bombe atomique faisait à une ville, il y avait eu Trinity. Un essai dans le désert du Nouveau-Mexique, le 16 juillet 1945. Une poignée de physiciens et de militaires qui ont vu exploser la première bombe nucléaire de l'histoire. Eux savaient ; le reste du monde a appris le 6 août.
Nous n'avons pas encore eu notre Hiroshima de l'IA. Et j'espère sincèrement que nous ne l'aurons jamais. Mais peut-être que Dario Amodei, lui, a déjà eu son Trinity.
Si c'est vrai, si Amodei a réellement vu quelque chose que nous n'avons pas vu, alors voilà la question qui dérange vraiment : au nom de cette vision, il s'arroge le droit de décider pour l'humanité. Pas par arrogance nécessairement. Parce qu'il pense, peut-être sincèrement, que personne d'autre ne peut comprendre ce qu'il a vu. Et il a probablement raison là-dessus. Mais est-ce que ça lui en donne le droit pour autant ?
Le droit qu'ils ne devraient pas avoir
Voilà où j'arrive, et c'est la partie qui me semble la plus importante.
Même si on accepte tout ça. Même si on concède que leur légitimité est réelle, que leur compréhension est objectivement supérieure, que leur jugement est sincèrement orienté vers ce qu'ils croient être le bien commun, rien dans cette légitimité ne leur confère un droit supplémentaire : celui de décider seul du tempo. C'est-à-dire de choisir à quelle vitesse le reste du monde a le droit de comprendre, de délibérer, de se former un avis.
Historiquement, la seule situation où ce type de décision unilatérale sur le tempo a été acceptée sans débat, c'est la guerre. Pas la préparation à la guerre ; la guerre réelle.
Contrôler l'accès à la connaissance, c'est contrôler ce temps. Le nucléaire a eu ses traités, ses moratoires, son temps de maturation collective, même imparfait. Ce temps a été possible parce que la connaissance circulait, parce que des physiciens indépendants, des philosophes, des journalistes pouvaient étudier le problème et le traduire pour que le débat existe. Ici, on refuse ce temps ; et on refuse les moyens de le construire.
Imaginons un expert en cybersécurité offensive. Il a déjà toutes les connaissances, il peut fragmenter ses questions à un modèle aligné sans jamais éveiller le moindre soupçon, et obtenir ce qui lui manque pour aller plus vite et plus loin. Le débutant qui veut apprendre à défendre son propre système se heurte au mur de l'alignement à la première question sensible. L'outil protège contre le mauvais profil et bloque le bon. Ce n'est pas de la sécurité. Ça perpétue l'écart de compétence qui existe déjà (au profit de ceux qui sont déjà dans le cercle).
Et il y a quelque chose de plus profond encore, que cette affaire met au jour et que peu de gens voient encore clairement. Ce que le Department of War a demandé, ce n'est pas un modèle différent, c'est un modèle différent sans les restrictions d'Amodei. La nuance, loin d'être triviale, a son importance : Amodei n'est pas opposé aux modèles sur mesure. Il est opposé à ce que quelqu'un d'autre que lui décide des limites de ces modèles. Son refus n'est pas un refus de la dissymétrie, c'est un refus de perdre le contrôle de la dissymétrie.
Le précédent est là. Si on fait un modèle spécial pour l'armée, on peut en faire un pour un gouvernement, pour une entreprise, pour une élite qui peut se le payer. La question n'est pas de savoir si ces modèles vont exister (ils existent déjà), c'est qui décide de ce qu'ils peuvent faire. Et pour le moment, cette décision appartient à une poignée de personnes que personne n'a élues. La dissymétrie ne sera pas seulement une question de prix d'abonnement. Ce sera un cercle fermé qui aura accès à des capacités que les autres n'auront pas, et qui pourra développer des choses que les autres ne pourront ni anticiper, ni évaluer, ni contrer.
Il existe une institution que nos sociétés ont précisément inventée pour résoudre ce problème : le brevet. Le brevet protège l'exploitation commerciale d'une invention, pas la connaissance qui la sous-tend. En échange du monopole d'exploitation temporaire, la connaissance est rendue publique. On te donne le droit exclusif d'en faire commerce, mais la compréhension de ce que tu as découvert doit circuler librement.
Ce que font les labs fermés est l'inverse exact : ils gardent simultanément le monopole d'exploitation et la connaissance. Ce n'est conforme ni à l'esprit du brevet, ni au principe de libre circulation du savoir qui fonde nos démocraties depuis les Lumières. Et si on ne peut pas étudier ces modèles de manière indépendante, on ne peut pas faire le travail de traduction qui permettrait au débat démocratique d'exister. On nous refuse à la fois l'accès et le temps.
Une méritocratie qui contrôlerait ses propres critères d'entrée ne serait plus une méritocratie. Ce serait une oligarchie qui se déguise, et c'est peut-être ce qu'on est déjà en train d'observer.
La position dans laquelle je me trouve
On peut articuler les arguments du Department of War : une armée démocratiquement mandatée ne peut pas laisser une entreprise privée décider souverainement de ses usages. On peut articuler les arguments d'Amodei : avec les technologies actuelles, certains usages sont objectivement trop dangereux pour être autorisés sans garde-fous, et il est l'un des seuls à pouvoir en mesurer réellement les risques.
Les deux positions ont une logique interne, et aucune ne me représente.
Je ne suis ni indécis ni résigné. Je suis dans la position de quelqu'un qui a potentiellement la capacité de commencer à comprendre ces enjeux, mais à qui on refuse simultanément l'accès aux outils et le temps nécessaire pour les évaluer de manière indépendante. Cette position est partagée par beaucoup plus de gens qu'on ne le croit (et elle est presque impossible à exprimer publiquement, parce que la conversation collective nous force à choisir un camp).
C'est ça le vrai problème démocratique que cette semaine a rendu visible. Pas la surveillance de masse. Pas les armes autonomes. Ces questions sont réelles et importantes, mais elles sont des symptômes. Le problème que je pressens, c'est que nos mécanismes démocratiques n'ont pas été conçus pour des situations où ni la technique ni les conséquences ne sont accessibles à ceux qui sont censés déléguer.
On délègue le pouvoir à des représentants qu'on choisit. Mais quand on ne peut pas évaluer leurs décisions parce qu'on ne peut pas comprendre le sujet sur lequel ils décident, et qu'on ne peut même pas en voir les effets avant qu'il soit trop tard, ce n'est plus de la représentation, c'est de la foi.
Le nucléaire avait eu droit à un débat, même après coup. Cet après-coup a existé parce qu'il restait une humanité pour en tirer les leçons. Nous vivons depuis lors sous un équilibre nucléaire dont la stabilité repose sur une chose : la décision humaine ; un équilibre fragile, imparfait, mais humain.
Confier des décisions militaires à des systèmes autonomes dans ce contexte-là, ce n'est pas un débat technique sur l'efficacité opérationnelle. C'est jouer avec la seule condition qui rende un après-coup possible.
Aujourd'hui, le Department of War refuse explicitement que l'IA soit traitée comme une technologie à statut particulier, ce qui court-circuite précisément le type de délibération qui avait existé sur le nucléaire. Avec le nucléaire, on avait au moins eu Hiroshima pour comprendre, mais, cette fois, nous n'aurons pas d'exemple préalable sur lequel fonder notre prise de conscience.
Et cette fois, si nous nous trompons, il n'y aura pas d'après-coup. Pas de traités signés dans les ruines. Pas d'institutions reconstruites sur les leçons tirées. Est-ce qu'il ne faudrait pas, précisément pour cette raison, se donner le temps de comprendre collectivement les conséquences de ce que nous sommes en train de construire, avant que l'irréparable se produise ?
Je n'ai pas de solution
Revenons à ce qu'on vient de traverser ensemble.
Une affaire concrète, et révélatrice. Le Department of War qui veut un modèle sans restrictions. Amodei qui refuse, mais qui veut garder la main sur qui décide des restrictions. OpenAI qui s'en remet à la loi, pendant que cette même loi est tordue par ceux qui sont censés la défendre. Trois acteurs. Trois logiques de contrôle. Aucune qui nous représente.
Ce n'est pas une bataille politique ordinaire, c'est la visibilité soudaine d'un mécanisme très ancien : des gens convaincus de voir ce que les autres ne voient pas, et qui décident en conséquence. Ce mécanisme a toujours existé. Ce qui est nouveau, c'est qu'il pourrait désormais être objectivement justifié. Peut-être qu'Amodei a réellement vu quelque chose que nous n'avons pas vu. Peut-être que cette classe de gens qui développent et contrôlent ces systèmes comprend réellement des choses que le reste du monde ne peut pas encore comprendre.
Pendant des siècles, la démocratie a cherché à équilibrer deux acteurs : ceux qui gouvernent et ceux qui sont gouvernés. Un troisième vient d'entrer dans l'équation (ni élu ni citoyen), dont la légitimité repose sur quelque chose de réel : la compréhension de systèmes que les deux autres ne peuvent pas encore évaluer. Et ces systèmes eux-mêmes, les IA, viennent redéfinir les rapports de force entre les trois. Un mot pour tout ça : Trinity. Le test qui a changé le monde avant qu'on comprenne ce qu'il changeait. Et la trinité de ce monde-là : ceux qui gouvernent, ceux qui comprennent, et ceux qui regardent en essayant de comprendre.
Ce n'est pas une raison de rejeter la technologie. C'est peut-être, au contraire, la seule voie vers un monde meilleur. Mais une voie qui s'emprunte sans boussole démocratique, sans y voir clair et à toute vitesse, c'est une voie qui peut mener n'importe où.
C'est là que tout bascule. Parce que si leur légitimité est réelle, et qu'ils contrôlent en plus l'accès à la connaissance qui permettrait aux autres de les évaluer, alors on n'est plus dans une démocratie qui délègue. On est dans une démocratie qui abdique sans le savoir. Qui consent sans comprendre. Qui délègue sans pouvoir évaluer ce qu'elle délègue.
Ces décisions prises sans mandat démocratique ne concernent pas seulement l'avenir de l'IA. Elles concernent l'équilibre le plus fragile qu'on ait construit. L'argument qu'on entend en filigrane (si on ne le fait pas, les autres le feront), c'est l'argument de la dissuasion. Il a fonctionné avec le nucléaire parce que la décision restait humaine, lente, délibérée. Ce qu'on est en train de construire fonctionne en millisecondes, dans un monde où on ne sait plus avec certitude d'où vient l'attaque. La logique de la dissuasion ne tient plus. Mais personne ne nous a demandé notre avis sur le fait de la remplacer. Et cette décision, comme toutes les autres, est en train d'être prise par ceux qui pensent avoir vu Trinity.
De mon point de vue, et peut-être aussi de celui de personnes qui liront cet article, on regarde ça de l'extérieur. On comprend suffisamment pour voir le problème. Pas assez pour avoir un levier. Et personne ne nous a demandé notre avis.
Cette position est inconfortable parce qu'elle ne permet pas de choisir un camp. Elle permet juste de voir que tous les camps partagent le même présupposé : que ce sont eux qui décident, et que les autres valident. Mais le problème va plus loin encore. Même ceux à qui nous déléguons ce pouvoir de validation ne comprennent pas ce sur quoi ils se prononcent. Le Department of War a exigé un modèle sans restrictions sans pouvoir en mesurer les conséquences réelles. Les élus qui supervisent ces décisions votent sur des technologies qu'ils ne peuvent pas évaluer. À chaque maillon de la chaîne, personne ne comprend vraiment. Ce n'est plus une question de représentation défaillante. C'est une question de compréhension structurellement impossible à chaque niveau de la chaîne.
Et ici la question se complique sérieusement, et c'est peut-être le nœud du problème. On a commencé par parler d'Amodei et du Department of War. On se retrouve à se demander si nos formes démocratiques actuelles sont équipées pour un monde où il y aura immanquablement des gens qui comprennent ces systèmes avant que le reste du monde ait eu le temps de le faire, et à qui on devra peut-être faire confiance, aveuglément ou pas, faute de mieux. Est-ce que le temps suffit comme réponse ? C'est peut-être un début. Mais si l'IA bouleverse nos systèmes relationnels et cognitifs aussi profondément qu'elle semble le faire, alors ce ne sont pas seulement nos institutions qu'il faudra adapter. Ce sont nos modèles démocratiques eux-mêmes qu'il faudra réinventer.
Je n'ai personnellement pas de réponse à ça. Personne n'en a pour le moment. Mais si on ne commence pas à poser cette question précisément, sans la noyer dans le catastrophisme ou dans le choix entre des camps qui ont tous intérêt à ce qu'on ne la pose pas, alors ce sont ceux qui pensent avoir vu Trinity qui continueront à y répondre à notre place.
Ce qui s'est passé cette semaine avec Anthropic et le Department of War n'est pas une bataille politique. C'est le moment où ce mécanisme est devenu visible pour qui voulait le voir.
Et le rendre visible c'est justement ce que j'essaie de faire ici.
Contributeurs
Kira Kiranova - Relectrice et inspiratrice infatigable de mes nombreuses expéditions intellectuelles.
Note finale de l'auteur
Ce texte a été rédigé avec l'aide d'outils de synthèse IA, à travers des corrections et des allers-retours constants. La structure, les articulations et les impulsions sont les miennes ; c'est précisément cet effort qui me permet d'apprendre réellement ce que j'écris.
L'objectif de ce travail était avant tout pédagogique pour moi. BCS blog existe parce que je comprends mieux en écrivant. C'est le moteur essentiel de ces articles.
Olivier Heckendorn
Le blog BCS est également accessible via bcs-blog.fr.
Souscrivez à mon blog et recevez ma newsletter mensuelle une fois par mois, pas plus, pas moins - Résumé des articles récents et quelques infos.
Check out my last posts
Olivier Heckendorn - site olivierh.com - RSS feed
Le blog est également accessible via bcs-blog.fr.