Quand Internet ment si bien que même les IA y croient
TVA, cases et fournisseurs étrangers
Depuis trois mois, tous les mois, je galère avec ma déclaration de TVA.
Je suis indépendant, j'utilise un logiciel comptable en ligne (Indy), et comme beaucoup de gens qui travaillent dans le numérique, je paye des abonnements à des fournisseurs étrangers. ChatGPT, Microsoft 365, Notion, Google Ads, des API diverses, rien d'exotique. Des achats que des centaines de milliers d'indépendants et de petites entreprises font tous les mois en France.
Le problème, c'est que chaque mois, quand je regarde le brouillon de ma déclaration CA3, j'ai l'impression que les montants ne tombent pas dans les mêmes cases. Mon abonnement OpenAI (facturé depuis les États-Unis) va dans une case. Mon abonnement Microsoft 365 (facturé depuis l'Irlande) va dans une autre. Et le mois suivant, je ne suis plus sûr que c'est pareil. Il y a quelque chose qui ne colle pas, mais je n'arrive pas à mettre le doigt dessus.
Je fais ce que tout le monde fait en 2026 : je demande à une IA.
Je pose la question à ChatGPT. Il me répond avec assurance : les services achetés à des fournisseurs de l'Union européenne vont en case A3 (« achats de prestations intracommunautaires »), et les services achetés à des fournisseurs hors UE vont en case B4. C'est clair, c'est net, c'est sourcé. Je suis presque rassuré.
Mais quelque chose me gêne. Pourquoi est-ce que la localisation du fournisseur changerait la case ? C'est le même service, le même mécanisme (l'autoliquidation), la même TVA à 20%. Pourquoi est-ce que l'administration fiscale aurait prévu deux cases différentes pour la même opération, juste parce que le serveur est en Irlande plutôt qu'en Californie ?
Je demande à Gemini. Même réponse. A3 pour l'UE, B4 pour le reste du monde.
Je demande à Indy (mon logiciel comptable). Il fait exactement ça.
Tout le monde est d'accord. Et pourtant, ça ne colle toujours pas.
L'os
À un moment, quand tout le monde dit la même chose et que ça ne vous convainc pas, il n'y a qu'un seul recours : aller lire le texte soi-même. Pas le blog qui l'explique, pas le site qui le résume ; le texte.
Je télécharge la notice officielle du formulaire CA3, la notice n° 3310 NOT-CA3-SD. C'est un PDF de vingt pages que l'administration fiscale publie pour expliquer, ligne par ligne, comment remplir la déclaration. Pas le document le plus excitant du monde, mais c'est la source primaire ; ce qui est écrit dedans fait foi.
Et en lisant la description de la ligne A3, quelque chose saute aux yeux. La notice la décrit comme ceci :
« Indiquer le montant hors TVA des achats de prestations de services fournies par un prestataire non établi en France et imposables en France sur le fondement des articles 259-1° et 283-2 du CGI. »
Relisez : la notice dit « non établi en France ». Pas « intracommunautaire ». Pas « dans l'UE ». Non établi en France. Ce qui veut dire : tout fournisseur qui n'a ni son siège social, ni un établissement stable en France. Américain, irlandais, japonais, brésilien. Tout le monde.
Bon. C'est peut-être une formulation large et il y a peut-être un texte plus précis qui restreint le champ ? Allons voir le Code Général des Impôts. L'article 259-1° du CGI, celui que la notice cite, dit que les prestations de services entre assujettis sont imposables au lieu d'établissement du preneur. Pas de condition sur l'origine du prestataire. Le BOFiP (la doctrine administrative, c'est-à-dire la façon dont l'administration interprète la loi) est encore plus explicite : il précise que la règle s'applique « que le prestataire soit établi dans un autre État membre de l'Union européenne ou en dehors de l'Union européenne ».
Autrement dit : pour les services courants (SaaS, cloud, conseil, publicité), la case est A3 que le fournisseur soit dans l'UE ou hors UE. Il n'y a pas deux cases. Il y en a une seule. La distinction géographique que tout le monde répète n'existe pas dans les textes.
Le cabinet d'avocats fiscalistes Cyplom Avocats, dans une vidéo dédiée à la case A3, ne mâche pas ses mots. Pour eux, l'idée que A3 serait réservée aux fournisseurs de l'UE est une « légende urbaine ».
Quatre sources officielles, quatre réponses
Une fois qu'on a vu l'écart entre les textes et ce que dit le web, la question suivante est naturelle : d'où vient l'erreur ? Est-ce que c'est moi qui lis mal ?
J'ai fait le test le plus simple possible. J'ai pris un cas concret (un abonnement SaaS acheté par un professionnel français à un fournisseur américain) et j'ai cherché la réponse dans quatre sources officielles ou quasi-officielles. Voici ce que j'ai trouvé :
| Source | Case préconisée |
|---|---|
| Notice officielle CA3 + CGI + BOFiP + Cyplom Avocats | A3 |
| Impots.gouv.fr (page « Prestations entre assujettis ») | A2 |
| Service-public.fr (fiche entreprendre F37527) | A2 |
| Indy, la plupart des logiciels comptables, la plupart des blogs | B4 |
Quatre sources. Trois réponses différentes. Et aucune d'entre elles ne converge vers la même case, sauf les textes normatifs eux-mêmes (CGI, BOFiP, notice officielle).
Le plus troublant, c'est que c'est l'État qui se contredit lui-même. La notice officielle du formulaire CA3 (publiée par la DGFiP) dit A3. Le site impots.gouv.fr (publié par la même DGFiP) dit A2. Et service-public.fr dit A2 aussi. Vous pouvez aller vérifier, les liens sont dans le guide en annexe.
Comment est-ce qu'on en est arrivé là ?
L'explication est archéologique. Avant la refonte du formulaire CA3 en janvier 2022, la case qui s'appelle aujourd'hui A3 portait un intitulé différent. Elle s'appelait « ligne 2A » et son libellé officiel était « Achats de prestations de services intracommunautaires ». Le mot « intracommunautaires » figurait noir sur blanc sur le formulaire.
Ce mot a contaminé tout l'écosystème. Les éditeurs de logiciels comptables ont codé leurs règles de mapping en distinguant « fournisseur UE → case 2A » et « fournisseur hors UE → autre case ». Les blogs fiscaux ont écrit des articles qui expliquaient cette distinction. Les formations ont enseigné cette distinction. Les forums ont répété cette distinction. Et quand la DGFiP a corrigé l'intitulé en 2022 (en remplaçant « intracommunautaires » par « non établi en France »), plus personne n'a remarqué. Les logiciels n'ont pas été mis à jour. Les articles de blog sont restés en ligne. Les habitudes n'ont pas changé.
Le texte a été corrigé en 2022, mais le monde n'a pas suivi ; c'est une erreur par inertie, et elle tient toujours.
La zone dangereuse
C'est là que les IA entrent dans l'histoire, et que le sujet dépasse la TVA.
Un grand modèle de langage (un LLM, pour Large Language Model) est entraîné sur le web. Il a ingéré des milliards de pages, de forums, de blogs, de documents. Quand vous lui posez une question, il ne « cherche » pas la réponse dans une base de données ; il génère la réponse la plus probable étant donné tout ce qu'il a lu.
Si 95% du web dit « B4 pour les fournisseurs hors UE », le modèle va dire « B4 pour les fournisseurs hors UE ». Avec assurance. Avec des sources (qui pointent vers les mêmes blogs qui disent la même chose fausse). Et avec cette fluidité caractéristique qui donne l'impression que la réponse a été vérifiée.
Ce n'est pas ce qu'on appelle habituellement une « hallucination ». Une hallucination, au sens technique, c'est quand le modèle invente un fait de toutes pièces : un article scientifique qui n'existe pas, une loi qui n'a jamais été votée, une citation fabriquée. C'est un phénomène connu et assez bien étudié.
Ce qui se passe avec la TVA est différent et, d'une certaine manière, plus pernicieux. Le modèle ne ment pas. Il reflète fidèlement un consensus qui se trouve être faux. Chaque source qu'il cite existe réellement. Chaque blog qu'il référence dit réellement ce qu'il prétend. Le problème n'est pas dans le modèle ; il est dans le corpus.
Il y a un concept en recherche sur les LLM qui décrit bien cette situation : la zone dangereuse du savoir de niche. C'est ce qui se passe quand un sujet est suffisamment familier pour que le modèle se sente autorisé à répondre (il « connaît » la TVA, la CA3, l'autoliquidation), mais pas suffisamment maîtrisé pour qu'il détecte les incohérences dans ses propres sources. Le modèle ne s'abstient pas, parce que le sujet n'a rien d'exotique. Il a des données. Il a plein de données. Elles sont juste fausses.
C'est le problème de la carte routière détaillée, professionnelle, cohérente avec elle-même, où la seule erreur est qu'une route a été renommée il y a quatre ans et que personne n'a mis à jour les données cartographiques. Si la carte était vide, vous sauriez que vous n'avez pas d'information et vous en chercheriez une autre. Si elle était grossièrement fausse (une ville au mauvais endroit, un fleuve qui n'existe pas), vous le remarqueriez peut-être. Mais une carte détaillée avec une seule erreur de nomenclature, vous la suivez sans vous poser de questions. Et vous arrivez au mauvais endroit en étant convaincu d'avoir suivi le bon chemin.
C'est ce qui se passe avec la TVA. L'erreur n'est pas grossière. Elle est systémique, cohérente, et elle est répétée par des sources qui ont l'air fiables. Le modèle fait ce qu'un humain raisonnable ferait face aux mêmes données : il fait confiance au consensus.
Et cette zone dangereuse ne concerne pas que la fiscalité. Un autre exemple que je donne souvent en formation, parce qu'il est parlant et qu'il touche un domaine que je connais bien (la chaîne graphique), c'est celui du système Pantone. Pantone, c'est le standard mondial de la couleur pour l'impression : tous les imprimeurs du monde mélangent des encres de base selon des formules précises pour obtenir chaque couleur du nuancier. Le nombre d'encres de base a changé plusieurs fois au fil des décennies (d'abord 14, puis 18 dans les années 2000). En février 2023, Pantone a publié un whitepaper officiel annonçant le passage à 11 encres de base plus un extender transparent. Si vous demandez aujourd'hui à un LLM combien il y a d'encres de base Pantone, il vous répondra 18, ou 14, ou 13, selon la source qu'il privilégie. J'ai fait le test. Le « Complete Designer's Guide 2025 » qu'on trouve en tête des résultats dit 18. Le « Definitive Guide » de Columbia Omni Studio dit 18. Des sites d'imprimeurs de 2024 disent 14. La bonne réponse (11) n'apparaît que dans le whitepaper Pantone et quelques discussions de professionnels sur des forums spécialisés. Même pattern que pour la TVA : un changement a eu lieu, les textes officiels ont été mis à jour, l'écosystème n'a pas suivi (le détail des sources est en annexe).
Ce qui rend la chose pernicieuse, c'est justement la banalité de ces sujets. Personne ne vérifie une réponse sur le nombre d'encres de base Pantone, parce que ça n'a pas l'air d'un sujet controversé ; c'est un fait technique, ça semble stable, il n'y a aucune raison de douter. Personne ne vérifie la case A3 de sa déclaration de TVA, parce que c'est « juste de l'administratif » et que le logiciel est censé savoir. Plus un sujet semble incontestable, moins on le conteste ; c'est justement là que l'erreur survit le plus longtemps.
Même les nouveaux se plantent
À ce stade, on pourrait se dire : « D'accord, les modèles classiques se trompent parce qu'ils récitent ce qu'ils ont appris. Mais les modèles récents peuvent chercher sur le web en temps réel. Ils ont le grounding. Ça change tout, non ? » Pas automatiquement.
J'ai testé Gemini avec Deep Research pas plus tard qu'hier. Même question, même cas concret. Le modèle a fait ce que font les modèles équipés de recherche web : il est allé chercher des sources, il les a lues, il a synthétisé. Il a même produit un joli tableau comparatif des cases A3, B2 et B4 avec les articles du CGI correspondants. Tout avait l'air impeccable. Et il a produit la même réponse fausse. A3 pour l'UE, B4 pour hors UE. Exactement ce que dit Indy. Exactement ce que disent les blogs.
Mais le plus beau, c'est la fin de sa réponse. Pour étayer son analyse, Gemini cite une source vidéo : la vidéo du cabinet Cyplom Avocats consacrée spécifiquement à la case B4. Il la recommande en disant qu'elle « détaille spécifiquement les erreurs fréquentes entre l'article 283-1 (Case B4) et l'article 283-2 (Case A3) ». C'est la bonne source. C'est la bonne source, la vidéo qu'il faut regarder. Mais quand on la regarde, cette vidéo dit précisément le contraire de ce que Gemini affirme : les avocats y expliquent que la case A3 couvre tous les fournisseurs non établis en France, UE et hors UE, et que la distinction géographique est une légende urbaine. Le modèle a trouvé la bonne source, il l'a citée, il l'a recommandée, et il n'a pas détecté qu'elle contredisait sa propre réponse.
C'est le genre d'erreur que l'étude HalluHard appelle une erreur de contenu : la référence est correcte, mais ce que le modèle en dit est faux. (voir mon article à ce sujet)
Pourquoi ? Parce que le grounding ne résout le problème que si le modèle comprend réellement ce que ses sources disent, et pas seulement qu'elles existent et qu'elles traitent du bon sujet. Quand il cherche « TVA case A3 fournisseur étranger », il tombe sur quoi ? Sur les mêmes blogs, les mêmes logiciels, la même page d'impots.gouv.fr qui dit A2, le même écosystème qui répète la même erreur depuis 2022. La notice officielle du formulaire est noyée dans le bruit. Le BOFiP est un site dense, mal référencé, pas optimisé pour le SEO. Les textes qui disent la bonne chose existent ; ils sont juste moins visibles que ceux qui disent la mauvaise chose.
Plus de recherche ne veut pas dire meilleure recherche. Un modèle qui interroge le web et qui récupère dix sources dont huit sont fausses va produire une synthèse fausse avec une belle bibliographie. Le problème se déplace : au lieu d'une hallucination paramétrique (le modèle invente à partir de ses poids), on obtient une hallucination de grounding (le modèle synthétise fidèlement des sources qui se trompent). Le résultat pour l'utilisateur est le même. Et il est peut-être pire, parce que la présence de citations donne une impression de fiabilité supplémentaire.
J'ai récemment écrit une analyse critique d'un papier de recherche (HalluHard, Fan et al., 2026) qui étudie exactement ce problème à grande échelle. Les auteurs montrent que la recherche web réduit drastiquement les erreurs de référence (citer une source qui n'existe pas), mais qu'elle ne réduit que marginalement les erreurs de contenu (attribuer à une source quelque chose qu'elle ne dit pas, ou synthétiser des sources contradictoires en aplatissant les nuances). Leur meilleur modèle, avec recherche web activée, conserve un taux d'erreur résiduel de 30%. C'est le phénomène que j'ai vécu sur un cas concret.
Et il y a un aspect que personne n'aborde et qui m'inquiète plus que le reste. Les LLM génèrent du contenu. Ce contenu finit sur le web : des articles de blog « assistés par IA », des réponses sur des forums, des fiches techniques. Ce contenu est ensuite ingéré par les LLM suivants, soit dans leur entraînement, soit via leur recherche web en temps réel. Si l'erreur TVA ou l'erreur Pantone est reproduite par des IA dans des articles de blog (et elle l'est ; j'ai trouvé des « guides complets 2025 » manifestement générés par des IA qui répètent 18 encres de base), elle se renforce à chaque cycle. Ce n'est pas du model collapse au sens classique (les poids du modèle qui se dégradent en boucle fermée) ; c'est quelque chose de différent : le corpus web lui-même qui devient progressivement plus faux sur certains sujets de niche. Les modèles deviennent plus confiants dans la fausseté, parce qu'ils trouvent de plus en plus de sources qui la confirment. C'est une boucle de rétroaction, et elle tourne dans le mauvais sens.
Ce qui a marché
Qu'est-ce qui a fini par fonctionner ?
Ce n'est pas un modèle plus gros, ni un meilleur moteur de recherche, ni un prompt magique. Ce qui a fonctionné, c'est une collaboration spécifique entre un humain (moi) et un modèle (Claude Opus, en l'occurrence).
Je ne lui ai pas demandé « dans quelle case je déclare mon abonnement ChatGPT ». Si j'avais fait ça, j'aurais obtenu la même réponse fausse que partout ailleurs. Ce que j'ai fait, c'est guider la recherche :
« Lis la notice officielle du formulaire CA3, la n° 3310 NOT-CA3-SD. Qu'est-ce qu'elle dit exactement sur la ligne A3 ? »
« Maintenant, va lire l'article 259-1° du CGI sur Légifrance. Est-ce qu'il fait une distinction entre fournisseurs UE et hors UE ? »
« Compare ce que dit le BOFiP TVA-CHAMP-20-50-20 avec ce que dit la page "Prestations entre assujettis" sur impots.gouv.fr. Est-ce que c'est cohérent ? »
« Ignore les blogs et les logiciels comptables. N'utilise que les sources normatives : CGI, BOFiP, notice officielle. »
Ce dernier point est important. L'instruction « ignore les blogs » revient à dire au modèle : « dans la hiérarchie des sources, le texte de loi l'emporte sur la doctrine administrative, qui l'emporte sur la vulgarisation, qui l'emporte sur les blogs ». C'est une évidence pour un juriste, pour un chercheur, pour quiconque a l'habitude de travailler avec des sources primaires. Mais ce n'est pas du tout un réflexe naturel pour un LLM. Un LLM, par construction, traite toutes les sources avec le même poids statistique. Un article de blog répété mille fois pèse plus lourd qu'un alinéa du CGI cité dix fois.
L'humain apporte quelque chose que le modèle ne peut pas générer seul : le doute méthodique et la hiérarchie des sources. La capacité de dire « non, ce n'est pas parce que tout le monde le dit que c'est vrai ; remonte plus haut, va lire le texte de loi ». Et le modèle apporte quelque chose que l'humain ne peut pas faire seul : la capacité de fouiller vingt documents en parallèle, de croiser les articles du CGI avec le BOFiP et la notice officielle, de repérer les incohérences entre les sources, et de produire une synthèse structurée en quelques minutes.
Ni l'un ni l'autre n'y arrive seul. L'humain sans le modèle passerait des semaines à faire le même travail (ou, plus probablement, renoncerait et ferait confiance à son logiciel comptable). Le modèle sans l'humain réplique l'erreur collective avec aplomb.
C'est de la collaboration carbone/silicium au sens le plus concret du terme. Pas une métaphore sur le futur du travail. Un cas réel, un problème réel, une solution qui a nécessité les deux.
Ce que ça implique pour la recherche
Ce que j'ai fait manuellement (guider un LLM vers les sources primaires, lui imposer une hiérarchie, lui dire lesquelles ignorer) devrait, à terme, être automatisé. Mais avant de parler de solutions, il faut comprendre pourquoi le problème s'aggrave avec les outils qui sont censés le résoudre.
Le PageRank, dans sa version originale, était à la base un algorithme de hiérarchie des sources : une page est d'autant plus fiable qu'elle est citée par d'autres pages fiables. Et d'une certaine manière, ça marchait. Quand un humain cherchait sur Google, il voyait les dix premiers résultats, et le classement faisait un tri implicite. Les sources les plus citées, les plus liées, les plus « autoritaires » au sens du graphe web, remontaient en haut. Le filtre était imparfait (dégradé par le SEO, le spam, l'économie de l'attention), mais il existait.
Le paradoxe, c'est que les modèles équipés de Deep Research font exactement le contraire. Leur force supposée, c'est d'aller au-delà des dix premiers résultats, de lire des dizaines ou des centaines de pages, de croiser les sources, de synthétiser. Mais en faisant ça, ils contournent le filtre du PageRank. Ils vont chercher en page 5, en page 10, dans les blogs mal référencés, dans les forums, dans les « guides complets 2025 » générés par d'autres IA. Ils ingèrent tout. Plus le modèle cherche, plus il se noie dans le bruit, et plus la synthèse qu'il produit reflète le consensus du volume (les deux cents blogs qui disent la même chose fausse) plutôt que le signal de l'autorité (la notice officielle que personne ne cite).
On arrive à une situation absurde où un utilisateur qui ferait une simple recherche Google et cliquerait sur le premier résultat aurait parfois de meilleures chances de tomber sur la bonne réponse qu'un modèle Deep Research qui a lu cent pages. L'extension des capacités de recherche, sans reconstruction d'une couche de hiérarchisation des sources, est contre-productive. C'est plus de données, mais pas plus de signal.
Donc comment on fait ? Comment on reconstruit un filtre de qualité quand le filtre d'origine (le PageRank) a été contourné ?
La solution ne sera probablement pas un seul modèle qui fait tout, mais une architecture de recherche avec des sous-agents spécialisés. Un agent qui cherche les sources. Un agent qui évalue leur autorité (est-ce un texte de loi ? un blog ? un forum ? une page officielle qui n'a pas été mise à jour depuis la refonte du formulaire ?). Un agent qui vérifie la cohérence interne des sources entre elles et qui signale les contradictions au lieu de les aplatir dans une synthèse lisse. Un agent qui détecte quand une information a changé récemment et que le web n'a pas encore rattrapé la réalité. C'est, en substance, reconstruire le travail que le PageRank faisait implicitement, mais à un niveau de granularité que le PageRank n'a jamais atteint : le PageRank classait des pages ; ce qu'il faudrait, c'est classer des affirmations.
Casser la boucle
C'est pour ça que le guide existe.
Pas juste pour savoir dans quelle case déclarer son abonnement ChatGPT. Pour qu'il y ait enfin, quelque part sur le web, un document sourcé qui dit la bonne chose. Un document qui remonte aux textes normatifs, qui cite les articles du CGI, qui pointe les contradictions entre les portails officiels, et qui explique d'où vient la confusion.
Parce que le problème qu'on a vu, c'est une boucle. Le web dit quelque chose de faux. Les LLM apprennent cette erreur. Les utilisateurs demandent aux LLM et obtiennent la confirmation de l'erreur. Ils ne corrigent pas le web. Et la boucle continue.
Créer une source de référence correcte, c'est injecter un signal dans le bruit. C'est un petit geste. Mais c'est comme ça qu'on casse la boucle. La prochaine fois qu'un modèle cherchera « TVA case fournisseur étranger non établi en France article 259-1 », il tombera peut-être aussi sur ce document. Et il aura au moins une source qui dit le contraire du consensus. Et si le modèle est un bon modèle, il remarquera que cette source cite le CGI et le BOFiP, et que les autres citent des blogs. Et il choisira peut-être la bonne réponse.
C'est optimiste, mais l'alternative c'est de ne rien faire et de laisser la boucle tourner.
En attendant, le guide complet est disponible en annexe (télécharger le PDF). Il couvre les quatre cases principales (A3, B4, B2, A4), le mécanisme d'autoliquidation ligne par ligne, les erreurs courantes des logiciels comptables, et un arbre de décision. Toutes les sources sont des textes normatifs. Les contradictions entre les portails officiels y sont documentées. Celui-ci est valable à la date de février 2026 sous réserve de changement de la loi.
Et pour ceux qui sont en franchise en base de TVA (micro-entrepreneurs), ne vous sentez pas oubliés. Votre situation vis-à-vis de l'autoliquidation est un sujet à part entière, et il fera l'objet du prochain article. Parce que là aussi, ce que dit le web et ce que disent les textes, c'est une toute autre histoire.
Annexes
Le cas TVA : quatre sources, trois réponses
| Source | Case préconisée | Observation |
|---|---|---|
| Notice officielle CA3 (n° 3310 NOT-CA3-SD) | A3 | Texte normatif ; cite les articles 259-1° et 283-2 du CGI |
| CGI (art. 259-1°) + BOFiP (TVA-CHAMP-20-50-20) | A3 | « que le prestataire soit dans l'UE ou en dehors de l'UE » |
| Cyplom Avocats (cabinet fiscaliste, vidéo dédiée) | A3 | Qualifie la distinction géographique de « légende urbaine » |
| Impots.gouv.fr (page « Prestations entre assujettis ») | A2 | Contredit la notice du même formulaire |
| Service-public.fr (fiche F37527) | A2 | Non sourcé, contredit les textes normatifs |
| Indy, la plupart des logiciels comptables et blogs | B4 | Hérité de l'ancien intitulé « intracommunautaire » (avant 2022) |
Le cas Pantone : un changement passé inaperçu
En février 2023, Pantone a publié un whitepaper annonçant le passage de 18 à 11 encres de base (plus un extender transparent) pour son Formula Guide. Voici ce que disent les sources disponibles sur le web en 2026 :
| Source | Nombre d'encres de base annoncé |
|---|---|
| Whitepaper Pantone, février 2023 (source primaire) | 11 |
| « Complete Designer's Guide 2025 » (hex-to-pantone.com) | 18 |
| Columbia Omni Studio, « Definitive Guide » | 18 |
| Nahan (blog imprimeur, novembre 2024) | 14 |
| Boxcar Press | 14 |
| Color Copies USA | 14 |
| Wikipedia (données datant des années 2000) | 13 ou 14 |
Trois chiffres différents en circulation (11, 14, 18). La plupart des « guides complets 2025 » répètent 18 sans avoir vérifié. Le whitepaper officiel, qui dit 11, est noyé dans le bruit.
Contributeurs
Kira Kiranova - Relectrice et inspiratrice infatigable de mes nombreuses expéditions intellectuelles.
Note finale de l'auteur
Ce texte a été rédigé avec l'aide d'outils de synthèse IA, à travers des corrections et des allers-retours constants. La structure, les articulations et les impulsions sont les miennes ; c'est précisément cet effort qui me permet d'apprendre réellement ce que j'écris.
L'objectif de ce travail était avant tout pédagogique pour moi. BCS blog existe parce que je comprends mieux en écrivant. C'est le moteur essentiel de ces articles.
Olivier Heckendorn
Le blog BCS est également accessible via bcs-blog.fr.
Souscrivez à mon blog et recevez ma newsletter mensuelle une fois par mois, pas plus, pas moins - Résumé des articles récents et quelques infos.
Check out my last posts
Olivier Heckendorn - site olivierh.com - RSS feed Le blog est également accessible via bcs-blog.fr.