Derrière l’efficacité des LLM le risque de dérive cognitive

Les grands modèles de langage s’intègrent désormais à toutes les strates de la chaîne décisionnelle : filtrage de contenus, recommandations, notation de la fiabilité, voire instruction d’actions automatisées. Cette délégation promet une efficacité inédite, mais elle modifie subtilement la nature même du “jugement”. En analysant leurs performances sur plus de deux mille domaines d’actualité, on découvre des systèmes capables de reproduire l’apparence d’une expertise tout en s’appuyant sur des raccourcis statistiques éloignés des critères normatifs qui guident l’évaluation humaine

Le protocole expérimental mobilise six modèles de dernière génération et les place face aux notations d’équipes humaines reconnues pour leur rigueur. En mode « livre fermé », sans consigne explicite, les modèles classent 2 286 sites selon leur fiabilité et leur orientation politique. Ils s’alignent à plus de 90 % pour repérer les sources manifestement douteuses, mais l’accord s’étiole dès qu’il s’agit de juger les médias réputés fiables : jusqu’à un tiers de ces derniers sont rétrogradés, preuve d’une sensibilité accrue aux signaux textuels ambigus ou à la tonalité éditoriale

La distorsion n’est pas uniforme : les sites marqués « droite » sont plus souvent perçus comme peu crédibles, tandis que les voix « centre » ou « gauche » bénéficient d’un préjugé favorable. Rien n’indique un parti pris idéologique conscient ; plutôt un apprentissage corrélé où le lexique de l’extrémisme et de la désinformation, sur-représenté dans certains corpus, se confond avec l’ensemble de la famille politique associée

Pour sonder le raisonnement implicite, les chercheurs demandent aux modèles de générer des mots-clés justifiant chaque verdict. Les distributions obtenues dessinent une forte loi « longue traîne » : quelques termes – “misinformation”, “conspiracy”, “propaganda” – reviennent sans cesse pour discréditer, tandis que “transparency”, “independent”, “factual” jalonnent la crédibilité. Les marqueurs politiques, eux, se colorent différemment : nommer un acteur de droite renvoie presque mécaniquement vers l’étiquette « non fiable ». Cette co-occurrence, invisible à l’œil nu, révèle la substitution d’un raisonnement contextuel par des associations lexicales brutes

Ce glissement épistémique porte un nom : l’« épistémia », l’illusion de savoir générée quand la plausibilité de surface tient lieu de vérification. À première vue, l’algorithme « raisonne » ; en réalité, il orchestre des proximités statistiques forgées sur des milliards de phrases. Tant que le résultat converge avec l’avis d’experts, la dérive passe inaperçue ; mais dès qu’un cas atypique brouille les corrélations, le verdict vacille, et avec lui la confiance accordée au système

L’expérience compare également le cheminement cognitif. Les évaluateurs humains priorisent l’exactitude, la transparence éditoriale, la politique de corrections ou l’indépendance financière. Les modèles, eux, privilégient la fréquence de certains trigrammes, l’usage de termes anxiogènes ou la présence de mots-clés relatifs à la conspiration. Autrement dit, l’humain applique une grille normative explicite ; le modèle calcule la probabilité qu’un texte ressemble à ceux qui, dans son passé d’entraînement, étaient qualifiés de fiables ou non

Cette dissociation a des conséquences concrètes pour les entreprises qui envisagent d’automatiser la modération ou la recommandation de contenus. Premièrement, un taux d’accord global élevé cache des poches d’erreurs systématiques difficiles à détecter par échantillonnage classique. Deuxièmement, la confusion entre forme linguistique et valeur épistémique risque d’institutionnaliser un biais contre les médias minoritaires ou politiquement marqués. Troisièmement, la confiance naïve envers un score chiffré peut engendrer un cercle vicieux : plus on délègue, plus on conforte l’illusion que le score reflète la vérité alors qu’il mesure la conformité à une esthétique de texte.

Pour limiter ces dérives, plusieurs pistes se dégagent. D’abord, réintroduire des critères prescriptifs dans les invites, en forçant les modèles à produire un raisonnement étape par étape fondé sur des preuves vérifiables (policy-oriented prompting). Ensuite, hybrider l’approche : laisser l’IA filtrer grossièrement, mais exiger une validation humaine dès qu’elle dépasse un seuil de confiance ou qu’elle touche à des domaines sensibles. Enfin, conserver la traçabilité des justificatifs générés pour auditer a posteriori les glissements sémantiques.

Au niveau réglementaire, la standardisation d’indicateurs de transparence et la conservation de journaux d’inférence apparaissent indispensables. Sans cela, il devient impossible de reconstruire la chaîne qui relie un article, une évaluation automatisée et l’éventuelle décision de déréférencement ou de promotion. Les autorités pourraient exiger des plateformes qu’elles publient le pourcentage d’évaluations confirmées, infirmées ou révisées après contrôle humain, créant ainsi un incentive clair contre l’« épistémia ».

Les concepteurs doivent également revoir leurs corpus de fine-tuning : équilibrer les sources, atténuer la co-occurrence entre discours politique et fausseté, injecter explicitement des exemples « contre-corrélés » (un média conservateur fiable, un média progressiste diffusant des intox) pour briser l’association automatique. À cela s’ajoute la nécessité d’un suivi continu : les stratégies de manipulation évoluent, tout comme les modèles par de nouvelles mises à jour ou des raffinements maison.

Cette étude rappelle que la promesse des LLMs n’est pas de remplacer le jugement humain, mais d’en offrir un miroir probabiliste, parfois grossissant, parfois trompeur. Lorsqu’on leur confie des décisions à portée normative, il faut accepter que la machine ne « comprend » pas ; elle extrapole. La vraie prudence consiste donc à coupler l’efficacité calculatoire avec un garde-fou humain, à documenter les contextes et à rendre visibles les critères sous-jacents. C’est à cette condition que l’automatisation pourra élargir l’horizon cognitif sans rétrécir la pensée critique.