La dépendance cognitive et le coût écologique de l’IA

L’affirmation que l’on entend à longueur de débats – « une IA générative n’est, après tout, qu’un outil » – procède d’un réflexe rassurant : si la technologie se réduit à un marteau moderne, tout dépendrait de la main qui la tient. Or, cette représentation « instrumentale » évacue aussitôt deux questions décisives : de quoi ces systèmes sont-ils matériellement faits ? et comment, en retour, façonnent-ils la société qui les emploie ? L’angle mort n’est pas anodin : c’est là que se nichent les effets systémiques dont nos choix individuels ne suffiront jamais à rendre compte.

Commencer par les conditions de possibilité d’un modèle de langage, c’est dévoiler un monde parallèle, invisible depuis l’interface conversationnelle. Chaque requête mobilise des grappes de GPU nourries par des méga-datacenters, leurs lignes à haute tension, leurs milliers de tonnes de béton, leurs autoroutes de câbles sous-marins. À l’autre bout de la chaîne, des mines de cuivre, de lithium ou de terres rares, des usines d’assemblage, des milliards de dollars de capital-risque, et les micro-tâcherons qui trient, étiquettent, modèrent, parfois pour quelques centimes la paire d’yeux. En parlant d’« outil », on passe d’un coup l’éponge sur ce réseau planétaire de ressources et de travail humain.

Cette matérialité colossale n’est pas seulement un coût environnemental ; elle inscrit l’IA dans une logique d’extractivisme numérique déjà à l’œuvre partout : minerais, énergie, bande passante, attention humaine. Une optimisation technique localisée dans le cloud multiplie les externalités au sol ; le bilan carbone théorique d’une requête, si modeste soit-il, est miné par la courbe exponentielle d’usages que les investisseurs présupposent pour rentabiliser leurs paris. Quand l’« adoption » sert de garantie aux marchés, chaque effort de sobriété apparaît comme un grain de sable dans l’engrenage.

La fable de la neutralité se double d’une occultation des effets de structuration sociale. L’histoire de l’automobile l’illustre : dès qu’asphalte, stations-service, zonage commercial et culture du pavillon se sont déployés, la voiture a cessé d’être un simple moyen de transport parmi d’autres ; elle est devenue la condition même d’une vie « normale ». De la même manière, plus les interfaces conversationnelles s’insinuent dans l’éducation, les RH, la relation client, plus elles redéfinissent le seuil de productivité jugé acceptable – au point que refuser l’outil revient à s’auto-exclure.

L’enseignement supérieur l’expérimente déjà : on forme étudiants et enseignants à « l’art du prompt » pour qu’ils n’arrivent pas « désarmés » sur un marché du travail supposé saturé d’IA. Le « besoin » est ainsi créé par la seule croyance dans son inéluctabilité ; la boucle auto-entretenue rebat la carte des compétences, de l’évaluation et de la temporalité académique. À mesure que la dépendance s’installe, la discussion sur les « bons » ou « mauvais » usages se vide de sa substance : le choix individuel s’efface devant la norme collective.

Ce glissement nourrit une rhétorique « rassuriste » : l’IA serait trop neuve pour qu’on voie ses dangers, mais assez banale pour se passer de régulation forte. Dans le même souffle, les mêmes acteurs brandissent le spectre d’un « risque existentiel », appelant à concentrer le pouvoir de contrôle entre quelques mains expertes. L’apparente contradiction se résout : présenter la technologie comme un marteau domestique tout en la déclarant bombe atomique sert un objectif commun – accélérer son adoption tout en verrouillant la gouvernance.

Les effets cognitifs méritent une attention équivalente. La promesse d’« écrire mieux et plus vite » délègue à l’algorithme le détour essentiel par la formulation de la pensée. Or la rédaction, loin d’être un goulot fastidieux, est le laboratoire intime où l’idée se clarifie, se nuance, s’oblige à la cohérence. Si l’on remplace ce cheminement par un prompt puis un copier-coller orné de corrections superficielles, on atrophie des compétences de synthèse, d’argumentation, de réflexivité que nulle automatisation ne restituera.

S’y ajoute le risque d’addiction, déjà documenté pour les réseaux sociaux et exacerbé par des modèles conçus pour soutenir une conversation illimitée, empathique, toujours disponible. Les compagnons virtuels prolifèrent ; ils capitalisent sur des boucles de récompense affective, tout en collectant des données d’intimité inédites. Fermer le robinet plus tard, quand le verrouillage socio-technique aura doublé d’une dépendance psychologique, sera autrement plus complexe que de définir, aujourd’hui, des garde-fous techniques et légaux.

Face à cette dynamique, s’en remettre à la seule « vigilance des utilisateurs » revient à confondre symptôme et cause. Un cadre de responsabilité proportionné devrait articuler : politique industrielle (sobriété énergétique, fiscalité des datacenters, traçabilité des chaînes d’approvisionnement), droits des travailleurs du clic, protection des contenus soumis aux modèles, droit effectif à une alternative non algorithmique dans les services publics, et mécanismes anti-capture pour empêcher qu’un oligopole détermine seul l’agenda réglementaire.

Mais la régulation ne suffit pas ; il faut aussi réinventer la culture numérique au quotidien. Dans l’école, préserver des espaces d’écriture sans assistance et réhabiliter le temps long de la recherche hors ligne. Dans l’entreprise, reconnaître la valeur qualitative d’une synthèse humaine et refuser que la courbe de productivité soit l’unique boussole. Dans le design logiciel, intégrer des politiques de frugalité par défaut : limitation de la longueur des sessions, transparence énergétique, options de mode dégradé local.

Ces perspectives ne procèdent pas d’un technophobie de principe ; elles s’ancrent dans une éthique du care à l’échelle planétaire : prendre soin des ressources, des corps qui extraient ces ressources, des esprits qui dialoguent avec la machine, des institutions qui garantissent un commun. Refuser la logique du « toujours plus, toujours plus vite » n’implique pas de tourner le dos à l’innovation ; il s’agit de la ramener dans un horizon démocratique où l’on choisit collectivement ce qu’il vaut la peine d’automatiser, et ce qu’il faut absolument continuer à faire ensemble.

Reste alors une question, à la fois stratégique et existentielle : quel monde souhaitons-nous façonner en acceptant – ou en contestant – l’architecture sociale que véhicule l’IA générative ? Croire que la réponse se joue au niveau de chaque « usage » individuel, c’est oublier que le marteau finit toujours par ressembler au bâtiment qu’il sert à construire. Déplacer la discussion vers les infrastructures, les trajectoires et les dépendances, c’est enfin se donner la possibilité de bâtir autrement : une intelligence artificielle certes puissante, mais arrimée à d’autres finalités que la seule optimisation du chiffre et du clic.