Workslop quand l’IA fait perdre du temps

Les promesses de l’IA générative se sont propagées dans les organisations à la vitesse d’une traînée de poudre : produire plus vite, réduire les tâches ingrates, libérer du temps pour la réflexion stratégique. Pourtant, derrière l’euphorie marketing, un phénomène bien plus discret mine la performance : la prolifération de contenus superficiels générés par IA qui ralentissent la chaîne de valeur plutôt qu’elle ne l’accélère. Ce brouillard informationnel, que l’on pourrait appeler « workslop », envahit les boîtes de réception, brouille la prise de décision et dilue le sens du travail.

Le terme désigne tout livrable — note, rapport, email, présentation, bout de code — qui affiche un vernis de professionnalisme mais manque de substance. À première vue, la mise en page est soignée, le ton paraît approprié ; à la seconde lecture, l’argumentation s’effrite, les sources sont absentes, la logique vacille ou l’exemple cité n’existe pas. Ce faux-semblant d’efficacité déporte la charge cognitive sur les collègues : au lieu d’innover, ils passent leur temps à vérifier, réécrire, clarifier.

Les chiffres confirment ce décalage entre engouement et valeur réelle. En un an, la proportion d’organisations ayant automatisé un processus de bout en bout grâce à l’IA a presque doublé, tout comme l’usage quotidien d’outils génératifs par les employés depuis 2023. Malgré cette adoption fulgurante, 95 % des entreprises ne constatent toujours aucun retour mesurable sur leurs investissements technologiques — un paradoxe qui interroge sur la façon dont ces outils sont intégrés au travail quotidien. Harvard Business Review

Le coût humain se révèle tout aussi lourd : lorsqu’un collaborateur reçoit du workslop, il doit en moyenne y consacrer près de deux heures supplémentaires pour démêler les approximations, corriger les erreurs ou parfois repartir de zéro. Traduit en valeur sonnante et trébuchante, cela représente un « impôt invisible » d’environ 186 dollars par mois et par employé, que l’organisation paie en productivité perdue. CIO

Sur le plan psychosocial, cette inflation de tâches parasites crée une « charge cognitive de seconde main ». Le récepteur d’un contenu creux doit mobiliser son expertise pour combler les trous, pendant que l’émetteur, lui, bénéficie d’un gain de temps illusoire. Résultat : la confiance s’effrite, la collaboration s’alourdit et l’entreprise glisse vers une économie de correction plutôt que de création.

Pire encore, le workslop altère la réputation interne de ceux qui y recourent. Des enquêtes récentes montrent que les collègues perçoivent les pourvoyeurs de tels contenus comme moins compétents, moins créatifs et moins fiables. Ce cercle vicieux condamne chacun à redoubler de contrôles, fige les échanges et raréfie la prise d’initiatives. CIO

Pourquoi ce phénomène prospère-t-il ? D’abord parce que l’IA est souvent utilisée comme un substitut de réflexion plutôt que comme un catalyseur. Sous pression de délais serrés, certains copient-collent des sorties de modèle sans vérification sérieuse ; d’autres confient à un grand modèle de langage des tâches qui exigeraient rigueur factuelle ou conformité réglementaire. L’absence de normes de qualité partagées laisse alors le champ libre à des livrables « prêts à envoyer » mais fondamentalement vides.

Ensuite, beaucoup de programmes d’adoption négligent la littératie de l’IA. Le prompt engineering, la détection d’hallucinations ou la critique argumentée d’une réponse restent des compétences rares. Les collaborateurs manquent d’outils pour évaluer la profondeur, la cohérence et l’actionnabilité d’un texte généré. L’illusion de productivité l’emporte sur l’exigence de précision ; l’organisation engrange des pages mais perd en impact.

Pour inverser la tendance, trois leviers s’imposent. Premier levier : instaurer des garde-fous de qualité. Chaque livrable assisté par IA devrait passer un filtre systématique — pertinence par rapport au contexte, exactitude factuelle, valeur ajoutée originale, clarté des prochaines étapes. Sans ces critères, le risque est grand de confondre volume et utilité.

Deuxième levier : former massivement à l’esprit critique face à l’IA. Utiliser un modèle comme un « stagiaire infatigable » requiert de savoir poser la bonne question, mais surtout d’inspecter la réponse, d’en tester les limites, de la compléter avec de la réflexion humaine. Une culture de la relecture croisée, des ateliers d’expérimentation et des retours d’expérience publics renforcent cette compétence collective.

Troisième levier : repenser les flux de travail. Les approbations doivent intégrer un « checkpoint » humain explicitement dédié à la vérification substantielle, pas seulement à la mise en forme. Les corrections récurrentes doivent être remontées pour affiner les modèles ou ajuster les cas d’usage. Autrement dit, traiter l’IA non comme un automate infaillible, mais comme un partenaire perfectible dont on documente et partage les limites.

Au final, la productivité que l’on attend de l’IA n’est pas le fruit d’une automatisation aveugle mais d’une discipline accrue : choisir avec discernement quand déléguer, investir du temps dans la validation, et préserver l’exigence de profondeur intellectuelle. Chasser le workslop, c’est réhabiliter la valeur de la pensée humaine dans un écosystème amplifié par la machine. Cette rigueur n’entrave pas l’innovation ; elle en est la condition sine qua non.