Transparence sur l’IA, un pari risqué pour la confiance

L’intelligence artificielle générative s’invite désormais dans toutes les sphères professionnelles, de la rédaction de simples courriels à la création de campagnes publicitaires, en passant par la gestion des ressources humaines, l’analyse financière ou encore la conception artistique. Face à cette pénétration croissante, la question de la transparence sur l’utilisation de l’IA devient brûlante : doit-on avouer que l’on a eu recours à une intelligence artificielle pour produire un contenu, un rapport, ou même pour prendre une décision ? Cette interrogation, en apparence purement éthique ou réglementaire, dissimule en réalité un paradoxe inattendu et une profonde transformation de la dynamique de confiance dans le monde du travail et au sein du marché.

L’instinct moral et les recommandations officielles poussent de plus en plus à la divulgation de l’utilisation de l’IA. Cette transparence est présentée comme un impératif éthique, une preuve de loyauté envers les collaborateurs, les clients, les étudiants ou le grand public. Pourtant, une réalité beaucoup plus nuancée se dessine à mesure que les pratiques évoluent et que les recherches empiriques se multiplient : déclarer l’usage de l’IA, loin de renforcer la confiance, tend à l’éroder, parfois de façon significative et durable. Ce phénomène de « pénalité de la transparence » bouleverse les idées reçues sur le lien entre ouverture et crédibilité, et bouscule les fondements de la légitimité perçue.

À travers une série d’expériences, menées dans des contextes aussi variés que l’université, l’entreprise, le recrutement, l’investissement ou le design, le constat est constant : qu’il s’agisse d’un professeur, d’un manager, d’un créatif ou d’une entreprise, toute personne qui avoue avoir utilisé l’IA pour accomplir une tâche est jugée moins digne de confiance que celle qui garde le silence sur cette assistance technologique. Plus étonnant encore : il ne s’agit pas d’une réaction ponctuelle ou anecdotique, mais d’un effet robuste, transversal à la nature des tâches, au statut du bénéficiaire (étudiant, salarié, client, consommateur) ou au type d’organisation. Les expérimentations montrent également que cette perte de confiance n’est pas atténuée par la manière dont la divulgation est formulée : que l’on précise que l’IA n’a servi qu’à relire, à suggérer des idées, ou que l’on insiste sur la relecture humaine, le doute sur la légitimité du résultat s’installe, et la confiance diminue.

Ce phénomène s’enracine dans la perception de la légitimité. Dans l’imaginaire collectif, l’attente normative reste forte : un travail, une décision, une production doivent être le fruit de l’expertise, du jugement et de la créativité humaine. Dès que la présence d’une IA est révélée, l’adhésion à ces standards s’effrite : le produit ou la décision sont alors perçus comme « moins humains », donc moins dignes de confiance, même si l’IA a objectivement amélioré le processus. La légitimité perçue s’effondre, et la confiance s’évapore, car le recours à l’IA apparaît comme une déviance par rapport aux normes implicites de l’excellence professionnelle. Ce mécanisme n’est pas compensé par une meilleure transparence ; bien au contraire, le simple fait d’attirer l’attention sur l’utilisation de l’IA déclenche un examen plus critique et un scepticisme plus grand.

Un autre aspect marquant de cette dynamique concerne la manière dont l’utilisation de l’IA est révélée : lorsqu’elle est exposée par un tiers – par exemple, via une fuite ou un audit externe –, la sanction en termes de confiance est encore plus lourde que si l’utilisateur avait choisi de se montrer transparent dès le départ. Cela souligne à quel point la maîtrise de sa communication autour de l’IA, la gestion proactive ou défensive de son image, deviennent centrales dans les stratégies individuelles et collectives. On observe ainsi une gradation dans la perte de confiance : le silence protège, la divulgation affaiblit, l’exposition subie ruine la crédibilité.

Ce paradoxe de la transparence s’accompagne d’une forme de dissonance sociale. En effet, si la majorité des individus interrogés estiment que l’usage de l’IA devrait être divulgué, ils hésitent à l’appliquer à eux-mêmes par crainte des jugements négatifs. Cette hypocrisie sociale rappelle le « paradoxe de la vie privée » dans les comportements numériques : on exige des autres qu’ils protègent nos données tout en adoptant soi-même des pratiques risquées. De la même manière, chacun se montre sévère envers l’usage de l’IA par autrui, mais reste discret sur sa propre utilisation de ces outils.

L’analyse approfondie révèle également que la pénalité liée à la divulgation de l’IA est peu atténuée par la familiarité avec la technologie : même ceux qui ont l’habitude de travailler avec l’IA ou qui en sont utilisateurs réguliers gardent une certaine méfiance vis-à-vis des personnes qui annoncent explicitement leur recours à ces solutions. Néanmoins, il existe deux facteurs de modération : une attitude très positive envers la technologie en général et une perception de la fiabilité de l’IA réduisent légèrement l’ampleur de la perte de confiance, sans toutefois l’annuler totalement. Ce sont donc les représentations profondes de la légitimité et du rôle de l’humain qui pèsent le plus lourd dans la balance.

Les implications de ces résultats sont nombreuses et concernent aussi bien les managers, les équipes RH, les communicants que les décideurs publics. Les organisations sont placées devant un choix complexe : doivent-elles rendre la divulgation de l’usage de l’IA obligatoire, au risque de fragiliser la confiance envers leurs collaborateurs, ou la laisser optionnelle, au risque d’être confrontées à des scandales en cas de découverte non consentie ? La réponse n’est pas simple et doit intégrer la réalité psychologique : la transparence n’est pas toujours perçue comme une vertu si l’information révélée remet en cause les fondements de la légitimité. Les politiques internes doivent donc s’accompagner d’une réflexion profonde sur la valorisation de l’IA et la reconfiguration des normes sociales autour du travail humain augmenté.

Le phénomène s’observe également dans la relation client-marque. Lorsqu’une entreprise précise dans sa communication marketing ou dans ses processus qu’elle fait appel à l’IA, la confiance des consommateurs en pâtit : le message est jugé moins authentique, la marque moins impliquée, et le produit moins unique. Les bénéfices économiques de l’IA risquent alors d’être compensés, voire annulés, par un déficit de confiance et d’engagement. Il devient alors essentiel de repenser la façon dont l’IA est intégrée dans la proposition de valeur : faut-il la masquer, l’assumer, ou éduquer le public pour qu’il la perçoive comme un atout ? Rien n’indique aujourd’hui que le simple progrès technologique suffira à faire évoluer spontanément les mentalités : l’effort d’accompagnement du changement est incontournable.

Le cas de l’autonomie de l’IA apporte un autre éclairage. Lorsqu’une tâche est accomplie exclusivement par une intelligence artificielle, la confiance des évaluateurs est plus élevée que lorsqu’un humain dévoile avoir utilisé l’IA en soutien. Cela s’explique par la clarté des rôles : un agent autonome, clairement identifié comme non-humain, suscite une attente spécifique, qui ne brouille pas la perception de légitimité du travail humain. En revanche, la collaboration floue entre l’humain et la machine introduit une ambiguïté : qui est vraiment l’auteur du résultat ? Cette dilution de la responsabilité et de l’expertise humaine alimente la défiance.

Cette étude soulève aussi des perspectives de recherche passionnantes. À mesure que l’IA s’impose et que sa présence se banalise, la question de l’évolution des normes de légitimité devient cruciale. Les jeunes générations, exposées à l’IA dès l’école, pourraient voir se transformer leur rapport à l’authenticité et à la confiance. Il sera également intéressant d’observer si, dans des domaines fortement automatisés, la pénalité de la divulgation s’atténue ou disparaît, ou si de nouvelles formes de « méfiance » se recréent autour d’autres critères. Les chercheurs sont invités à explorer plus finement la diversité des contextes (santé, finance, éducation, industrie créative) et à intégrer d’autres mécanismes psychologiques, tels que la perception de la compétence, de l’intégrité ou de la bienveillance, dans la formation du jugement de confiance.

En définitive, la question de la divulgation de l’IA ne se réduit pas à une simple variable administrative ou à un impératif éthique uniforme. Elle met en jeu la fabrique même de la confiance, qui repose sur la légitimité perçue des pratiques et sur la fidélité à des normes implicites. À l’heure où l’IA continue de transformer en profondeur les méthodes de travail, les attentes sociales et les relations professionnelles, il devient urgent pour les organisations, les leaders et les innovateurs d’adopter une approche lucide et nuancée de la transparence. Intégrer l’IA dans les pratiques ne suffit pas : il faut aussi réinventer la manière de parler de l’IA, de valoriser l’humain augmenté, et de reconstruire la confiance autour d’une nouvelle alliance entre intelligence artificielle et intelligence humaine.

Ce défi est d’autant plus pressant que la dynamique de la confiance, une fois brisée, se répare difficilement. Préserver la crédibilité des individus et des organisations, tout en profitant des gains réels de l’IA, impose de repenser la communication, la culture interne et les politiques de gestion des talents. L’enjeu n’est donc pas seulement technique ou réglementaire : il est profondément humain, au croisement de la psychologie sociale, de l’éthique et de la stratégie d’entreprise.