L’IA dans les collectivités et les territoires

Depuis que les IA génératives se sont invitées dans nos outils de travail, quelque chose a basculé dans les collectivités : non pas un grand soir technologique, mais une diffusion rapide, parfois silencieuse, d’usages concrets. On ne parle plus seulement de “veille” ou de “digitalisation”, mais d’assistants capables d’écrire, résumer, structurer, dialoguer, classer, orienter, et demain d’agir dans des chaînes de traitement. Le plus frappant, quand on regarde ce qui se passe réellement sur le terrain, c’est le contraste entre l’intensité de l’intérêt et la prudence de l’action. Beaucoup testent. Certains structurent. D’autres hésitent… tout en sachant que leurs agents utilisent déjà, souvent hors cadre, des outils accessibles en quelques clics.

Ce mouvement n’est pas homogène. Les grandes structures ont davantage d’effets d’échelle, de compétences internes, d’équipes data, de sécurité, de marchés publics outillés. Les petites et moyennes collectivités, elles, avancent plus lentement, non pas par manque d’envie, mais parce que tout devient arbitrage : budget, temps, priorités, tensions RH, et parfois fatigue organisationnelle. Le risque, dans ce contexte, n’est pas tant de “rater le train” que de le prendre en désordre, avec des initiatives isolées, des achats opportunistes, des pratiques hétérogènes… et une difficulté croissante à reprendre la main ensuite.

Ce qui ressort nettement des retours de directions générales, c’est qu’un déploiement réussi repose moins sur la sophistication des modèles que sur la clarté des finalités. Cinq priorités reviennent de manière récurrente et dessinent une boussole simple : chercher l’efficience (mais pour rendre du temps utile), accompagner l’humain (sans opposer innovation et sens du service public), sécuriser et se mettre en conformité (sans étouffer l’expérimentation), traiter l’éthique et la souveraineté comme des sujets de pilotage (pas comme une annexe juridique), et intégrer la sobriété environnementale dès le départ (pas comme un “plus” en fin de projet). Dit autrement : une IA utile, maîtrisée, soutenable.

L’efficience est le moteur le plus visible, parce que c’est le plus immédiat. Les premiers gains sont souvent très prosaïques : produire des courriers, des comptes rendus, des notes, des délibérations, des conventions, harmoniser une mise en forme, structurer une réponse, accélérer une veille. Ce sont des tâches qui consomment une énergie considérable et dont la valeur, pour l’usager, dépend surtout de la qualité finale et du délai, pas du nombre d’heures passées à “mettre en page”. Là, l’IA apporte un levier tangible : réduire la friction administrative, et réallouer du temps vers l’instruction, l’accompagnement, la présence, la médiation, le pilotage. Mais cette promesse a une condition non négociable : l’agent reste auteur, relit, vérifie, et assume la responsabilité du document. Le gain n’est pas dans la délégation aveugle, il est dans la vitesse de production d’un premier jet propre, puis dans la montée en qualité via une relecture plus intelligente.

L’acculturation, elle, est le vrai sujet derrière le sujet. Un déploiement “par outil” (on donne ChatGPT ou un équivalent, et on espère que ça marche) produit rarement autre chose qu’un mélange d’enthousiasmes individuels et d’inquiétudes collectives. À l’inverse, une acculturation réussie agit sur trois niveaux. D’abord, un socle commun : comprendre ce qu’est une IA générative, ce qu’elle sait faire, ce qu’elle ne sait pas faire, pourquoi elle “hallucine”, comment se fabrique une réponse, comment éviter les erreurs grossières. Ensuite, des compétences pratiques : apprendre à formuler une demande (les fameux prompts), à donner du contexte, à fixer un cadre, à exiger des sources internes, à demander une structure, à contrôler les points sensibles. Enfin, un cadrage managérial : comment intégrer l’IA dans un processus de travail sans fragiliser l’autonomie, sans déresponsabiliser, et sans créer une fracture entre “ceux qui savent” et “ceux qui subissent”.

C’est ici qu’un paradoxe apparaît : plus l’IA devient accessible, plus la responsabilité se diffuse. Dans une organisation classique, la conformité, la sécurité, la qualité documentaire reposaient fortement sur des métiers identifiés (DSI, DPO, juridique, qualité…). Avec l’IA, chaque utilisateur devient potentiellement un point d’entrée du risque. Si un agent copie-colle une donnée sensible dans un outil non maîtrisé, si un service réutilise une production sans vérification, si une réponse à l’usager est générée sans socle documentaire validé, l’organisation prend un risque immédiat. Ce phénomène, souvent décrit comme un usage “non encadré”, n’est pas nécessairement malveillant : il est surtout le produit d’un décalage entre la vitesse des outils et la vitesse des cadres internes. Et ce décalage coûte cher : fuites de données, non-respect du RGPD, contenus erronés, pratiques inégales, perte de maîtrise, et parfois démobilisation, parce que certains agents vivent le sentiment d’être empêchés alors que “tout le monde peut le faire chez soi”.

La sécurité et la conformité, dans ce contexte, deviennent un projet de gouvernance plus qu’un projet technique. La question n’est pas “interdire ou autoriser”, mais construire un cadre robuste et évolutif. Plusieurs briques reviennent dans les démarches les plus solides : une instance de pilotage pluridisciplinaire, un registre des usages et des traitements liés à l’IA (dans l’esprit de ce qui a été fait avec le RGPD), des environnements d’accès sécurisés pour canaliser les expérimentations, un corpus documentaire validé pour les usages en relation à l’usager, et des règles graduées selon le niveau de risque. On n’encadre pas de la même manière un assistant de rédaction interne et un système qui influence une décision sensible (aides sociales, recrutement, priorisation d’interventions, sécurité). La gradation, ici, est la clé : rendre possible, mais proportionner.

L’éthique et la souveraineté ne sont pas des thèmes abstraits, ce sont des sujets opérationnels, surtout pour la puissance publique. Dans beaucoup de territoires, l’usage spontané se tourne vers des outils hébergés hors de l’Union européenne, parce qu’ils sont simples, connus, performants. Mais plus l’IA s’insère dans des processus structurants, plus la question “où vont nos données, qui maîtrise quoi, et à quelles conditions” devient centrale. La souveraineté ne signifie pas forcément “tout faire seul”, mais au minimum savoir ce qu’on confie, à qui, avec quel contrat, quelles clauses, quelles garanties, quels contrôles, et quelles capacités de réversibilité. C’est souvent à ce moment-là que la stratégie data rejoint la stratégie IA : sans gouvernance de la donnée, l’IA n’est qu’un vernis d’interface ; avec une donnée préparée, documentée, orchestrée dans la durée, l’IA devient un levier de pilotage.

Et puis il y a la sobriété, trop souvent traitée comme un sujet secondaire alors qu’elle conditionne l’acceptabilité et la cohérence des politiques locales. Une collectivité qui porte une trajectoire climat et un numérique responsable ne peut pas, sans se contredire, multiplier des usages énergivores sans mesurer leur utilité et leur coût environnemental. La sobriété, ici, n’est pas “anti-innovation” : c’est un principe de sélection. On choisit les cas d’usage qui ont un rapport utilité/impact clair, on privilégie des solutions plus sobres quand elles sont pertinentes, on suit des indicateurs, et on évite l’inflation de gadgets qui consomment beaucoup pour un gain faible. La sobriété devient un levier de fiabilité, de coût, et de résilience.

Quand on descend des principes vers les usages, une cartographie se dessine assez nettement. Aujourd’hui, l’essentiel des démarches se concentre sur les services supports et l’accueil du public. La production et la mise en forme de documents arrivent en tête : c’est simple à tester, les bénéfices sont rapides, les risques sont maîtrisables si on garde la relecture humaine et si on évite d’exposer des données sensibles. Viennent ensuite des usages de relation aux usagers : chatbots, serveurs vocaux interactifs, orientation, réponses aux questions fréquentes, extension de l’amplitude de service. Là encore, les projets qui fonctionnent reposent sur un socle documentaire validé et tenu à jour, et sur une règle claire : dès que la réponse engage la collectivité, un humain reprend la main. L’objectif n’est pas de remplacer l’accueil physique, mais d’absorber les sollicitations simples, d’orienter correctement, d’améliorer les délais, et de libérer du temps pour les situations complexes.

L’automatisation de tâches et de chaînes de traitement progresse, mais reste minoritaire : routage du courrier entrant, mise en page, signatures, éviter les ressaisies, petits scripts d’automatisation. C’est souvent le “deuxième étage” : après la rédaction et le résumé, on commence à connecter l’IA au flux de travail. Et là, la question de la gouvernance devient plus sensible, parce qu’on touche au “comment on fait” et pas seulement au “comment on écrit”. On entre alors dans l’aide à la décision, la gestion d’infrastructures, la maintenance prédictive, la prévision de fréquentation, la priorisation d’entretien du patrimoine. Ces usages ont un potentiel fort, mais ils demandent une donnée propre, partagée entre services, et une clarté des rôles : qui alimente, qui contrôle, qui décide, qui rend compte.

Sur les usages de supervision et de sécurité, on voit aussi des tests : surveillance de bâtiments, détection d’intrusion dans les SI, analyse automatisée de situations via des caméras dans certains cadres. Ce sont des terrains où la légitimité se construit par la proportionnalité, la transparence, l’évaluation d’impact, et le contrôle régulier de l’efficacité réelle. Le danger, ici, n’est pas seulement juridique ; il est aussi politique : une solution perçue comme opaque ou intrusive peut détruire la confiance plus vite qu’elle ne crée de la valeur.

Les RH, enfin, attirent beaucoup d’attention : rédaction d’offres, tri initial de candidatures, modèles de courriers. Le potentiel est réel pour alléger l’administratif, mais c’est un champ miné : biais, discriminations, traçabilité des critères, information des candidats, contrôle humain systématique. La règle d’or : tout ce qui touche à l’équité et aux droits doit être explicable, vérifiable, archivable. L’IA peut assister, mais elle ne doit jamais devenir un écran entre l’organisation et sa responsabilité.

Les freins, eux, sont étonnamment stables d’un territoire à l’autre. Le premier est budgétaire et temporel : dans un contexte de surchauffe des équipes, lancer un programme IA nécessite des arbitrages clairs. Le deuxième est la conformité et la souveraineté : beaucoup de décideurs veulent avancer, mais ne veulent pas s’exposer. Le troisième est humain et organisationnel : la peur du remplacement, l’anxiété face à l’avenir des métiers, la difficulté à coordonner entre services, et la question de “qui pilote”. Le quatrième est la fiabilité : les erreurs, les réponses incertaines, les hallucinations, peuvent provoquer des rejets rapides si on a vendu l’IA comme une solution magique. En réalité, il faut vendre autre chose : un outil puissant, imparfait, qui augmente la capacité humaine… à condition d’être encadré.

C’est précisément pour cela qu’une feuille de route “collectivité” est utile, même simple, même progressive. Elle commence presque toujours par un diagnostic : cartographier les usages déjà présents (officiels et officieux), identifier les besoins métiers, comprendre où sont les irritants, repérer les équipes volontaires, et poser des priorités. Ce diagnostic a un bénéfice immédiat : il ouvre la participation, et il transforme l’IA d’un sujet “descendant” en sujet d’organisation.

Ensuite vient l’acculturation, non pas en mode “formation unique pour tous”, mais par paliers : des bases régulières pour sécuriser et démystifier, des ateliers pratiques pour les équipes prêtes à expérimenter, une valorisation des “early adopters” qui peuvent devenir des relais internes, et des modules spécifiques (prompting, RGPD, cadre européen, sécurité, gestion des biais). Les communautés de pratique jouent ici un rôle décisif : elles permettent d’échanger, de comparer, de diffuser des bonnes pratiques, et d’éviter que l’organisation ne se fracture.

Puis il faut choisir des cas d’usage et construire une stratégie lisible. Là, la clé n’est pas de lister tout ce qu’on pourrait faire, mais de décider ce qu’on veut réussir d’abord. Une stratégie IA crédible se lit comme une série de “problèmes concrets” à résoudre, avec des critères de choix : valeur attendue, risques, données disponibles, simplicité de déploiement, réversibilité, impact sur l’organisation, acceptabilité interne et citoyenne. C’est aussi le moment d’ouvrir la discussion avec les partenaires sociaux et, quand c’est pertinent, avec les citoyens. Parce que l’IA n’est pas qu’un outil : elle modifie le travail, les compétences, la relation, et parfois la manière de décider.

L’expérimentation, ensuite, doit être conçue comme un apprentissage, pas comme une vitrine. Démarrer petit, choisir un pilote, mesurer, partager les retours, ajuster, et seulement ensuite passer à l’échelle. Les organisations qui avancent le mieux adoptent une logique très “terrain” : un outil, un cas d’usage, une équipe motivée, un cadre clair, et des indicateurs simples. On évite l’effet gadget, on évite l’usine à gaz, et surtout on construit une histoire interne : “voilà ce que ça nous a apporté, voilà ce que ça n’a pas fait, voilà ce qu’on a corrigé”.

La mise en œuvre à grande échelle, enfin, exige un alignement que beaucoup sous-estiment : l’infrastructure (accès sécurisé, comptes, logs, environnements), la donnée (qualité, gouvernance, partage), les compétences (formation continue), la communication (ce qui est autorisé, ce qui ne l’est pas, pourquoi), et le suivi d’impact (productivité réaffectée, qualité, satisfaction, erreurs, sobriété). Les collectivités les plus structurées ajoutent un élément très puissant : le pilotage par la valeur, avec un retour sur investissement explicite sur les tests et acquisitions. Là encore, ce n’est pas “faire des économies” au sens étroit, c’est démontrer une valeur publique : meilleur service, meilleur travail, meilleur pilotage.

Cette logique de pilotage ne peut pas ignorer les points de vigilance majeurs. Le premier, on l’a dit, est l’usage non encadré : c’est souvent là que les problèmes surgissent, et c’est souvent là aussi que se cache un levier d’attractivité RH. Les jeunes générations arrivent avec des usages massifs de l’IA ; si l’organisation interdit sans proposer d’alternative sécurisée et utile, elle se met en difficulté. À l’inverse, offrir un cadre clair, des outils maîtrisés, et une montée en compétence, peut devenir un facteur de fidélisation.

Le deuxième point de vigilance, ce sont les biais. Ils ne sont pas seulement dans les modèles : ils sont dans les données, dans les critères implicites, dans les habitudes, et dans l’usage. L’IA peut amplifier un biais de recrutement, renforcer un biais de confirmation, créer un effet de halo (“si l’IA le dit, c’est vrai”), ou provoquer un biais d’automatisation (on suit la recommandation sans réfléchir). Le remède n’est pas un slogan éthique, c’est un ensemble de pratiques : audit, test, diversification des cas, exigence d’explicabilité, archivage des critères, et surtout supervision humaine sur tout ce qui peut produire une discrimination.

Le troisième point, c’est la cohérence environnementale. Mesurer, comparer, choisir, et se demander à chaque fois : “est-ce que ça vaut l’impact ?”. Le quatrième, c’est l’acceptabilité citoyenne. La confiance dans l’IA n’est pas acquise, et elle est même fragile. Or, dans le service public local, la confiance est la matière première. Elle se construit par la transparence (dire quand on utilise l’IA, dans quel cadre, avec quelles garanties), par la traçabilité (documenter les traitements, les jeux de données quand c’est pertinent, la supervision), et par l’association des habitants (débats, ateliers, formats de type “cafés IA”). Les citoyens ne demandent pas l’arrêt de l’innovation ; ils demandent que l’acteur public reste protecteur, explicable, et responsable.

Tout cela amène naturellement aux facteurs de réussite. Le premier, c’est le leadership : sans portage politique ou managérial, les initiatives restent marginales et inégales. Le second, c’est une gouvernance claire : un comité de pilotage, un référent, une implication des métiers, une articulation avec la DSI, la protection des données, la RH, le juridique. Le troisième, c’est un cadrage opposable : charte d’usage, registre des traitements, règles de sécurité, principes de sobriété et de souveraineté, et parfois un comité d’éthique quand les impacts sont sensibles. Le quatrième, c’est la mutualisation : partager des retours, des outils, des méthodes, monter des démarches de territoire avec l’EPCI, des syndicats, ou des partenaires publics. La mutualisation réduit les coûts, accélère l’apprentissage, et évite de réinventer la roue. Le cinquième, c’est le pragmatisme : des besoins concrets, des indicateurs, des ajustements, et la capacité à dire non aux effets de mode.

Reste la question qui traverse toutes les autres : l’impact sur les métiers et sur la direction générale elle-même. L’IA ne transforme pas tout de la même manière. Les fonctions administratives, les tâches répétitives et cognitives, sont plus exposées à l’automatisation partielle. Les métiers de terrain, relationnels, contextuels, résistent davantage. Mais l’enjeu n’est pas de classer les métiers en “menacés” et “protégés”. L’enjeu est d’accompagner des transformations de contenu du travail : quelles tâches disparaissent, lesquelles apparaissent, quelles compétences deviennent critiques (écriture, esprit critique, vérification, compréhension des données, maîtrise de la chaîne documentaire), et comment éviter un appauvrissement des compétences par délégation excessive. Un risque bien réel, dans les organisations, est le “nivellement par le bas” : si l’on n’écrit plus, si l’on ne structure plus soi-même, si l’on ne lit plus en profondeur, on perd la capacité à juger. Or le service public local repose sur des jugements : arbitrer, contextualiser, expliquer, rendre compte.

Pour la direction générale, l’IA ajoute une couche de complexité… mais aussi une opportunité de mieux piloter. Elle impose de tenir une ligne de crête : saisir des gains de performance sans céder au solutionnisme, soutenir l’innovation sans perdre la maîtrise, équiper les équipes sans déresponsabiliser, construire la conformité sans brider l’initiative. Elle oblige aussi à revoir des rapports de pouvoir internes : qui détient la compétence, qui contrôle la donnée, qui définit la règle, qui valide les usages. Et elle place la DG dans un rôle central de coordination : faire travailler ensemble élus, DSI, métiers, RH, DPO, partenaires sociaux, et parfois citoyens, dans une démarche qui touche à l’organisation du travail autant qu’à la technologie.

Concrètement, les collectivités qui avancent le plus vite ne sont pas toujours celles qui ont “le meilleur outil”. Ce sont celles qui ont posé un cap, installé un cadre, choisi quelques cas d’usage utiles, mis en place des environnements sécurisés, organisé la montée en compétence, et documenté ce qu’elles font. Elles ont compris une chose simple : l’IA n’est pas une destination, c’est un système de capacités. Et comme tout système de capacités, il se gouverne.

Si l’on devait résumer ce que les mois qui viennent exigent des territoires, ce serait ceci : officialiser ce qui existe déjà, sécuriser sans geler, prioriser sans se disperser, mutualiser pour ne pas subir, et bâtir une confiance démontrable. Dans les collectivités, la question n’est plus “faut-il y aller ?” mais “comment y aller proprement, utilement, et durablement ?”. C’est là que se joue la différence entre un usage opportuniste et une stratégie publique. Et c’est là que l’IA peut devenir ce qu’elle doit être : un appui au service de l’intérêt général, pas un raccourci qui fragilise le service public.

Leave a Reply