Vers une IA sobre et responsable
Le virage vers une intelligence artificielle plus sobre n’est plus un simple voeu pieux : c’est devenu un impératif stratégique pour les organisations publiques comme privées, tant la pression réglementaire que les attentes sociétales s’intensifient. Depuis l’accélération fulgurante de l’IA en 2022, les modèles géants dominent les usages, mais ils s’appuient sur des infrastructures toujours plus puissantes et gourmandes en refroidissement ; cette course à la performance a démultiplié les impacts environnementaux et mis en lumière l’urgence d’approches plus frugale.
Les centres de données concentrent déjà près de la moitié des émissions de gaz à effet de serre attribuées au numérique ; en 2022, ils pesaient 46 % du total et la trajectoire actuelle laisse craindre une multiplication de ce fardeau . À cette alarme carbone s’ajoute un risque électrique : la demande mondiale des data centers pourrait doubler d’ici 2030, atteignant l’équivalent de la consommation actuelle du Japon. Et parce qu’ils engloutissent aussi l’eau nécessaire au refroidissement, un seul site consomme chaque année l’équivalent de 2 500 piscines olympiques. Enfin, la tension sur des métaux stratégiques comme le cuivre s’accroît, avec des risques de rupture d’approvisionnement et de volatilité des prix .
Face à ces externalités, l’éco-conception devient le prisme incontournable de tout projet IA. Avant même de coder la moindre ligne, chaque équipe est invitée à se demander : l’IA est-elle réellement nécessaire ? Quel scénario d’usage, quelles limites ? Quelles alternatives non-IA existent ? La valeur ajoutée mérite-t-elle vraiment le coût environnemental et social ? Et surtout, quels effets rebond pourrait annihiler les gains visés ?
Lorsque l’on conclut que l’IA est justifiée, plusieurs garde-fous s’imposent. Le type et la taille du modèle doivent correspondre au niveau de précision attendu ; inutile de mobiliser un LLM de cent milliards de paramètres quand un modèle plus compact produit déjà des résultats suffisants. Il s’agit aussi d’ajuster le volume de données, de limiter le nombre d’entraînements et de privilégier un hébergement optimisé . Dans cette logique, les pratiques de pruning ou de quantization qui allègent les réseaux sans sacrifier la performance métier deviennent des leviers majeurs, tout comme la réutilisation de modèles pré-entraînés .
La transparence est un autre pilier. Les fournisseurs les plus matures publient déjà des déclarations d’éco-conception inspirées du RGESN, assorties d’une note sur 100 qui reflète leur niveau d’exigence . Ils mesurent la consommation énergétique et les émissions de CO₂ de chaque entraînement via des outils ouverts tels que Green Algorithms, CodeCarbon ou Ecologits, et informent l’utilisateur de l’impact d’une inférence unique, d’une heure de service ou d’un parcours complet. Une telle granularité permet aux équipes métier de piloter les coûts climatiques avec la même rigueur que les coûts financiers.
Limiter la fréquence de réentraînement constitue également un gisement de sobriété. Les cahiers des charges les plus avancés exigent du titulaire qu’il documente la cadence, justifie chaque itération, chiffre sa consommation et s’engage à n’opérer que les mises à jour strictement nécessaires . Corrélativement, la clause d’adaptation de la complexité impose de ne pas alourdir les modèles sans concertation, et de laisser le client choisir de rester sur une version plus légère si elle suffit à ses besoins.
La gestion des données forme le troisième volet. Définir un cycle de vie clair, distinguer stockages « chaud » et « froid », fixer des durées de rétention minimale et supprimer les données obsolètes permet de réduire fortement l’empreinte matière et énergétique, tout en restant conforme au RGPD . Dans la même veine, la localisation des centres de données doit être rendue publique ; elle conditionne l’intensité carbone de l’électricité, l’usage de l’eau et le régime juridique applicable aux informations sensibles.
Mais la responsabilité ne se limite pas à l’environnement ; l’IA embarque une dimension sociétale cruciale. Protection des données, portabilité, souveraineté, mais aussi risques de biais, transformation des métiers, travail invisible des data-workers : autant de questions qui appellent vigilance et dialogue avec les parties prenantes. Les clauses sociales exigent désormais l’explicabilité, la non-discrimination et l’évaluation des impacts RH tout au long de la chaîne de valeur.
Pour l’acheteur, tout commence par un sourçage solide. Identifier développeurs, intégrateurs et hébergeurs, poser des questions uniformes sur leurs pratiques d’écoconception, leur démarche inclusion, leurs plans de vigilance, évite les angles morts et calibre des exigences réalistes . Vient ensuite la traduction contractuelle. Dans les CCAP, on exige la formation des équipes au numérique responsable et la publication d’indicateurs liés aux émissions, à l’eau ou au PUE/WUE/CUE . Les CCTP fixent la règle du jeu : mesurer les impacts, maîtriser le nombre d’entraînements, gérer les données, refuser toute complexité injustifiée. Le Règlement de consultation, lui, consacre un critère environnemental d’au moins 10 % et un critère social équivalent, suffisamment pondérés pour influencer réellement le choix de l’offre .
Les hébergeurs sont enfin mis à contribution : ils doivent publier leurs indicateurs d’efficacité, proposer des créneaux de calcul à faible intensité carbone et fournir des outils permettant aux équipes de concevoir et de piloter des IA plus responsables. Cette transparence élargie évite les transferts d’impact et encourage l’usage d’espaces sous-utilisés ou de périodes creuses pour les entraînements gourmands.
En croisant ces leviers questionnement préalable, frugalité des modèles, métriques publiques, clauses contractuelles, gouvernance sociale et choix d’infrastructures responsables — les organisations bâtissent une IA réellement durable : performante là où elle est nécessaire, sobre partout où elle le peut. Le résultat n’est pas seulement un gain écologique ; c’est aussi une meilleure maîtrise des coûts, une conformité réglementaire renforcée et une confiance accrue des usagers. L’IA de demain ne sera pas seulement plus puissante ; elle devra surtout être plus pertinente, plus transparente et plus humaine.
