IA : responsabilité numérique et guerre des talents

Lors de la Rencontre Annuelle de l’Institut G9+ le 18 mars 2024, Ana SEMEDO, vice-présidente de Mines digital, a ouvert l’événement par une introduction captivante. Elle a souligné l’importance de l’impact de l’Intelligence Artificielle (IA) sur notre travail, nos valeurs éthiques, et la manière dont les entreprises et les individus peuvent naviguer dans un paysage technologique en constante évolution. Elle a amené des questions cruciales sur la responsabilité numérique et la façon dont les entreprises peuvent attirer et retenir les talents en IA.

Ana Semedo a également présenté le thème de la soirée « Intelligence Artificielle, responsabilité numérique, guerre des talents : équation insoluble ? Ou trio gagnant ? », mettant en exergue l’objectif d’explorer si ces défis représentent une équation impossible ou si, au contraire, ils peuvent conduire à une synergie stimulant l’innovation et favorisant une croissance durable.

Laurence Devillers, Professeure d’IA à la Sorbonne, a ensuite pris la parole pour le keynote introductif. Elle a entrepris de démystifier l’IA, en particulier l’IA prédictive et générative, et a abordé des questions de responsabilité numérique. Elle a expliqué comment les systèmes d’IA générative, comme ChatGPT, apprennent et produisent de nouvelles données, insistant sur le fait que ces systèmes, bien qu’impressionnants, ne possèdent pas de compréhension du monde comparable à celle des humains. Elle a souligné la nécessité d’une approche éducative pour mieux comprendre ces technologies et a mis en garde contre les risques potentiels, y compris la manipulation de l’information et les hallucinations génératives. Laurence a également discuté des défis posés par la domination de l’anglais dans les données d’entraînement et a appelé à une plus grande transparence et à des normes éthiques dans le développement de l’IA.

Ensemble, ces présentations ont posé les bases d’une soirée de réflexion profonde sur l’avenir de l’IA, sa gestion éthique, et son intégration dans le tissu social et économique. Les discussions ont clairement montré que l’objectif n’était pas seulement de débattre des défis actuels, mais aussi de réfléchir collectivement à la manière dont ces technologies pourraient être utilisées de manière responsable et bénéfique pour la société.

Introduction par Ana Semedo, vice-présidente de Mines digital

Surprise par l’IA

Ana Semedo a exprimé comment l’accélération de l’intelligence artificielle (IA) a pris de court beaucoup de personnes et d’organisations, entraînant une sorte de tourbillon inattendu. Cette accélération a soulevé de nombreuses questions sur l’impact de l’IA sur les individus (« moi et mes talents »), l’environnement, et la société dans son ensemble. Cette réflexion met en lumière la rapidité avec laquelle l’IA est devenue une partie intégrante de notre quotidien et des défis qu’elle pose en termes d’adaptation et de compréhension de ses implications à long terme.

IA Écologique

Ana Semedo a mis en avant l’importance de considérer l’IA sous un angle écologique, à la fois pour les humains et pour la planète. Elle a évoqué les initiatives de l’Institut G9+ dans l’organisation d’une série de conférences et de travaux centrés sur l’IA écologique. Par exemple, la semaine précédant la rencontre, l’Institut G9+ a présenté une étude réalisée auprès de 45 acteurs économiques sur l’impact de l’IA sur leurs trajectoires écologiques, soulignant la démarche de réflexion sur la durabilité et la responsabilité environnementale dans le développement et l’application de l’IA.

Vision de l’Intelligence Artificielle

Dans son intervention, Ana Semedo a partagé sa vision de l’IA, où elle voit à la fois l’intelligence artificielle et l’intelligence augmentée, et comment ces deux aspects de l’IA s’entrelacent dans nos vies. Elle propose une perspective où l’IA n’est pas seulement un outil ou une menace, mais un partenaire potentiel dans le développement humain, pourvu que nous approchions son intégration avec prudence et intention.

Invitation à l’Exploration

Ana Semedo a encouragé l’audience à prendre l’IA “à contre-pied” et à explorer l’inconnu, en référence au lancement par l’École des Mines du “Bauhaus de la transition”. Ce mouvement vise à travailler sur l’inconnu en combinant recherche, formation, et action, inspiré par le mouvement Bauhaus qui a transformé l’architecture et l’esthétique. Ana propose d’adopter une approche similaire envers l’IA et les technologies numériques, en s’engageant dans un mouvement d’exploration et de transformation qui pourrait s’avérer particulièrement propice à notre époque. Cette démarche appelle à un changement de paradigme dans notre façon de penser et d’interagir avec l’IA, en favorisant l’innovation et la créativité.

Keynote “Contexte et enjeux” par Laurence Devillers – Professeure d’IA à la Sorbonne

L’intervention de Laurence Devillers, Professeure d’IA à la Sorbonne, a abordé de nombreux aspects fondamentaux et critiques de l’intelligence artificielle.

Introduction à l’IA prédictive et générative

Laurence Devillers a commencé par différencier ces deux formes d’IA, marquant l’importance de leur compréhension dans le contexte actuel.

L’IA prédictive, souvent utilisée dans l’analyse de données, se base sur l’apprentissage automatique pour prédire des résultats futurs à partir de données historiques. Cette forme d’IA est largement répandue dans les secteurs financiers, de la santé et de la vente au détail, où elle aide à prendre des décisions plus éclairées en anticipant les tendances et comportements futurs.

D’autre part, l’IA générative, une avancée relativement récente, repousse les limites de ce que l’IA peut créer. Elle ne se contente pas de prédire, mais génère de nouveaux contenus – qu’il s’agisse de texte, d’images, de musique ou même de code – qui n’ont jamais existé auparavant. Les systèmes comme GPT (Generative Pre-trained Transformer) et d’autres modèles de deep learning transforment radicalement des domaines créatifs, en offrant la possibilité de créer des œuvres d’art, des écrits et des solutions innovantes à des problèmes complexes.

Histoire de l’IA

Elle a parcouru l’histoire de l’IA depuis ses origines jusqu’à nos jours, depuis les premières conceptualisations de machines pensantes dans les années 1950 jusqu’à l’explosion actuelle des applications d’IA dans presque tous les secteurs de la société. Elle a évoqué des moments clés comme la conférence de Dartmouth en 1956, souvent considérée comme la naissance officielle de l’IA en tant que domaine de recherche académique, jusqu’aux réalisations récentes dans le développement de systèmes d’IA avancés capables d’apprentissage profond et de traitement du langage naturel. Cette rétrospective a mis en évidence les progrès techniques significatifs réalisés au fil des décennies, tout en reconnaissant les défis persistants, notamment en termes d’éthique, de sécurité et de gouvernance.

Développement des systèmes experts

Enfin, elle a discuté de l’évolution des systèmes experts, des outils d’IA conçus pour émuler la prise de décision d’un expert humain dans un domaine spécifique, vers les technologies modernes d’apprentissage automatique et de deep learning. Les systèmes experts, populaires dans les années 1970 et 1980, ont été parmi les premières applications concrètes de l’IA, offrant des conseils basés sur une base de connaissances codifiée. Cependant, avec l’avènement de l’apprentissage automatique et, plus récemment, du deep learning, l’IA a gagné en flexibilité et en capacité d’adaptation, apprenant directement à partir des données sans nécessiter une programmation explicite par des humains. Cette transition marque un tournant dans le développement de l’IA, où les systèmes ne se contentent plus de suivre des règles prédéfinies mais apprennent et évoluent en fonction de nouveaux ensembles de données.

Le neurone formel

Laurence Devillers a mis en lumière l’importance du neurone formel, un concept fondamental dans le champ de l’apprentissage automatique et du deep learning. Le neurone formel est une abstraction mathématique du neurone biologique, simplifiant sa complexité pour permettre des calculs informatiques. Dans le contexte de l’IA, un neurone formel prend plusieurs entrées, chacune pondérée par un certain poids, et produit une sortie en fonction de la somme pondérée de ces entrées. Cette sortie est ensuite passée à travers une fonction d’activation, qui décide si le neurone s’active ou non. Cette simplification du neurone biologique permet de construire des réseaux de neurones artificiels capables d’apprendre à partir de données. Laurence souligne que, malgré cette simplification, les modèles de neurones formels sont à la base des avancées spectaculaires en IA, illustrant le contraste entre la simplicité de ces modèles et la complexité du cerveau humain.

Rôle des Transformers

Dans son intervention, Laurence Devillers a abordé les Transformers, une architecture de modèle qui a révolutionné le traitement du langage naturel (TAL) et l’IA générative. Les Transformers utilisent un mécanisme d’attention qui permet au modèle de pondérer l’importance relative de différentes parties d’une entrée lors de la production d’une sortie. Cette capacité à gérer les relations à longue distance dans le texte leur permet de surpasser les architectures précédentes sur de nombreuses tâches de TAL, allant de la traduction automatique à la génération de texte. Les Transformers sont la base de modèles tels que GPT (Generative Pre-trained Transformer) et BERT (Bidirectional Encoder Representations from Transformers), qui peuvent comprendre et générer du langage avec une efficacité remarquable. Laurence a souligné que l’introduction des Transformers marque un tournant dans le développement de l’IA générative, ouvrant la voie à une grande variété d’applications innovantes.

La tokenisation dans l’IA générative

Laurence Devillers a également expliqué l’importance de la tokenisation dans les processus de l’IA générative, en particulier dans le traitement du langage naturel. La tokenisation est le processus de découpage d’un texte en morceaux plus petits, appelés tokens, qui peuvent être des mots, des phrases, ou d’autres unités significatives. Ces tokens servent ensuite d’entrées pour les modèles de TAL, comme les Transformers. La tokenisation est cruciale car elle transforme le texte brut en une forme que les algorithmes peuvent traiter, permettant ainsi l’apprentissage à partir de données textuelles. En segmentant le texte en tokens, les modèles d’IA générative peuvent mieux comprendre la structure et le sens du langage, ce qui est essentiel pour générer du texte cohérent et contextuellement pertinent. Laurence a souligné que la tokenisation est une étape fondamentale dans le traitement du langage par l’IA, facilitant la manipulation et l’analyse du langage naturel par les modèles génératifs.

Les limites des modèles linguistiques

Elle a ensuite mis en lumière les défis inhérents aux modèles linguistiques actuels, en particulier en ce qui concerne leur capacité à représenter et à comprendre le monde réel. Bien que des progrès significatifs aient été réalisés dans le domaine du traitement automatique du langage naturel (TALN) grâce à des architectures comme les Transformers, ces modèles possèdent des limites intrinsèques dues à leur nature essentiellement statistique et à leur dépendance aux données d’entraînement. Laurence a souligné que, bien que ces systèmes puissent générer et interpréter le langage avec une efficacité remarquable, leur compréhension du monde reste superficielle. Ils manquent de la capacité à saisir pleinement les nuances, les contextes culturels, et les complexités inhérentes à la communication humaine. Cette limitation soulève des questions sur l’application et la fiabilité de l’IA dans des scénarios nécessitant une compréhension profonde et nuancée du langage et du monde.

Hyper-paramètres et comportement des modèles

Dans son analyse, Laurence Devillers a également abordé l’importance des hyper-paramètres dans le fonctionnement des modèles génératifs, comme les réseaux de neurones profonds utilisés dans l’IA générative. Elle a expliqué que des paramètres tels que la “température” jouent un rôle crucial dans la détermination du comportement de ces modèles. Par exemple, la température dans un modèle de génération de texte affecte sa propension à prendre des risques dans ses choix lexicaux, influençant ainsi la créativité et la variabilité du texte généré. Un paramètre de température élevé peut encourager le modèle à explorer des options moins probables, conduisant à des sorties plus diversifiées mais potentiellement moins cohérentes. À l’inverse, une température basse favorise la prudence, avec des choix plus prévisibles et souvent plus cohérents. Cette discussion met en relief la complexité de l’ajustement des modèles d’IA générative et l’importance de ces paramètres dans la personnalisation des résultats générés.

Anthropomorphisme et IA

Laurence nous a mis en garde contre les dangers de l’anthropomorphisme dans la perception et l’interprétation des capacités des systèmes d’IA. L’anthropomorphisme, le fait d’attribuer des caractéristiques humaines à des entités non-humaines, peut conduire à des malentendus fondamentaux sur la nature de l’intelligence artificielle. Les systèmes d’IA, malgré leur capacité à exécuter des tâches qui semblent requérir une compréhension ou une cognition, ne possèdent pas de conscience, d’intentions ou d’émotions. Laurence a souligné que l’anthropomorphisme peut brouiller la distinction entre les performances algorithmiques et la véritable intelligence cognitive, ce qui peut conduire à des attentes irréalistes et à des évaluations erronées de la technologie. Cette perspective invite à une approche plus nuancée et critique de l’évaluation des systèmes d’IA, en reconnaissant leurs capacités sans surestimer leur niveau d’autonomie ou d’intentionnalité.

Éthique et IA générative

L’IA générative, capable de créer du contenu indiscernable de celui produit par les humains, pose des questions éthiques profondes. La manipulation potentielle, où le contenu généré peut être utilisé pour tromper ou désinformer, nécessite un cadre de responsabilité clair. Qui est responsable lorsque l’IA crée du contenu préjudiciable ou inexact ? Est-ce le créateur du modèle, l’utilisateur final, ou les deux ? La réponse à ces questions nécessite une réflexion éthique approfondie et la mise en place de normes éthiques et de régulations pour encadrer l’utilisation de ces technologies.

Réactions sociétales à l’IA

L’avancement rapide de l’IA a suscité un éventail de réactions allant de l’enthousiasme à la méfiance. Certains appellent à un moratoire sur le développement de certaines formes d’IA, comme les systèmes d’armes autonomes ou les modèles génératifs avancés, jusqu’à ce que des cadres éthiques et de gouvernance adéquats soient en place. D’autres, cependant, voient dans ces avancées des opportunités de progrès et de résolution de problèmes à grande échelle. Cette diversité de réactions souligne l’importance d’un dialogue ouvert et inclusif sur l’avenir de l’IA dans notre société.

Transparence et explicabilité de l’IA

La transparence et l’explicabilité des modèles d’IA sont cruciales pour la confiance et la compréhension publique. Lorsque les utilisateurs et les parties prenantes comprennent comment les décisions sont prises par les systèmes d’IA, cela renforce la confiance dans ces technologies. Cela est particulièrement important dans des domaines critiques comme la santé, la justice et la finance, où les décisions prises par l’IA peuvent avoir des conséquences significatives sur la vie des individus. Des efforts sont donc nécessaires pour améliorer l’explicabilité des modèles d’IA, y compris le développement de techniques d’IA plus interprétables et la mise en place de normes de transparence.

L’importance de l’éducation sur l’IA

Contextualisation : dans un monde où l’intelligence artificielle joue un rôle de plus en plus central dans divers aspects de la vie quotidienne et du secteur professionnel, la compréhension de ses mécanismes, de ses potentialités et de ses risques devient primordiale pour tous.

  • Sensibilisation du Public : la sensibilisation et l’éducation du grand public sur l’IA sont essentielles pour démystifier cette technologie. Cela inclut la compréhension de ce qu’est l’IA, comment elle fonctionne, et dans quels domaines elle est appliquée. Une population informée est mieux équipée pour naviguer dans les implications de l’IA dans leur vie personnelle et professionnelle, et plus apte à participer à des discussions informées sur la régulation et l’éthique de l’IA.
  • Formation des Décideurs : les décideurs, incluant les politiciens, les chefs d’entreprise, et les leaders d’opinion, doivent également être éduqués sur l’IA pour prendre des décisions éclairées concernant son développement et son utilisation. Cela comprend la compréhension des avantages de l’IA pour la société et l’économie, ainsi que des défis éthiques, de sécurité, et de vie privée qu’elle soulève.
  • Curricula Éducatifs : l’intégration de l’IA dans les curricula éducatifs, des écoles primaires aux universités, est une étape cruciale pour préparer les générations futures à vivre et travailler dans un monde où l’IA sera omniprésente. Cela va au-delà de l’apprentissage du codage pour inclure une compréhension de l’impact sociétal de l’IA et des compétences nécessaires pour interagir avec elle de manière critique et créative.
  • Éducation Continue : dans un domaine qui évolue rapidement comme l’IA, la formation continue est nécessaire pour que les professionnels restent à jour avec les dernières avancées, applications, et meilleures pratiques. Des programmes, des ateliers, et des cours en ligne peuvent aider à combler le fossé entre la recherche en IA et son application dans l’industrie et la société.
  • Dialogue Interdisciplinaire : enfin, l’éducation sur l’IA devrait favoriser un dialogue interdisciplinaire entre les technologues, les éthiciens, les juristes, et d’autres experts pour explorer de manière holistique les implications de l’IA. Cela encourage une approche équilibrée qui tient compte à la fois des innovations technologiques et des valeurs humaines.

IA futuriste et cognition humaine

La vision de Laurence Devillers sur l’avenir de l’IA suggère un développement vers des modèles capables d’apprendre et d’agir de manière plus nuancée et contextuelle, similaire à la cognition humaine. L’apprentissage corporel, ou embodiment, implique que l’IA pourrait bénéficier d’une forme de “corps” virtuel ou robotique, lui permettant d’interagir avec l’environnement physique et d’apprendre de cette interaction. Cette approche pourrait améliorer la compréhension contextuelle de l’IA, lui permettant de mieux saisir les subtilités du monde réel qui sont souvent difficiles à capturer par de simples données textuelles ou numériques.

IA générative : potentiel et limites

Quant au potentiel et aux limites de l’IA générative, Laurence Devillers reconnaît la puissance transformative de cette technologie, capable de créer du contenu nouveau et innovant, de la rédaction de textes à la génération d’images et au-delà. Toutefois, elle met en garde contre les limitations inhérentes à ces systèmes. Bien qu’ils puissent imiter la créativité, les modèles génératifs reposent sur les données sur lesquelles ils ont été formés et peuvent manquer d’originalité véritable ou reproduire des biais existants dans ces données. La distinction entre la capacité à générer du contenu qui semble nouveau et l’acte de création authentique reste un défi central pour l’IA générative.

Dépendance culturelle et linguistique

Dans le contexte de l’IA, la prédominance de la langue anglaise dans les jeux de données d’entraînement a été un sujet de préoccupation croissant, soulevant des questions sur l’inclusion et la diversité culturelle. Cette dépendance peut mener à des biais dans les modèles d’IA, limitant leur applicabilité et leur pertinence dans des contextes non anglophones (exemple la Chine). Une telle situation souligne la nécessité d’élargir la diversité des données d’entraînement pour inclure une gamme plus large de langues et de contextes culturels, assurant ainsi que les avantages de l’IA soient accessibles et bénéfiques à une audience globale plus diversifiée.

Appel à une IA frugale

La question de la durabilité environnementale des grands modèles d’IA a également émergé comme un défi crucial. Les processus d’entraînement intensifs en ressources pour les modèles d’apprentissage profond nécessitent une quantité significative d’énergie, soulevant des préoccupations en termes d’empreinte carbone. L’appel à une IA “frugale” vise à développer des approches plus efficaces et moins énergivores, en optimisant les algorithmes et en explorant des techniques qui réduisent la puissance de calcul nécessaire sans compromettre la performance. Cela comprend la recherche sur des modèles plus petits, plus efficaces et des pratiques d’entraînement plus durables.

Impact sociétal de l’IA

L’impact de l’IA sur la société est profond et multidimensionnel, affectant tout, de l’emploi à la vie privée, en passant par la sécurité et l’éthique. Alors que l’IA offre d’énormes potentiels pour l’innovation et l’amélioration de la qualité de vie, elle présente également des risques qui doivent être soigneusement gérés. Cela nécessite une réflexion éthique approfondie, une régulation attentive et une participation active de toutes les parties prenantes pour s’assurer que le développement et l’application de l’IA se fassent d’une manière qui respecte les valeurs humaines et promeut le bien commun.

Loi sur l’IA et ambitions françaises

En France, comme dans de nombreux autres pays, la réglementation de l’IA est devenue un sujet de discussion important. La mention de l’AI Act et des ambitions nationales pour l’IA reflète une volonté de placer la France, et plus largement l’Europe, à l’avant-garde de l’innovation responsable en IA. Cela comprend la mise en place de cadres réglementaires qui encouragent le développement d’une IA éthique, transparente et sécurisée, tout en soutenant la recherche et l’innovation dans le domaine. Les efforts réglementaires visent à équilibrer les avantages de l’IA avec la nécessité de protéger les citoyens et de préserver les valeurs démocratiques.

Vers une IA éthique et responsable

Laurence Devillers a insisté sur la nécessité d’adopter une approche éthique et responsable dans le développement et l’utilisation de l’IA. Elle a souligné l’importance de l’éthique dans la conception des systèmes d’IA, pour s’assurer qu’ils soient utilisés de manière à respecter les droits humains et à promouvoir le bien-être social. Cela implique une collaboration étroite entre chercheurs, développeurs, législateurs, et la société civile pour créer un cadre réglementaire et des normes éthiques qui guident l’utilisation de l’IA dans le respect des principes fondamentaux de justice, d’équité, et de respect de la vie privée.

Table Ronde n°1 “IA et guerre des talents : Besoins, risques et opportunités”

La table ronde n°1 de la Rencontre Annuelle de l’Institut G9+, intitulée “IA et guerre des talents : Besoins, risques et opportunités”, a été un moment clé pour explorer les défis et opportunités que présente l’intégration de l’intelligence artificielle (IA) dans nos sociétés et industries. Animée par Luc BRETONES, président d’honneur de l’Institut G9+ , cette session a rassemblé des voix influentes dans le domaine de l’IA et de la gestion des talents, notamment Axel Cypel, ingénieur, conférencier et auteur ; Cristel Guillain, Head of Transformation & Talent au Groupe BPCE ; Laura Létourneau, Conseillère experte auprès du Premier Ministre ; Henri Pidault, DSI Groupe SNCF et auteur ; et Véronique TORNER, Présidente du syndicat professionnel numeum.

Convergence entre IA et Talents

L’interaction entre l’IA et les talents humains a été mise en avant comme un élément crucial pour l’avenir professionnel et sociétal. L’IA, avec son potentiel de transformation et d’innovation, doit être alignée avec les compétences et les aspirations humaines pour maximiser son impact positif. Cette convergence est vue non seulement comme un moteur de croissance économique mais aussi comme une opportunité d’augmenter le bien-être général.

Importance de l’Humain

Les intervenants ont unanimement souligné l’importance de placer l’humain au centre du développement et de l’application de l’IA. L’IA doit être conçue et utilisée de manière à renforcer les capacités humaines, et non à les remplacer, en se concentrant sur des applications qui améliorent la qualité de vie et qui répondent aux grands défis sociétaux.

Équilibre entre Efficacité et Éthique

Un thème récurrent de la discussion a été la nécessité de trouver un équilibre entre l’efficacité opérationnelle apportée par l’IA et les impératifs éthiques. Il est crucial de développer des IA qui soient non seulement performantes mais aussi alignées avec des principes éthiques solides, prenant en compte les implications sociales, les questions de vie privée et de sécurité, et les impacts environnementaux.

Collaboration et Intelligence Collective

Véronique Torner a mis en exergue le rôle essentiel de la collaboration et de l’intelligence collective dans le domaine de l’IA, soulignant que la réussite dans ce domaine nécessite une approche collaborative, tant au niveau national qu’européen, avec une emphase particulière sur les solutions open source pour favoriser l’intelligence collective et la transparence.

Transformation des Compétences

Cristel Guillain a souligné l’importance de la transformation continue des compétences pour s’adapter au rythme des innovations en IA, pointant vers la nécessité d’une formation continue pour permettre aux talents de naviguer et de prospérer dans un paysage professionnel en rapide évolution. Cristel Guillain, Head of Transformation & Talent au Groupe BPCE, et Henri Pidault, DSI à la SNCF, ont partagé des exemples concrets de formations internes mises en place dans leurs organisations respectives pour répondre aux défis posés par l’intégration de l’intelligence artificielle dans le monde professionnel.

Exemples de formations internes au Groupe BPCE par Cristel Guillain :

  • Reconversion Professionnelle : Cristel Guillain a décrit un objectif ambitieux fixé par le groupe visant la reconversion de 600 personnes d’ici 2024, non seulement dans le domaine technologique mais aussi parce que de nombreux emplois nécessitant des compétences en technologie restent vacants. Le groupe a réussi à reconvertir 500 personnes, dont plus de la moitié dans des domaines liés à la technologie et à la data, comme les rôles de Data Owner et Data Quality Manager. Guillain a souligné l’importance de la donnée pour l’IA et comment ces rôles contribuent à protéger et structurer les données, ce qui est crucial pour l’efficacité de l’IA.
  • Défis de la Reconversion : Elle a également noté les défis rencontrés dans le processus de reconversion, notamment la difficulté d’attirer des individus complètement étrangers au domaine technologique. Néanmoins, ces initiatives ont eu du succès et ont permis de fidéliser les employés, en leur offrant des opportunités de carrière enrichissantes et en répondant à une pénurie de compétences sur le marché.

Exemples de formations internes à la SNCF par Henri Pidault :

  • Sélection pour la Formation : Henri Pidault a partagé que pour un programme de formation récent, la SNCF a reçu plus de 800 candidatures mais n’en a sélectionné que 400 sur la base de tests de logique et du savoir-être. Cette approche sélective vise à identifier les candidats les plus aptes à bénéficier de la formation et à contribuer par la suite à l’entreprise avec leurs nouvelles compétences.
  • Engagement Sociétal : Pidault a également souligné l’engagement sociétal de la SNCF dans ces initiatives de formation. La formation interne n’est pas seulement une stratégie pour combler les lacunes en compétences techniques mais aussi un moyen d’assurer que les employés dont les compétences deviennent obsolètes puissent rester pertinents sur le marché du travail, en cohérence avec la responsabilité sociale de l’entreprise.

Ces exemples de formations internes illustrent la réponse proactive de grandes organisations françaises aux défis posés par l’IA. En investissant dans la formation et la reconversion de leurs employés, le Groupe BPCE et la SNCF montrent l’importance de développer des stratégies internes pour répondre à la demande croissante de compétences en technologie et en data, tout en soulignant leur rôle dans la promotion d’une transition professionnelle responsable et inclusive.

Souveraineté Numérique et Autonomie Stratégique

Laura Létourneau a abordé les enjeux de la souveraineté numérique et de l’autonomie stratégique, soulignant la nécessité d’une stratégie globale qui englobe l’IA et le partage de données pour maintenir l’autonomie stratégique dans un espace mondialisé.

Défis de l’Open Source

Henri Pidault a discuté de l’importance de l’open source comme levier pour l’autonomie stratégique, indiquant que favoriser les solutions open source est essentiel pour jouer collectivement en France et en Europe.

Cette table ronde a illustré la complexité et la richesse des débats entourant l’IA, mettant en lumière la nécessité d’une approche multidisciplinaire qui intègre l’expertise technique, éthique, et humaine pour naviguer dans le futur de l’IA de manière responsable et innovante. Les intervenants ont partagé une vision où l’IA, correctement encadrée et développée, offre des opportunités significatives pour l’amélioration de la société, tout en reconnaissant les défis importants qui doivent être adressés pour assurer que son développement et son application soient bénéfiques pour tous.

Table Ronde n°2 “Prospective vers de nouvelles trajectoires pour les Talents et Intelligences Augmentés”

La deuxième table ronde de la Rencontre Annuelle de l’Institut G9+, intitulée « Prospective vers de nouvelles trajectoires pour les Talents et Intelligences Augmentés », a abordé de manière approfondie le futur du travail, de l’éducation, et de la société à l’ère de l’intelligence artificielle (IA). Avec des contributions de plusieurs experts reconnus, cette session a exploré les défis et opportunités que présente l’intégration de l’IA dans divers secteurs.

L’IA et l’Évolution des Compétences

Laurent Champaney, Directeur Général de Arts et Métiers ParisTech – École Nationale Supérieure d’Arts et Métiers , a insisté sur la nécessité d’adapter l’enseignement aux réalités de l’IA. Il a souligné l’importance de réviser les programmes éducatifs pour intégrer l’apprentissage de l’IA, préparant ainsi les étudiants à un paysage professionnel en pleine mutation.

Éthique et Responsabilité

Laurence Devillers, Professeure d’IA à la Sorbonne, a abordé les questions éthiques liées au développement de l’IA. Elle a insisté sur la nécessité de créer des technologies respectueuses des valeurs humaines, mettant en garde contre les risques de discrimination et de violation de la vie privée que peut engendrer une utilisation inappropriée de l’IA.

IA, Travail et Employabilité

Alain Roumilhac, Président de Manpower Europe du Sud, a discuté de l’impact transformationnel de l’IA sur l’emploi. Mettant l’accent sur la révolution des compétences exigées sur le marché du travail, il a évoqué la nécessité pour les travailleurs de s’adapter aux nouvelles réalités professionnelles induites par l’IA.

Alain Roumilhac a partagé des insights précieux sur l’utilisation pratique de l’intelligence artificielle (IA) au sein de Manpower, illustrant l’impact de ces technologies sur l’efficacité et la productivité.

  • Exemple 1 : Optimisation de la publication d’annoncesRoumilhac a décrit comment Manpower a employé l’IA, spécifiquement ChatGPT, pour optimiser le processus de publication des annonces. Traditionnellement, la rédaction d’annonces représente une tâche répétitive et chronophage pour les agences, souvent marquée par des erreurs syntaxiques et potentiellement, des critères discriminatoires involontaires. L’implémentation de ChatGPT dans ce processus a permis de générer des annonces de qualité supérieure de manière plus efficace, libérant ainsi du temps pour les employés pour d’autres tâches, tout en améliorant la qualité des annonces publiées. Cette initiative s’inscrit dans le cadre plus large des efforts de Manpower pour accroître la productivité grâce à l’IA, tout en atténuant les aspects rébarbatifs de certaines tâches administratives .
  • Exemple 2 : Priorisation des commandesUn autre cas d’utilisation évoqué par Roumilhac concerne le développement d’un algorithme prédictif destiné à la gestion des commandes. Ce système aide les équipes à prioriser les commandes en fonction de critères préétablis, améliorant significativement l’efficacité opérationnelle. Roumilhac a souligné que, bien que l’algorithme ait démontré que les équipes étaient 20% plus productives en suivant ses recommandations plutôt que leur propre intuition, l’adoption de cet outil s’est heurtée à des résistances. Ces défis illustrent la tension entre les avantages objectifs des solutions basées sur l’IA et les réticences subjectives liées au changement et à la confiance dans les algorithmes. Cet exemple souligne l’importance de l’accompagnement du changement et de la sensibilisation pour faciliter l’adoption de l’IA dans les processus d’entreprise .

Ces initiatives reflètent l’engagement de Manpower à exploiter l’IA non seulement pour améliorer l’efficacité opérationnelle mais aussi pour repenser et optimiser les processus de travail, tout en mettant en lumière les considérations humaines et organisationnelles essentielles à la réussite de l’intégration de l’IA.IA dans le Secteur Public

Franck Denié, Directeur Général adjoint en charge du SI à France Travail (France Travail), a apporté son expertise sur l’application de l’IA dans le secteur public, notamment en termes d’amélioration des services aux citoyens. Il a souligné le potentiel de l’IA pour optimiser l’efficacité des services publics et répondre de manière plus ciblée aux besoins des utilisateurs.

Franck Denié a présenté des exemples concrets d’utilisation de l’intelligence artificielle (IA) au sein de son organisation, mettant en lumière les initiatives de France Travail pour améliorer l’accompagnement personnalisé des demandeurs d’emploi et des entreprises grâce à l’IA .

  • 1 : Défis de la Captation de DonnéesFranck Denié a commencé par souligner les difficultés rencontrées dans la collecte de données de qualité. Malgré la présence d’outils numériques, les utilisateurs remplissent rarement leurs profils de manière exhaustive, ce qui limite l’efficacité des systèmes d’appariement offre-demande basés sur l’IA. La nécessité d’un nouveau dialogue avec les demandeurs d’emploi et les entreprises a été identifiée comme une priorité pour sortir des modèles traditionnels et structurés de saisie des informations.
  • 2 : IA Générative pour un Dialogue AmélioréPour relever ce défi, France Travail expérimente avec l’IA générative afin de faciliter des interactions plus riches et personnalisées. L’objectif est de capturer des données à partir de toute interaction avec les demandeurs d’emploi pour ensuite offrir des services plus ciblés et adaptés à leurs besoins. Cette approche vise à transformer les processus métiers en captant des données de qualité supérieure à travers des dialogues améliorés, permettant un accompagnement plus personnalisé des demandeurs d’emploi et une meilleure réponse aux besoins des entreprises .
  • 3 : Integration de l’IA dans les Systèmes d’InformationUne étape cruciale dans l’utilisation de l’IA générative chez France Travail concerne la réinjection des données captées dans les systèmes d’information de l’organisation. Denié a souligné l’importance de ce processus pour améliorer la qualité de l’appariement entre les offres et les demandes d’emploi, ainsi que pour renforcer l’efficacité des accompagnements proposés. Ce défi technique soulève la question de l’intégration efficace des nouvelles modalités d’interaction dans l’infrastructure existante, illustrant la complexité de tirer pleinement parti de l’IA générative au-delà de son aspect innovant .

Conclusion

En mettant l’accent sur l’amélioration de la collecte de données et sur l’interaction avec les utilisateurs, France Travail cherche à optimiser son rôle d’intermédiaire entre les demandeurs d’emploi et le marché du travail. Ces efforts reflètent une approche proactive dans l’adoption de technologies émergentes pour répondre aux exigences d’un environnement professionnel en constante évolution.

Défis et Opportunités pour les Entreprises

Les intervenants ont également réfléchi sur la manière dont les entreprises peuvent tirer profit de l’IA pour stimuler l’innovation et maintenir leur compétitivité. L’adoption stratégique de l’IA, en tenant compte des implications sociétales et éthiques, a été identifiée comme cruciale.

Conclusion

La session s’est conclue sur un consensus sur l’importance de la collaboration entre les institutions éducatives, les entreprises, et les décideurs politiques pour naviguer dans l’ère de l’IA. L’optimisme quant à la capacité de l’IA à enrichir la société était palpable, tout comme la reconnaissance des défis éthiques et de formation que cela implique.

En résumé, la table ronde numéro 2 a offert une exploration riche et nuancée des implications de l’IA pour l’avenir des compétences, soulignant la nécessité d’une approche proactive et collaborative pour maximiser les bénéfices de l’IA tout en atténuant ses risques. Les échanges ont réitéré l’importance d’une vision éthique et centrée sur l’humain dans le développement technologique, assurant un avenir où l’IA soutient le progrès social et économique de manière responsable.

Keynote de clôture par Jean-Gabriel Ganascia sur le thème de l’éthique et de la responsabilité dans le domaine de l’intelligence artificielle

La clôture de la Rencontre Annuelle de l’Institut G9+ fut marquée par le keynote de Jean-Gabriel Ganascia, informaticien, philosophe, et professeur à La Sorbonne Université, sur le thème de l’éthique et de la responsabilité dans le domaine de l’intelligence artificielle (IA) . Cette intervention, riche en réflexions, a mis en lumière les défis éthiques et les responsabilités qui incombent aux acteurs du numérique dans une ère où l’IA est omniprésente.

Jean-Gabriel Ganascia a commencé par questionner la notion de responsabilité numérique, interrogeant son essence et la diversité de ses implications. Cette interrogation s’articule autour de plusieurs axes : la responsabilité inhérente aux technologies numériques elles-mêmes, celle des créateurs et développeurs de ces technologies, ainsi que celle des utilisateurs. De plus, il a évoqué la responsabilité sociétale à l’ère du numérique, mettant en exergue la complexité de définir clairement ces responsabilités dans un contexte aussi vaste et mouvant .

Pour illustrer ces propos, Ganascia a partagé une expérience personnelle marquante vécue lors d’un colloque en Chine, où le numérique a une emprise considérable sur la vie quotidienne. Cette anecdote a souligné comment l’intégration profonde du numérique, y compris l’absence de transactions en espèces, reflète un changement sociétal majeur, soulevant des questions sur la dépendance aux technologies numériques et leurs impacts sur la liberté individuelle et la vie privée .

L’évocation de cette expérience a servi de prélude à une réflexion plus large sur les implications éthiques de l’IA et du numérique. Ganascia a mis en évidence la nécessité d’une approche éthique dans le développement et l’utilisation de l’IA, appelant à une conscience accrue des conséquences potentielles de ces technologies sur la société. Cette démarche éthique requiert une collaboration entre développeurs, chercheurs, décideurs politiques et utilisateurs, afin d’assurer que l’IA soit développée et employée de manière responsable et bénéfique pour tous .

Au-delà de l’éthique, la responsabilité dans l’ère de l’IA englobe également la transparence, la non-discrimination et le respect des valeurs humaines. Ganascia a souligné l’importance de ces principes pour construire une société numérique juste et équitable, où l’IA agit comme un levier de progrès et non comme une source de division ou d’exclusion .

En conclusion, le keynote de Jean-Gabriel Ganascia a encouragé une prise de conscience collective de l’importance d’intégrer des considérations éthiques au cœur du développement technologique, soulignant que le futur de l’IA doit être façonné par une vision partagée, centrée sur l’humain et ses valeurs.

Bravo à Didier Carré président de l’Institut G9+, Valentine Ferréol, Ana Semedo, Eric Bresson et toute l’équipe de l’Institut G9+ pour la préparation minutieuse d’une si belle rencontre annuelle !

Source : https://www.linkedin.com/pulse/ia-responsabilit%2525C3%2525A9-num%2525C3%2525A9rique-et-guerre-des-talents-luc-bretones-dr9je/?trackingId=S0TM16sBfimEnXbgs8MHcw%3D%3D