Compte rendu
Commission
des affaires sociales
– Examen, en application de l’article 88 du Règlement, des amendements au projet de loi portant transposition de l’avenant n° 3 du 25 février 2026 au protocole d’accord du 10 novembre 2023 relatif à l’assurance chômage (n° 2633) (M. Thibault Bazin, rapporteur) 2
– Table ronde sur le thème « L’intelligence artificielle dans l’entreprise : accompagnement et dialogue social » réunissant M. Yann Ferguson, directeur scientifique du LaborIA, Mme Enora Goulard, spécialiste implémentation de l’intelligence artificielle au cabinet Ascend Partners, M. Jérémy Lamri, cofondateur du Lab-RH et du Hub France IA 2
– Présences en réunion............................15
Mercredi
15 avril 2026
Séance de 9 heures 30
Compte rendu n° 65
session ordinaire de 2025-2026
Présidence de
M. Frédéric Valletoux, président
— 1 —
La réunion commence à neuf heures trente.
(Présidence de M. Frédéric Valletoux, président)
La commission a repoussé tous les amendements.
*
Puis la commission auditionne sur le thème « L’intelligence artificielle dans l’entreprise : accompagnement et dialogue social », sous la forme d’une table ronde, M. Yann Ferguson, directeur scientifique du LaborIA, Mme Enora Goulard, spécialiste implémentation de l’intelligence artificielle au cabinet Ascend Partners, M. Jérémy Lamri, cofondateur du Lab-RH et du Hub France IA.
M. le président Frédéric Valletoux. La semaine dernière, une précédente table ronde a été réunie pour une approche macroéconomique des effets de l’intelligence artificielle (IA) sur l’emploi. La table ronde d’aujourd’hui invite à resserrer la focale sur le travail lui-même, tel qu’il est vécu par les individus au sein des entreprises. Si l’introduction d’outils ou la substitution de tâches par des machines ne sont pas nouvelles, l’IA marque une rupture radicale : issue du deep learning, elle ne se limite plus à exécuter mais peut s’adapter, analyser et créer, transformant en profondeur l’expérience du travail. Certains y voient une opportunité, avec des salariés « augmentés » libérés des tâches répétitives et dotés de capacités accrues, mais ces perspectives s’accompagnent d’inquiétudes. Le travail étant également un vecteur d’utilité sociale et de sens, le risque est celui d’une réduction du rôle du salarié à celui de simple contrôleur d’une machine, avec une perte de satisfaction et de sens. À cela s’ajoute la crainte de la disparition de certains emplois, source de souffrances psychologiques documentées, certains travaux évoquant même un « syndrome de remplacement ».
Des tensions apparaissent également, y compris dans les administrations publiques, entre des directions soucieuses d’innover et des salariés peu associés à ces transformations. L’IA interroge ainsi le sens et la qualité de vie au travail, mais aussi le dialogue social.
Comment analysez-vous l’implémentation de l’IA récente et contemporaine, entre l’usage spontané des salariés – le shadow IA – et le déploiement organisé ? Quel est, selon vous, l’impact de l’IA sur le sens que les travailleurs donnent à leur travail et sur leur bien-être au quotidien ? Quels sont, à votre sens, les leviers à la disposition des entreprises pour que les salariés se sentent associés aux choix technologiques ? Enfin, peut-on craindre que les entreprises, dans leur quête de productivité pour faire face à une concurrence internationale accrue, marginalisent le dialogue social sur les modalités d’introduction de l’IA ?
Yann Ferguson, directeur scientifique du LaborIA. Le LaborIA est un programme lancé en 2021 par l’Institut national de recherche en sciences et technologies du numérique et le ministère du travail pour anticiper les transformations du travail et éclairer la construction des politiques publiques. À l’origine, il s’agissait d’inscrire ces évolutions dans un temps maîtrisé mais, dès novembre 2022, avec la diffusion de ChatGPT et l’essor de l’IA générative, le rythme et l’ampleur du phénomène ont profondément changé. L’IA est entrée dans l’espace public sous une forme accessible et conversationnelle, rapidement adoptée puisqu’environ un Français sur deux l’utilise aujourd’hui, souvent en mobilisant un langage naturel, même si l’efficacité réelle suppose une maîtrise plus fine des instructions.
Ces usages personnels se sont rapidement étendus à la sphère professionnelle, le plus souvent sans validation de l’employeur. Le phénomène dominant reste ainsi celui du shadow IA, qui représenterait environ 42 % des usages professionnels, tandis que 30 % combineraient usages encadrés et non encadrés. Contrairement à l’idée d’une transformation impulsée par les entreprises, l’initiative vient donc encore largement des travailleurs eux‑mêmes. Les employeurs, tout en restant prudents, observent ces pratiques, d’autant que l’IA générative n’a pas encore démontré sa capacité à améliorer la productivité organisationnelle. Elle permet surtout, à ce stade, d’accélérer des tâches individuelles, sans transformer les modes de coordination collective qui, historiquement, fondent les gains de productivité.
Cette accélération individuelle entraîne des effets directs sur le travail. Elle conduit à une intensification de l’activité et à un élargissement des tâches car chacun tend à investir des domaines jusque-là réservés à des fonctions spécialisées, ce qui peut être valorisant mais accroît la charge. À cela s’ajoute une contrainte cognitive liée à la gestion simultanée de plusieurs systèmes, qui impose des bascules rapides entre outils et sujets, favorise le multitâche et prolonge parfois l’activité sur les temps de repos. Une pression cognitive durable commence ainsi à être documentée.
Parallèlement, l’IA générative déplace le cœur du travail de la production vers des activités de commande et de vérification. On produit moins directement, on supervise et on ajuste des contenus générés. Ce basculement peut altérer le sentiment d’utilité, de qualité et d’accomplissement personnel, en réduisant le pouvoir d’agir et en fragilisant le rapport aux compétences. Le sens du travail, entendu comme une combinaison d’utilité, de beauté, d’éthique et de réalisation de soi, se trouve ainsi affecté. Dans ce contexte, le shadow IA crée un angle mort partagé puisque ni les employeurs ni les représentants du personnel ne s’en satisfont, car il empêche d’ouvrir un cadre collectif de discussion sur ces usages.
Les travaux du LaborIA visent ainsi à documenter ces transformations pour éclairer l’action publique. Nous menons des études sectorielles, notamment dans la logistique et les industries culturelles, ainsi que des travaux transverses sur le recrutement ou l’inclusion. Nous accompagnons également plusieurs administrations dans l’intégration de l’IA, qui devient désormais un enjeu de gestion des ressources humaines. Une expérimentation conduite actuellement avec la direction interministérielle de la transformation publique auprès de 11 500 agents volontaires illustre ce changement de paradigme : l’outil est déployé avant même que ses usages soient stabilisés, afin d’observer a posteriori les pratiques et d’en tirer des enseignements.
Mme Enora Goulard, spécialiste en implémentation de l’intelligence artificielle au cabinet Ascend Partners. Je reviendrai sur ce que nous observons en tant que cabinet accompagnant les directions des ressources humaines, les directions des systèmes d’information (DSI) et les métiers dans leurs transformations.
S’agissant d’abord du shadow IA, on constate une incohérence marquée entre les ambitions de structuration portées par les dirigeants et la réalité des usages des salariés. Les projets d’IA sont aujourd’hui fortement cadrés par les DSI, tandis que les usages se sont développés de manière spontanée. C’est une technologie qui s’impose selon une logique ascendante et, pour la première fois, elle se diffuse dans la société en même temps que son intégration dans l’entreprise. Ce décalage entre intention stratégique et pratiques réelles génère des tensions, tant dans le déploiement que dans la recherche d’un équilibre au travail. Ce décalage se retrouve également dans les temporalités puisque les outils évoluent à un rythme extrêmement rapide, avec des mises à jour constantes qui ouvrent en permanence de nouveaux usages. À l’inverse, l’entreprise avance selon des cycles plus lents, contraints par ses processus et ses standards, ce qui crée une dissociation entre les possibilités offertes par la technologie et la capacité des organisations à les intégrer.
La question de la productivité illustre ce décalage car les gains ne se traduisent pas encore dans les indicateurs globaux, alors même que l’intensification du travail est tangible. L’IA permet d’élargir le périmètre des tâches sans pour autant renforcer son expertise cœur, et cette extension des activités peut créer des tensions, d’autant que ces transformations sont souvent pilotées par les DSI sans implication suffisante des directions des ressources humaines, alors même qu’elles affectent directement les métiers.
Nous privilégions ainsi une lecture en termes de transformation des métiers plutôt que de destruction des emplois. Les fonctions ne disparaissent pas brutalement, mais leurs contenus évoluent en profondeur à mesure que les tâches se transforment. Réduire un métier à une simple addition de tâches conduit à une vision réductrice, le travail étant une combinaison de tâches diverses, dont la valeur dépend aussi du ressenti, du sens et de l’accomplissement pour le salarié. Fragmenter les activités revient à perdre ce qui fait la cohérence et l’identité du métier.
Enfin, la notion de responsabilité constitue aujourd’hui un facteur de stabilisation majeur puisque, même lorsque certaines tâches sont automatisées, le fait que des individus demeurent responsables préserve l’existence des métiers. À trop analyser le travail par le seul prisme des tâches, on risque d’en dissoudre le cœur, c’est-à-dire l’architecture de responsabilités et de compétences qui fonde les expertises.
M. Jérémy Lamri, cofondateur du Lab-RH et du Hub France IA. Je m’intéresse au potentiel humain et à la performance professionnelle, mais mon travail consiste surtout à analyser les tendances émergentes pour comprendre leurs implications sur le travail, l’apprentissage, la décision et le management.
Mon doctorat sur les compétences du XXIe siècle m’a conduit à identifier quatre piliers désormais bien établis – créativité, esprit critique, collaboration et communication –, auxquels s’ajoutent des socles essentiels comme la littératie numérique, mais ces compétences renvoient avant tout à des comportements observables, reproductibles par des systèmes d’IA. L’argument selon lequel l’IA serait limitée parce qu’elle n’a pas d’émotions ne tient pas en pratique, car ce qui est attendu au travail, ce sont des comportements que certains modèles parviennent déjà à simuler avec une grande efficacité. À terme, il faut ainsi envisager que la quasi‑totalité des comportements professionnels puisse être reproduite. Dès lors, la question n’est plus de savoir ce qui restera à l’humain, mais de définir le cadre dans lequel nous souhaitons vivre et travailler. Si l’on se contente de réagir aux technologies existantes, on est déjà en retard. Il faut se projeter à un horizon de dix ou quinze ans, en intégrant le fait que ces capacités vont continuer de progresser.
Le sens du travail a profondément évolué. Dans les entreprises, on constate que l’IA ne libère pas du temps, mais intensifie le travail. Lorsque je demande qui utilise l’IA, presque toutes les mains se lèvent mais, lorsque je demande qui a gagné du temps, je n’en vois aucune. Faute de choix délibéré, le temps économisé est immédiatement réinvesti dans de nouvelles tâches. On ne fait pas mieux, on fait davantage, souvent sur un périmètre élargi, ce qui alimente une forme d’épuisement.
Pour comprendre ces transformations, il faut raisonner en termes d’activités plutôt que de métiers ou de compétences abstraites. Les entreprises, qui peinent aujourd’hui à accompagner ce mouvement, déploient des outils comme ChatGPT ou Gemini en pensant qu’il suffit d’apprendre à prompter. En réalité, ces systèmes reposent sur le langage et savoir les utiliser suppose d’abord de savoir structurer sa pensée, formuler un objectif clair et contextualiser une demande. Autrement dit, il s’agit moins d’apprendre à interroger une machine que d’apprendre à réfléchir.
L’expérience montre d’ailleurs une adoption très différenciée. Dans un premier temps, peu de personnes s’approprient l’outil, puis une minorité, souvent la plus autonome et performante, en tire un bénéfice réel. À mesure que l’usage se généralise, les écarts se creusent entre ceux qui maîtrisent l’IA, qui mobilisent à la fois leur expertise, leur capacité d’analyse et leur esprit critique, et ceux qui restent limités à des usages superficiels, reproduisant des réflexes de recherche peu adaptés.
Au fond, le travail évolue vers des formes de coproduction et de postproduction. Produire ne suffit plus, il faut apprendre en continu et transmettre. Dans cette perspective, si nous souhaitons maintenir la compétitivité et la capacité d’adaptation des entreprises à l’horizon 2040, il devient nécessaire de consacrer environ 20 % du temps de travail à l’apprentissage, formel comme informel, plutôt que de laisser ce temps être absorbé par l’accumulation des tâches.
M. Olivier Fayssat (UDR). Ma première question porte sur l’alimentation de systèmes d’IA étrangers. Lorsqu’un spécialiste utilise l’IA générative, il y transfère une part de son expertise métier et ce mouvement pose une question stratégique. En tant que législateurs, ne devons-nous pas réfléchir à des mécanismes visant à encourager, voire à imposer, dans certains secteurs sensibles pour notre souveraineté, le recours à des solutions nationales ?
Par ailleurs, dans la mesure où vous disposez d’un temps d’avance dans l’analyse de ces transformations, pouvez-vous esquisser une hypothèse sur leur trajectoire ? Il me semble probable que certains secteurs seront affectés et que des emplois disparaîtront sous l’effet des gains de productivité. Dans quelles proportions l’anticipez-vous, et selon quelle dynamique ? Quelle pourrait être la suite : une recomposition progressive du travail, ou des évolutions plus structurelles, comme l’instauration d’un revenu universel ?
M. Yann Ferguson. Le sujet de la souveraineté numérique, déjà ancien, prend aujourd’hui une dimension nouvelle avec l’essor de l’IA. Nos organisations, publiques comme privées, reposent largement sur des technologies américaines, et les alternatives européennes ont rarement trouvé leur place. Longtemps perçue comme un enjeu économique, cette dépendance est désormais clairement géopolitique puisque la maîtrise des technologies numériques peut devenir une véritable arme. La question est donc celle de nos marges de manœuvre. Des acteurs comme Mistral offrent des pistes, non pas vers une souveraineté absolue mais vers un certain degré d’autonomie à l’échelle européenne. La souveraineté se pense en réalité comme un équilibre sur l’ensemble de la chaîne de valeur, y compris pour les États‑Unis, qui restent dépendants de fournisseurs asiatiques pour le matériel. Les investissements massifs observés outre-Atlantique n’ont d’ailleurs pas produit les effets attendus sur la croissance, précisément parce qu’une partie de la valeur est captée ailleurs.
Dans ce contexte, la France dispose d’atouts réels. D’abord, une excellence scientifique, portée par une tradition solide en mathématiques et en ingénierie, renforcée par les politiques publiques récentes. Ensuite, un écosystème d’innovation structuré, issu des initiatives engagées dès les années 2010. Enfin, un avantage énergétique avec l’énergie décarbonée pilotable, essentielle au développement des infrastructures numériques et à l’attractivité du territoire pour les centres de données. Ces éléments expliquent la position singulière de la France dans le paysage mondial de l’IA. Sans être une puissance majeure du numérique au sens large, elle occupe néanmoins une place reconnue dans ce domaine, comme en témoigne son classement parmi les principales nations en matière d’IA.
M. Jérémy Lamri. Nous ne pouvons pas prédire l’avenir, mais la prospective permet de construire des scénarios à partir d’hypothèses, certaines déterministes, d’autres probabilistes, aujourd’hui largement dominantes dans un environnement incertain, ce qui rend l’exercice délicat. S’agissant du travail et de la société de demain, plusieurs trajectoires se dessinent. Si l’on prend la France, où plus de 56 % du produit intérieur brut est consacré aux dépenses sociales, ce qui est parfois perçu comme une fragilité peut devenir un atout car en partant de l’hypothèse, de plus en plus plausible, que l’IA sera capable d’exécuter une grande partie des activités professionnelles, la question centrale devient celle de la place des individus.
À un horizon de quinze ans, nous continuerons à recruter, mais nous risquons de ne pas trouver les profils adaptés, car les emplois les plus valorisés exigeront une forte intensité cognitive : aller vite et loin, apprendre en continu, limiter les erreurs, se remettre en question. Or ces capacités concernent aujourd’hui moins de 20 % de la population. Nous pourrions ainsi voir coexister, d’un côté, des emplois hautement qualifiés et très bien rémunérés et, de l’autre, une part importante de travailleurs relégués à des activités peu valorisées, insuffisamment rémunérées pour vivre dignement malgré leur engagement. La question devient alors celle de la soutenabilité d’un tel modèle social.
Je ne crois pas à l’hypothèse d’un revenu universel, car le travail reste un vecteur essentiel de cohésion, mais un revenu contributif me paraît une piste plus structurante. À côté de l’économie marchande traditionnelle, un secteur non marchand – santé, sécurité, écologie, solidarité – offre des besoins durables et non saturables. L’enjeu est donc de bâtir un modèle qui reconnaisse et valorise ces contributions, afin de réintégrer dans l’activité des personnes aujourd’hui considérées comme inutiles. Cela permettrait de traiter simultanément la question du chômage, qui est une construction historique, et celle de la circulation économique. Car dans un système où les actifs financent les inactifs, un seuil critique existe : au-delà d’environ 20 % de chômage, l’équilibre devient difficilement soutenable.
Mme Enora Goulard. On constate déjà un recul de l’embauche des jeunes. Une note de l’Institut national de la statistique et des études économiques montre que ce recul s’explique par des effets structurels, mais aussi par le fait que l’IA automatise un certain nombre de tâches administratives qui ne nécessitent pas une grande expertise. En ce moment, l’IA profite en effet aux plus qualifiés, qui maîtrisent déjà leur expertise métier, savent contrôler l’IA et ont l’agilité pour la prendre en main rapidement.
Mme Sandrine Rousseau (EcoS). Mes questions portent sur trois points. Le premier concerne l’impact de l’IA sur le secret des affaires, l’innovation et la propriété intellectuelle, y compris s’agissant des process internes aux entreprises. Le risque de dépossession me paraît réel. Par ailleurs, l’usage efficace de ces outils suppose un effort de formalisation et de raisonnement qui conduit, de fait, à exposer des éléments de savoir‑faire. Comment analysez-vous ce mécanisme et ses conséquences ?
Le deuxième point est d’ordre organisationnel. Vous avez indiqué que l’IA n’affectait pas encore l’organisation, ce qui évoque l’introduction des courriels, avec un gain de productivité individuelle sans transformation immédiate des structures. Pourtant, des évolutions semblent possibles. Si chacun peut intervenir sur des domaines auparavant spécialisés, comment éviter les tensions ou les conflits de périmètre ? Cela ne risque-t-il pas de conduire à un renforcement des niveaux de contrôle et, potentiellement, à des formes accrues de hiérarchisation ?
Enfin, ma dernière question porte sur le travail individuel. Si le recours à l’IA entraîne une forme de dépossession de ses propres compétences, cela peut-il affecter l’estime de soi, qui constitue un élément central du bien-être et de la santé au travail ?
M. Yann Ferguson. Il n’existe pas aujourd’hui de projet organisationnel structuré autour de l’IA générative, mais des effets concrets apparaissent déjà. D’abord, on observe que le réflexe de solliciter l’IA tend à se substituer au réflexe de solliciter ses collègues. Cette évolution favorise une forme d’atomisation des collectifs, puisque l’interaction avec la machine prend progressivement le pas sur les échanges humains. Cela fragilise à la fois la solidarité et la performance collective, qui reposent sur des ajustements mutuels et une compréhension partagée du travail. Lorsque les réponses de l’IA paraissent plus accessibles ou satisfaisantes, les dynamiques collectives s’érodent, non pas sous l’effet d’un projet patronal, mais par l’installation de nouveaux réflexes.
Ensuite, l’élargissement des usages entraîne un phénomène d’engorgement de l’expertise. Ceux qui mobilisent l’IA pour traiter des sujets spécialisés sollicitent ensuite les experts, non plus pour produire une analyse, mais pour valider un travail déjà réalisé. Les juristes, comme les traducteurs, se retrouvent ainsi submergés de demandes de vérification, souvent fragmentées et urgentes. Cette évolution pèse sur le fonctionnement collectif et altère le sens du travail des experts, dont le rôle se déplace vers un contrôle rapide plutôt que vers une production à part entière.
Mme Enora Goulard. Sur la hiérarchie et le rôle du manager, on voit apparaître des formes de dettes liées à l’organisation du travail : le temps gagné sur une tâche est souvent déplacé vers un collègue, si bien qu’à l’échelle du processus, le gain disparaît. Faute d’avoir redéfini l’usage du temps libéré, les sollicitations augmentent, sans toujours être pertinentes, ce qui redessine les collectifs autour de nouvelles dettes organisationnelles et cognitives.
La dette cognitive tient au binôme homme-machine. Lorsqu’il devient déséquilibré, la délégation excessive à l’IA peut entraîner une forme d’appauvrissement intellectuel : on ne vérifie plus réellement la qualité du travail produit, ce qui conduit à reporter cette vérification sur d’autres, notamment les experts. Dans ce contexte, le rôle du manager évolue profondément. Après le choc du covid, qui a remis en cause le micro-management, l’IA introduit une nouvelle difficulté en ce qu’il devient plus complexe d’apprécier concrètement le travail réalisé. Cela impose de repenser le dialogue avec les équipes et, plus largement, l’organisation du travail.
Pour éviter une dérive vers un contrôle et une hiérarchisation accrus, le management intermédiaire doit se transformer. Le manager ne peut plus être expert sur tous les sujets et doit assumer une fonction d’accompagnement, fondée sur l’écoute, l’humilité, l’agilité et la capacité à guider les usages. C’est à cette condition qu’il pourra aider ses équipes à intégrer ces technologies, contenir la prolifération d’expérimentations non maîtrisées et préserver la cohérence et l’efficacité du collectif.
M. Jérémy Lamri. Concernant la souveraineté, dans les entreprises de la base industrielle et technologique de défense, comme Safran, l’enjeu ne tient pas seulement à l’accès à l’IA, mais à son intégration dans les processus, où se situe son véritable potentiel. Dans ce cadre, on observe un recours croissant à l’open source. Les modèles propriétaires, comme ChatGPT, suscitent des interrogations sur la maîtrise des données, y compris en environnement privé. À l’inverse, les modèles open source peuvent être déployés sur les infrastructures internes, ce qui offre une réponse plus directe aux enjeux de souveraineté.
S’agissant des métiers, le risque de transfert de savoir-faire apparaît plus limité. L’enjeu principal tient à l’usage de modèles conçus dans un environnement culturel donné, typiquement américain, qui peut influer sur les raisonnements et, à terme, sur les pratiques professionnelles.
M. Thibault Bazin, rapporteur général. N’existe-t-il pas un risque de fuite de données, même en dehors du cadre de l’innovation ? Faudrait-il réguler par la loi le recours à l’IA ?
Vous avez beaucoup parlé de perte de sens, mais n’existe-t-il pas un risque de déresponsabilisation vis-à-vis de ce qui est produit, et des risques de conflits en cas d’échec ou d’absence du résultat espéré ?
Vous avez évoqué l’interaction conversationnelle du travailleur avec l’IA. On observe une tendance de l’IA à flatter la personne qui la questionne. N’y a-t-il pas là aussi un risque de mal-être au travail, dû à l’écart entre la perfection renvoyée et la réalité ?
Enfin, vous avez souligné le besoin d’« apprendre à réfléchir ». Quelles préconisations faites-vous en termes d’évolution des contenus à l’école primaire, au secondaire et à l’université ? L’exigence d’intensité cognitive ne risque-t-elle pas d’exclure 80 % des Français demain ?
Mme Danielle Simonnet (EcoS). Dans le cadre d’une mission d’information sur les effets de l’IA dans les entreprises françaises, j’avais proposé d’auditionner, pour chaque entreprise, à la fois la direction et la représentation du collectif de travail. Il m’avait été répondu que cela empêcherait les directions de s’exprimer librement, ce qui laisse entendre que l’IA est envisagée comme un levier de réduction des effectifs et d’augmentation des gains de productivité. Les organisations syndicales que j’ai contactées confirment d’ailleurs que l’introduction de l’IA est rarement explicitée : elle est présentée comme une simple évolution, avec un impact minimisé, afin d’éviter une procédure d’information-consultation du comité social et économique (CSE) et un débat sur les transformations des rôles et les besoins de formation.
Partagez-vous ce constat d’une stratégie patronale de contournement du CSE ? Ne faudrait-il pas, au contraire, conditionner toute introduction de l’IA à une évaluation préalable de ses effets sur les conditions de travail ?
Que pensez-vous du projet « Dialoguer sur l’IA », porté par l’Institut de recherches économiques et sociales (Ires) et plusieurs organisations syndicales, qui propose une méthodologie permettant aux travailleurs d’intervenir avant, pendant et après l’introduction de ces outils ?
Plus largement, ne faut-il pas replacer le dialogue social au cœur des collectifs de travail, en instituant notamment des temps réguliers d’échange entre salariés, sans la hiérarchie, afin de débattre des conditions de travail et d’en tirer des réponses concrètes de la direction ?
M. Yann Ferguson. Sur la question du dialogue social, deux idées dominent aujourd’hui : les choix technologiques relèveraient des prérogatives de l’employeur et le rythme serait trop rapide pour permettre le dialogue. Cette urgence est nourrie par une « économie de la promesse » qui pousse à agir sans attendre et conduit 64 % des dirigeants à investir dans l’IA par crainte de retard, sans aucune vision stratégique. Dans ce contexte, le dialogue social est souvent perçu comme un frein. Pourtant, les projets d’IA peinent à produire la valeur attendue et restent fréquemment à l’état d’expérimentation, démontrant que la méthode actuelle montre ses limites. À l’inverse, un dialogue social de qualité favorise à la fois l’adhésion des salariés et la pertinence des projets d’IA. Il permet surtout d’éviter ce que nous appelons un « conflit de rationalité », lorsque des outils, conçus sans prise sur l’activité réelle, se révèlent inadaptés en situation de travail. Le dialogue apparaît ainsi comme une condition de réussite, aussi bien sociale qu’opérationnelle.
Sur le plan juridique, depuis 2025, plusieurs CSE ont obtenu gain de cause et les décisions récentes confirment que l’expérimentation elle-même constitue un projet justifiant une consultation, les arguments d’amélioration marginale étant écartés et les juges reconnaissant le caractère structurant de ces technologies dynamiques.
Contourner le dialogue social fragilise donc à la fois les projets et les collectifs et les retours de terrain montrent que ces démarches peuvent générer des difficultés importantes. Cela invite à considérer le dialogue non comme une contrainte, mais comme un levier central dans la mise en œuvre de l’IA.
Mme Enora Goulard. Je reviendrai sur la question de la perte de données. Le principal risque tient au shadow IA, c’est-à-dire à l’absence de pilotage centralisé du système d’information, qui conduit à des usages diffus d’outils au niveau des directions ou des salariés eux‑mêmes. L’intégration de contenus internes dans des outils non autorisés constitue aujourd’hui la menace la plus concrète.
Un second risque tient aux enjeux de souveraineté puisqu’en cas de rupture d’accès à certains systèmes dans un contexte de crise géopolitique, des données pourraient devenir inaccessibles. Pour autant, les modèles d’IA générative, fondés sur des masses de données, ne restituent pas directement les contenus qui leur sont soumis et le risque ne réside donc pas dans une réutilisation à l’identique des documents.
S’agissant de la déresponsabilisation, l’enjeu est réel. Le binôme homme-machine place l’utilisateur en position de contrôle et de validation, engageant sa responsabilité. Si celle‑ci n’est pas clairement définie, elle tend à remonter vers le manager, qui peut se retrouver responsable de l’ensemble des productions. Plus largement, ces difficultés révèlent des fragilités organisationnelles préexistantes, liées au micromanagement et à la centralisation. L’IA agit comme un révélateur et introduit une nouvelle forme de pilotage, parfois qualifiée de management algorithmique, qui reconfigure les responsabilités. Si celles-ci ne sont pas explicitement réparties, des déséquilibres durables apparaîtront. L’enjeu est donc de redéfinir clairement le lien entre tâches et responsabilités pour maintenir une organisation fonctionnelle.
M. Jérémy Lamri. Pour expliquer l’évolution nécessaire de notre système éducatif, prenons un exemple simple : si je vous dis « 1515 », vous répondez « Marignan ». Nous l’avons appris à l’école, mais ce type de savoir isolé a peu d’utilité s’il n’est pas mobilisé dans un raisonnement. L’enjeu n’est plus de mémoriser, mais de savoir relier des concepts et des connaissances. Être capable, par exemple, de tirer des enseignements d’un événement historique pour éclairer un contexte contemporain, c’est précisément ce que l’école doit désormais développer.
Les grands modèles de langage ne sont pas intelligents au sens humain, mais ils excellent dans cette capacité de mise en relation. Ils fonctionnent comme des cartes conceptuelles reliant des idées entre elles. Cela met en lumière deux exigences : d’une part, l’importance de l’expertise pour structurer les connaissances et, d’autre part, la capacité à raisonner, c’est-à-dire à construire des liens pertinents entre ces connaissances. Cela implique de former prioritairement à des compétences transversales : créativité, esprit critique, collaboration et communication, auxquelles j’ajoute la pleine conscience, essentielle pour préserver une capacité de réflexion dans un environnement saturé de sollicitations. Les travaux de Daniel Kahneman montrent ainsi que notre pensée oscille entre un mode automatique et un mode adaptatif. Or les usages actuels de l’IA et du numérique favorisent le premier au détriment du second.
L’enjeu est donc de former des individus capables de rester en mode adaptatif, c’est‑à‑dire attentifs, capables d’analyser et de contextualiser. C’est cette capacité qui fera la différence entre ceux qui sauront mobiliser un raisonnement de haut niveau et les autres.
M. Nicolas Turquois (Dem). Plusieurs entreprises ont mis à disposition de leurs salariés des assistants IA sans stratégie, car elles ne savent pas comment les utiliser mais ne veulent pas rater le train. Chez certains collaborateurs, l’usage appauvrit le raisonnement et génère des erreurs quand, chez d’autres, il suscite au contraire des initiatives porteuses de sens. Dès lors, au-delà de la formation des générations futures, comment former les actifs à un usage maîtrisé ? Comment éviter ces pratiques automatiques et réductrices qui exposent l’entreprise à des risques ?
Mme Martine Froger (SOC). L’IA s’impose inexorablement dans les entreprises et transforme à la fois les métiers, les compétences et les organisations. Le dialogue social, pourtant central, reste encore peu développé. Quelques entreprises ont engagé des échanges avec les représentants du personnel, mais cela demeure limité au regard des enjeux qui incluent l’évolution des emplois, la transformation des compétences, les conditions de travail et la protection des données. Faute d’anticipation, ces mutations sont peu discutées en amont, ce qui risque d’accentuer les écarts entre salariés selon leur maîtrise de ces outils.
L’enjeu est donc d’éviter que l’IA ne devienne un facteur d’exclusion ou de fragilisation. Dans ce contexte, ne faut-il pas rouvrir la réflexion sur l’évolution de notre modèle social, notamment pour préserver la cohésion et répondre aux transformations du travail, y compris à travers des dispositifs comme le revenu universel ?
Mme Enora Goulard. Concernant la formation, nous sommes plutôt opposés à une logique d’e-learning classique. Il s’agit moins d’une formation descendante que d’une acculturation. La plupart ont déjà compris le principe mais l’enjeu est désormais de l’adapter aux usages métiers.
Pour les managers, la priorité n’est pas seulement la maîtrise des outils, mais la capacité à accompagner des usages encore émergents. Pour les équipes, il ne s’agit pas d’apprendre à utiliser un outil, mais de comprendre concrètement comment il peut améliorer certaines tâches, savoir le challenger, ne pas s’arrêter au premier résultat, le vérifier et partager les bonnes pratiques, notamment à travers des échanges entre pairs.
Ce dispositif doit s’inscrire dans la durée, car l’absence de cadre et de dialogue crée de fortes inégalités d’appropriation. Les seniors, riches d’expertise, peuvent être en difficulté sur l’usage tandis que les juniors, plus à l’aise, manquent de recul métier. Dans ce contexte, les logiques de compagnonnage peuvent permettre d’articuler expertise et agilité. De même, les formations en petits groupes peuvent favoriser un apprentissage continu, fondé sur le partage d’expériences et l’évolution des pratiques.
M. Yann Ferguson. Sur la question du dialogue social, plusieurs accords ont émergé depuis 2025 autour de deux axes principaux. D’abord, la protection de l’employabilité, les entreprises s’engageant à accompagner les transformations à travers la gestion des emplois et des parcours professionnels. Ensuite, face à l’accélération des changements, ces accords instaurent des échanges réguliers, dans une logique de dialogue social continu. En revanche, la question des conditions de travail reste encore largement absente. Les enjeux d’inégalités et d’exclusion sont, quant à eux, abordés à travers les volets d’employabilité.
S’agissant du nouveau rapport au travail, le débat sur le revenu universel illustre des approches culturelles divergentes. Aux États-Unis, il a été porté par des acteurs technophiles comme Bill Gates alors qu’en France, il a souvent été perçu comme une remise en cause de la valeur travail. Cette différence révèle que le travail est encore envisagé principalement sous l’angle économique alors que, comme le souligne David Graeber dans Bullshit Jobs, il possède également une dimension sociale et morale. Dès lors, même si les technologies transforment ou détruisent certains emplois, il est probable que d’autres formes de travail émergent, parce que le travail reste une valeur en soi, au-delà de sa seule utilité économique.
M. Jérémy Lamri. Dans notre société, le travail répond à une double logique : il permet de consommer, mais il est également un facteur de réalisation de soi. On ne peut pas faire société sans contribuer à quelque chose de plus grand que soi. C’est pourquoi je reprends votre propos, madame Rousseau, en distinguant clairement revenu universel et revenu contributif. Derrière le revenu universel se trouve en effet une vision selon laquelle la technologie pourrait se substituer entièrement au travail, laissant chacun sans obligation d’activité. Cette approche, souvent présentée comme techno-humaniste, pose question. À l’inverse, le revenu contributif maintient l’idée de participation et de lien social. Des travaux comme ceux de Jared Diamond dans Effondrement illustrent les dérives possibles d’une société qui se recentre sur elle-même faute de nécessité de contribuer. Le risque n’est pas seulement économique, il est également social et collectif.
M. Jean-François Rousset (EPR). Ma question porte sur les enseignants du premier et du second degré. Comment abordez-vous l’intégration de l’IA et quelles perspectives voyez-vous pour former des enseignants capables de mieux préparer les élèves ? L’IA doit‑elle permettre de faire mieux ou simplement de faire plus ?
M. Yannick Monnet (GDR). Je suis frappé par l’absence d’un véritable débat philosophique sur le rôle de l’IA dans l’entreprise. Cette question renvoie à la performance, mais interroge aussi le temps ainsi que, plus profondément, le rapport à l’autre. Si chacun peut produire, avec l’IA, des contenus équivalents, que deviennent la valeur de l’expertise et la reconnaissance des parcours ? On peut par exemple imaginer qu’un salarié moins qualifié, mais maîtrisant bien l’IA, produise des analyses proches de celles d’un expert plus expérimenté. L’entreprise pourrait alors privilégier ce profil, moins coûteux. Ce bouleversement des repères pose une question de fond sur la valeur du travail et des compétences, qui mérite d’être débattue.
Se pose également la question du contrôle. Comment vérifier des usages que l’on ne maîtrise pas soi-même ? Les collaborateurs utilisent déjà probablement ces outils, et il devient difficile de distinguer ce qui relève de leur production propre. Dès lors, le contrôle atteint ses limites et repose largement sur la confiance. Au fond, deux enjeux apparaissent. D’une part, celui de l’éthique et des règles que nous sommes capables de définir face à ces usages diffus. D’autre part, celui du sens du travail, car en poursuivant sans cesse un objectif de performance, ne risque-t-on pas d’en altérer la nature même, en affaiblissant la créativité, l’intelligence et la place du travail dans nos vies ?
M. Yann Ferguson. Sur le débat public, la mission Villani de 2018 visait notamment à démystifier l’IA pour permettre une discussion collective, objectif qui n’a été que très partiellement atteint. L’enjeu reste celui d’une acculturation large, afin que ces sujets ne soient pas confisqués par quelques experts, alors même que leur complexité renforce leur poids dans le débat. Dans ce contexte, certains acteurs considèrent que les décisions devraient être confiées à ceux qui maîtrisent la technologie, au motif de sa rapidité d’évolution. Or cette vision technocentrée écarte de fait les citoyens du débat alors que l’enjeu est précisément de permettre à chacun de participer à une réflexion collective sur les choix à opérer.
Quatre récits structurent aujourd’hui les représentations de l’IA et du travail : un récit darwinien, fondé sur l’adaptation ; un récit prométhéen, centré sur la libération et l’émancipation ; un récit taylorien, qui prolonge une logique d’exploitation ; un récit inspiré de Jürgen Habermas, qui met au cœur le dialogue pour construire des normes collectives. C’est dans cette dernière perspective que certaines organisations cherchent moins à s’adapter qu’à orienter leur transformation en cohérence avec leur identité, en s’appuyant sur un dialogue éclairé et partagé.
Mme Enora Goulard. Je compléterai sur la confiance au sein des équipes. Le dialogue peut se construire à tous les niveaux et attendre un cadre global serait probablement illusoire. À l’échelle d’une équipe, il est possible d’aborder directement les usages de l’IA et de définir des règles communes de collaboration entre l’humain et l’outil. C’est sur cette base que peut se construire le contrôle de la qualité, dans une logique de transparence. Un collaborateur peut indiquer qu’il a utilisé l’IA et qu’une vérification est nécessaire. L’enjeu n’est pas de sanctionner, mais d’organiser des pratiques partagées, et cela suppose que le manager comprenne les mécanismes de l’IA, non pour surveiller mais pour instaurer une relation de confiance. Il s’agit d’identifier les usages afin d’en fixer les conditions, et non de les interdire.
Au-delà de l’entreprise, ces questions se posent aussi dans les relations ordinaires car l’usage de l’IA interroge l’intention, l’effort et l’authenticité. C’est en les discutant collectivement que l’on peut fixer des repères sur ce que l’on accepte et sur la manière dont on souhaite travailler ensemble.
M. Jérémy Lamri. Sur votre précédente remarque, j’estime que vouloir être quelqu’un d’autre est en soi problématique, car cela renvoie à un enjeu d’individuation, c’est‑à‑dire à la capacité de devenir une version plus accomplie de soi-même. Au-delà de l’IA, quels sont aujourd’hui à l’école, dans la famille ou au travail, les espaces qui permettent encore ce processus ? Les nouvelles générations expriment un besoin fort de reconnaissance et d’appartenance, parfois à travers des comportements extrêmes, qui s’apparentent à des formes contemporaines de rites de passage. Dès lors, le rapport à l’IA ne peut pas être pensé isolément, car il renvoie à notre manière de faire société. Dans les organisations, le discours dominant reste celui de l’urgence et de la performance plutôt que celui de la qualité du travail ou du développement des individus. L’IA s’inscrit ainsi dans un paradigme du « faire plus » plutôt que du « faire mieux » et tant que ce cadre ne sera pas interrogé, il sera difficile d’en attendre un usage réellement émancipateur. La question de la formation s’inscrit donc dans cette perspective plus large et suppose de repenser les finalités du travail et les conditions dans lesquelles les individus peuvent se développer.
Mme Karine Lebon (GDR). L’IA a désormais toute sa place dans l’entreprise, mais la question porte sur ses conditions de déploiement : règles, garanties, transparence et place des salariés. L’exemple de la direction générale des finances publiques (DGFiP) est, à cet égard, éclairant puisque des dispositifs de détection de fraude y ont été développés et déployés sans transparence ni inscription dans le dialogue social. Les agents, qui ont été peu formés, se retrouvent à vérifier un grand nombre de dossiers sélectionnés par l’IA, avec un taux d’erreur élevé, ce qui accroît leur charge de travail. Dans le même temps, ces projets, associés à des objectifs de productivité, ont contribué à des suppressions de postes. Cela donne le sentiment d’un dialogue social réduit à un rôle de validation a posteriori.
Dans ce contexte, avez-vous identifié des exemples d’introduction de l’IA reposant sur de véritables mécanismes de concertation sociale, permettant d’ajuster les dispositifs en cours de déploiement ? Qu’est-ce qui freine la généralisation de ces pratiques, et constatez‑vous des écarts entre grandes entreprises et petites et moyennes entreprises dans leur capacité à structurer une démarche responsable ?
Enfin, la question des biais de genre doit être posée car l’IA, déjà utilisée dans les processus ressources humaines (RH), peut reproduire des déséquilibres sociaux existants. Que pensez-vous de la création d’un label visant à garantir des outils RH non discriminatoires ?
Mme Ségolène Amiot (LFI-NFP). Je suis assez perplexe face à l’idée que le binôme homme-machine renforcerait la responsabilisation et la confiance. Le constat me paraît inverse car après des décennies d’automatisation, de fragmentation et de micromanagement, on attend souvent des salariés qu’ils exécutent sans remettre en cause les orientations ou les méthodes. Cela nourrit un dialogue social appauvri et un management autoritaire, alors même que les opérateurs sont les mieux placés pour améliorer les pratiques. Dès lors, ce que vous décrivez suppose une transformation profonde de la culture des entreprises et des modes de management. Comment engager ce changement ? Comment former à la fois les futurs dirigeants et ceux qui ont construit leurs pratiques dans ce cadre, pour passer d’une logique d’exécution à une logique de réflexion et de responsabilité ?
Enfin, au-delà des biais de genre, se pose plus largement la question des discriminations intégrées dans les systèmes d’IA, qu’il s’agisse de biais sociaux ou raciaux. Comment les prévenir dans les usages professionnels ?
M. Yann Ferguson. Le cas de la DGFiP illustre une première phase d’appropriation très technique de l’IA, engagée dès 2015-2016, sans véritable prise en compte des dimensions sociales. L’IA a été envisagée comme un simple outil, supposé libérer des tâches, sans formation des agents ou des représentants du personnel. Cette approche a contribué à une perte de sens et à des difficultés, notamment autour d’une chaîne de valeur invisible où interviennent des travailleurs précaires qui participent au fonctionnement réel des systèmes. Depuis, une évolution s’amorce car la gouvernance intègre davantage les sciences humaines et sociales, avec une attention portée aux usages et aux effets concrets sur les agents. Des formes de dialogue se développent, y compris de manière informelle, pour mieux encadrer ces transformations.
La question des biais s’inscrit dans cette même prise de conscience car les algorithmes peuvent amplifier des discriminations en automatisant des biais préexistants, d’autant plus difficiles à identifier qu’ils sont invisibilisés par la technique. Des exemples connus, comme certains outils de recrutement, ont mis en évidence ces dérives. Au-delà de ces constats, l’IA agit comme un révélateur en mettant en lumière des pratiques déjà présentes dans les organisations et conduit à les interroger plus frontalement. En ce sens, elle ouvre la possibilité de repenser les modes de travail et de corriger des logiques installées, bien au-delà de la seule question technologique.
Mme Enora Goulard. Sur la question de la responsabilisation et de la formation des managers, nous avons formalisé une approche simple. Au-delà de la sensibilisation technique, il s’agit d’inscrire l’IA dans un véritable projet d’entreprise, à travers ce que nous appelons un « contrat de valeur IA ». L’enjeu est de dépasser la seule logique de productivité en posant, en amont, l’intention claire d’améliorer le bien-être des collaborateurs, de créer de nouveaux services ou de dégager du temps pour des équipes sous tension. Ce cadrage permet ensuite de construire un engagement partagé avec les représentants du personnel et les équipes, en alignant les usages de l’IA sur ces objectifs. Une fois cette intention définie, elle engage le dirigeant. Elle donne un cap au déploiement et évite des usages dispersés, souvent guidés par la seule pression concurrentielle. Aujourd’hui, beaucoup d’outils sont présents sans être réellement intégrés. Un déploiement effectif suppose au contraire une appropriation par les équipes, organisée autour d’objectifs explicites et adaptée aux fonctions. C’est cette clarification stratégique qui permet de responsabiliser les acteurs et de donner du sens à l’usage de l’IA.
*
La réunion s’achève à onze heures vingt-cinq.
Présents. – Mme Audrey Abadie-Amiel, Mme Ségolène Amiot, M. Joël Aviragnet, Mme Anchya Bamana, M. Thibault Bazin, Mme Béatrice Bellay, Mme Anaïs Belouassa-Cherifi, M. Théo Bernhardt, Mme Sylvie Bonnet, M. Elie Califer, M. Hendrik Davi, M. Fabien Di Filippo, Mme Sandrine Dogor-Such, Mme Fanny Dombre Coste, Mme Nicole Dubré-Chirat, Mme Stella Dupont, M. Gaëtan Dussausaye, M. Olivier Fayssat, M. Guillaume Florquin, M. Thierry Frappé, Mme Martine Froger, Mme Anne Genetet, M. François Gernigon, Mme Océane Godard, M. Jean-Carles Grelier, Mme Justine Gruet, M. Jérôme Guedj, Mme Zahia Hamdane, Mme Christine Le Nabour, Mme Karine Lebon, Mme Élise Leboucher, M. Pascal Lecamp, M. René Lioret, Mme Christine Loir, M. Christophe Marion, M. Pierre Marle, Mme Joëlle Mélin, M. Christophe Mongardien, M. Yannick Monnet, M. Serge Muller, M. Sébastien Peytavie, Mme Angélique Ranc, M. Jean-François Rousset, M. Arnaud Simion, Mme Danielle Simonnet, M. Emmanuel Taché, M. Nicolas Turquois, M. Frédéric Valletoux, M. Stéphane Viry
Excusés. – M. Louis Boyard, M. Thomas Ménagé, M. Éric Michoux, M. Jean-Philippe Nilor, M. Bertrand Sorre
Assistait également à la réunion. – Mme Sandrine Rousseau