Comment analyser le déploiement de l’intelligence artificielle, entre usages spontanés des salariés et stratégies organisées des entreprises ? Quels effets sur le sens du travail et le bien-être au quotidien ? Quels leviers pour associer les salariés aux choix technologiques, et jusqu’où investir dans la formation continue ?
Toutes ces questions ont été abordées lors d’une table ronde organisée par la commission des affaires sociales de l’Assemblée nationale, “L’intelligence artificielle dans l’entreprise : accompagnement et dialogue social”, le 15 avril. Trois experts ont analysé les conséquences à moyen terme de ces évolutions.
Depuis la diffusion massive des outils génératifs, une part croissante des salariés s’est approprié ces technologies, souvent en dehors de tout cadre formel. Ce phénomène de “shadow IA”, (ou “IA fantôme”) évoqué par Yann Ferguson, directeur scientifique du LaborIA, un laboratoire de recherche-action pour appréhender les effets de l’intelligence artificielle sur l’avenir du travail, témoigne d’un décalage profond entre les stratégies des entreprises et les usages réels. Près d’un actif sur deux utiliserait aujourd’hui ces outils, parfois sans validation de l’employeur, révélant une adoption rapide mais peu structurée. Cette dynamique nourrit autant l’enthousiasme que l’inquiétude : si l’IA promet un “salarié augmenté”, elle alimente aussi des peurs bien réelles.
Une enquête de l’Association américaine de psychologie, citée lors de la table ronde, révèle ainsi que près de 40 % des travailleurs américains ressentent une anxiété face à l’IA, alimentée par un “syndrome de remplacement” et la peur de perdre leur emploi.
Dans les faits, les intervenants s’accordent à relativiser la disparition des métiers. L’enjeu n’est pas tant la suppression d’emplois que la transformation des tâches. L’IA automatise certaines activités, en enrichit d’autres, et pousse les salariés à élargir leur champ d’intervention. “On s’improvise un peu juriste, chef de projet ou encore traducteur grâce à ces outils”, observe Yann Ferguson, brouillant les frontières traditionnelles des fonctions. Jusqu’alors, “ces tâches étaient sous-traitées à un prestataire ou à un collègue expert”.
Cette diversification peut être valorisante, le salarié a l’impression “d’avoir des supers pouvoirs”, mais elle contribue aussi à une intensification du travail. Car le temps libéré par l’IA n’est pas réinvesti dans une réduction de la charge, mais dans une accumulation de nouvelles tâches. “On ne fait pas mieux, on fait plus”, résume Jérémy Lamri, cofondateur du Lab-RH et du Hub France IA.
Une tendance émerge toutefois. “L’IA profite actuellement aux plus qualifiés qui savent contrôler ces technologies et qui ont une agilité pour la prendre en main plus facilement, indique Enora Goulard, spécialiste implémentation de l’intelligence artificielle au cabinet Ascend Partners. A l’inverse, les jeunes entrants sur le marché du travail apparaissent plus exposés : certaines tâches d’entrée de carrière étant automatisées, les opportunités d’insertion se réduisent”.
Face à ces mutations, la formation apparaît comme un levier central. “Si l’on veut des entreprises performantes, il faut consacrer jusqu’à 20 % du temps à la formation”, avance Jérémy Lamri. Mais au-delà des outils, l’enjeu est plus fondamental : il s’agit d’apprendre à réfléchir, à contextualiser et à exercer son esprit critique.
A ce titre, Enora Goulard penche davantage pour des sessions de partage de bonnes pratiques, des échanges entre pairs, plutôt que des formations en e-learning.
Les écarts d’usage de l’IA révèlent déjà une fracture. Une minorité de salariés (environ 30 %) maîtrise réellement ces outils, tandis que la majorité reste dans une logique d’usage ponctuel, proche du réflexe “moteur de recherche”. Cette fracture des compétences se double d’un risque d’exclusion durable pour ceux qui ne parviennent pas à suivre le rythme.
Les compétences clés évoluent également. “Aux « 4C »identifiés par l’OCDE – créativité, esprit critique, coopération, communication – s’ajoute une dimension essentielle : la capacité à apprendre en continu et à collaborer avec la machine”, assure Jérémy Lamri.
Ces transformations bousculent également les équilibres managériaux. “Le rôle du manager intermédiaire évolue, passant d’une posture d’expert à celle d’accompagnateur”, insiste Enora Goulard. Dans un environnement où les salariés gagnent en autonomie grâce à l’IA, il ne s’agit plus seulement de contrôler, mais d’encadrer les usages, de clarifier les responsabilités et de maintenir une cohérence collective. La question de la responsabilité devient d’ailleurs centrale : “car dans un binôme homme-machine, qui répond des erreurs ? Sans réponse claire, le risque est celui d’une déresponsabilisation diffuse ou, à l’inverse, d’une surcharge pour les managers, sommés de tout superviser”, poursuit Enora Goulard.
Sur le plan du bien-être, les promesses d’allègement du travail peinent à se concrétiser. Au contraire, les intervenants décrivent une intensification des rythmes et une montée de la charge cognitive.
Par ailleurs, le sens du travail peut s’en trouver affecté : les salariés peuvent se sentir moins auteurs de leur travail, notamment lorsqu’ils interviennent en “post-production” pour corriger ou valider des contenus générés par l’IA.
Le collectif de travail, lui aussi, est fragilisé. Le recours à l’IA tend à remplacer certains échanges entre collègues. “Demander à la machine devient plus rapide que solliciter un pair, ce qui peut progressivement affaiblir les dynamiques de coopération”, met en garde Yann Ferguson.
Ces évolutions dessinent en creux plusieurs facteurs d’exclusion : fracture numérique, inégalités de qualification, accès différencié à la formation, mais aussi perte de sens et désengagement.
Dans ce contexte, le dialogue social apparaît comme un levier décisif – mais encore largement sous-exploité.
Dans de nombreuses entreprises, les choix technologiques demeurent une prérogative de l’employeur, souvent justifiée par l’urgence ou la pression concurrentielle. Résultat : les salariés sont peu consultés, ce qui alimente incompréhension, tensions et dégradation du sens du travail.
Pourtant, les données sont claires. Selon les travaux évoqués par Yann Ferguson, un dialogue social de qualité permet non seulement une meilleure acceptabilité des projets d’IA, mais aussi une plus grande efficacité dans leur mise en œuvre.
En France, les premiers accords d’entreprise commencent à émerger, principalement centrés sur l’employabilité et les modalités de discussion autour de ces technologies. Mais ils abordent encore insuffisamment les conditions de travail, pourtant au cœur des préoccupations des salariés, pointe Yann Ferguson. Peu d’accords abordent concrètement l’impact de l’IA sur la charge de travail, la santé mentale ou l’organisation du travail.
Encadrer les usages, réguler le “shadow IA”, clarifier les responsabilités ou encore préserver les collectifs nécessitent une implication plus forte des représentants du personnel.
A défaut, les tensions pourraient se judiciariser : plusieurs décisions récentes ont déjà donné raison aux représentants du personnel face à des déploiements jugés insuffisamment concertés.
Autant d’enjeux qui confirment que l’intelligence artificielle constitue désormais un sujet RH à part entière.

Cet article provient du site Editions Législatives - ActuEL RH