L’utilisation de l’intelligence artificielle ne justifie pas automatiquement une expertise du CSE


A la une

L’affaire se déroule au sein de l’Association française contre les myopathies (AFM). Le 9 septembre 2025, le CSE du siège est réuni sur la base d’un ordre du jour prévoyant notamment une “Information/consultation sur le projet de déploiement de Copilot 365 (IA)”. Estimant que ce projet constitue un projet important modifiant les conditions de santé et de sécurité ou les conditions de travail au sens de l’article L.2315-94 du code du travail, les élus votent une expertise.

Sans attendre, la direction de l’AFM décide de porter l’affaire en justice en vue d’obtenir l’annulation de la délibération du CSE par le tribunal judiciaire de Paris.

La position de l’employeur

L’employeur estime que le CSE ne faisait état d’aucun élément “précis et concret” permettant d’établir qu’il s’agissait bien d’un projet important modifiant significativement les conditions de santé et de sécurité ou les conditions de travail”. Sur le fond, l’entreprise met en avant le fait que le projet Copilot Chat proposé par Microsoft consistait seulement en la création d’un service d’agent conversationnel depuis Copilot 365 sans conséquences sur l’organisation du travail. Il s’agissait, selon elle, d’une “simple modernisation des moyens déjà existants, facilitant les tâches existantes sans les remplacer”.

La position du CSE

Le CSE estime pour sa part que sa délibération est correctement motivée, “en ce qu’elle mentionne le projet important au sens de l’article L.2315-94 du code du travail, le sujet de l’expertise, le caractère collectif du projet, la modification sensible des conditions de travail”.

Sur le fond, il fait notamment valoir que l’utilisation de Copilot 365 pour réaliser des tâches relevant des fonctions des salariés aura des incidences concrètes sur leurs conditions de travail, notamment les méthodes de travail. Selon lui, “le fait de pouvoir déléguer une partie de son travail est une modification importante des conditions de travail des salariés”. Il pointe également du doigt l’absence d’évaluation par l’AFM permettant d’écarter les risques psychosociaux générés par l’utilisation de l’IA.

L’AFM obtient gain de cause.

La décision des juges

Comme le rappelle le tribunal judiciaire de Paris dans sa décision du 10 février 2026, pour être qualifié de projet important, “un projet (…) ne doit pas seulement concerner quantitativement un nombre significatif de salariés”. Il “doit également conduire qualitativement à des modifications déterminantes et significatives des conditions de travail (…) concernant les caractéristiques des postes de travail, l’environnement des postes de travail ainsi que l’organisation et le contenu du travail”.

Or, d’après les éléments retenus par les juges :

  • le “projet de déploiement de copilot 365 (IA)” consistait uniquement en un accompagnement à l’utilisation de Copilot Chat, fonctionnalité déjà intégrée aux licences Microsoft 365 installées sur les postes de travail. Même si l’outil était accessible à l’ensemble des salariés de l’AFM, son utilisation reposait exclusivement sur le volontariat ;
  • en ce qui concerne les impacts sur la santé, le CSE se contentait d’observations générales liées à l’utilisation des outils d’IA, telles que la disqualification, la disparition de postes ou encore l’intensification du travail. Il n’avait fait état d’aucun “impact précis et objectif propre au déploiement de l’outil au sein de l’AFM, d’aucun poste de travail précis ou d’organisation du travail spécifique qui s’en trouverait modifié” ; 
  • le projet de déploiement de Copilot 365 ne consistait qu’en une expérimentation de quatre mois, basée sur le volontariat, qui n’était pas conçue comme devant être mise en œuvre dans le cadre de tâches précises ou sur des postes de travail spécifiques. A la fin de cette période, un bilan devait être établi en vue de réfléchir aux prochaines étapes, qui n’étaient pas encore définies à ce stade.

Si pour le CSE l’intensification du travail était automatiquement source de risques psychosociaux, le tribunal judiciaire estime au contraire qu’une augmentation de la productivité ne peut être considérée en soi comme étant génératrice de risques pour la santé et la sécurité des salariés.

Les juges estiment ainsi que le CSE n’établissait pas que ce projet était important “ni quantitativement, ni qualitativement” dans la mesure où il reposait sur le volontariat et “sur des choix individuels des usages qui seront fait de l’outil”. Il n’établissait pas d’impact sur les conditions de travail, qui à ce stade restait très limité. Ce qui justifie l’annulation de la délibération du CSE d’établissement de l’AMF.

Visuel réduit: 
Visibilite: 
privé
Signature: 
Frédéric Aouate
Supports de diffusion: 
Getty
Le déploiement expérimental d’un agent conversationnel d’intelligence artificielle ne constitue pas nécessairement un projet important justifiant le recours à une expertise. Tel est le sens d’un jugement du tribunal judiciaire de Paris du 10 février 2026.
Cacher le visuel principal ?: 
Non
Type de produit: 
Produit d’origine: 
Auteur extérieur: 
Thème d’origine: 
Application immédiate: 
Clone parent: 
931 572

Cet article provient du site Editions Législatives - ActuEL RH