Seniors dehors, IA dedans : le grand impensé des plans de transformation


Chronique

Confrontées à un environnement économique toujours plus incertain et à une conjoncture sans doute durablement dégradée par les tensions internationales, les grandes entreprises ont tendance à accélérer leurs restructurations. Ces plans de transformation continuent de faire la part belle aux dispositifs de départs anticipés des “seniors”, qui ont le double avantage d’être indolores sur le plan social (quand ils ne sont pas réclamés par les salariés et leurs représentants) et d’embellir immédiatement les ratios comptables scrutés par les investisseurs. En dépit des réformes des retraites successives, les dispositifs de départs négociés dans les grandes entreprises continuent de cibler de manière préférentielle les cadres et professions intermédiaires dans la tranche 55-62 ans.

Ce n’est pas une nouveauté, mais ce qui l’est davantage, c’est la coïncidence entre cette pression sur les seniors et l’accélération des investissements dans les technologies d’IA dans les mêmes filières métiers. Les annonces se sont succédé à un rythme soutenu depuis un an : généralisation de Copilot ou d’outils équivalents dans les fonctions juridiques, financières, RH, achats et stratégie des grands groupes ; programmes de “transformation par l’IA” inscrits dans les plans stratégiques à trois ans ; budgets technologiques en forte hausse pour développer des agents métiers susceptibles d’automatiser des tâches au moment même où les effectifs de cadres expérimentés sont comprimés. Car les fonctions visées par ces déploiements sont aussi celles dont les effectifs seniors partent par la porte de sortie des plans de départs volontaires et autres RCC.

Cet effet de ciseau est rarement regardé en face, non par mauvaise foi mais parce que les deux sujets relèvent de circuits de décision distincts : les départs seniors sont gérés par les DRH dans le cadre des plans de transformation ; les investissements IA sont portés par les DSI et les directions métier dans le cadre des budgets technologiques et des orientations stratégiques.

Derrière ce double mouvement, il y a une hypothèse que personne ne formule parce qu’elle ne résisterait pas longtemps à l’examen : l’expertise accumulée par les cadres seniors serait en voie d’obsolescence, et l’IA viendrait opportunément la remplacer. Cette hypothèse est commode : sur le papier, elle réconcilie la logique financière des réorganisations avec la logique technologique des déploiements. Elle n’en est pas moins fausse, et la recherche le montre avec une constance croissante.

Les travaux les plus sérieux sur les conditions réelles de performance des systèmes d’IA en entreprise – ceux du MIT, du National Bureau of Economic Research, de l’OCDE ou du LaborIA en France – convergent sur un point que les vendeurs de plateformes ont tout intérêt à minorer : la valeur produite par un système d’IA dans un contexte professionnel dépend étroitement de la capacité de ses utilisateurs à formuler des requêtes, à évaluer la qualité des outputs, à détecter les erreurs et les biais, et à intégrer les résultats dans un raisonnement qui reste humain. Ces capacités ne sont pas génériques. Elles sont liées à des savoir-faire de métier. Elles s’acquièrent dans la durée. Elles sont ce que l’on appelle les savoirs issus de l’expérience.

La distinction entre travail prescrit et travail réel, centrale dans la tradition ergonomique, prend ici une résonance particulière. Les spécifications fonctionnelles d’un système d’IA décrivent le travail tel qu’on l’imagine. L’expertise des utilisateurs expérimentés est la connaissance du travail tel qu’il est : dans sa complexité, ses exceptions, ses ajustements tacites et ses contradictions. Confier à un système IA des tâches dont on a préalablement évacué les porteurs de la connaissance pratique, c’est construire sur du vide.

Ce que les pionniers de la négociation sur l’IA ont compris

Il est instructif de regarder ce que contiennent les premiers accords d’entreprise sur l’IA conclus en France depuis 2023-2024. Leur portée opérationnelle reste à évaluer dans la durée, mais leur contenu est révélateur de ce que les entreprises qui ont pris ce sujet au sérieux ont été contraintes de reconnaître. Plusieurs comportent des dispositions explicites sur le maintien de compétences humaines dans les périmètres où l’IA est déployée, non pas comme concession syndicale, mais comme condition de performance assumée par le management. La question de l’expertise senior n’y est pas formellement nommée (ce serait sans doute politiquement délicat), mais elle est présente en filigrane dès lors qu’on s’interroge sur qui, dans l’organisation, détient les connaissances métier permettant de piloter, corriger et valider les outputs des systèmes IA.

Il y a un risque opérationnel dans tout cela que les décisions RH et les décisions d’investissement technologique prennent rarement en compte simultanément. Ce risque est plus précis qu’une simple “perte de mémoire organisationnelle” (argument souvent évoqué mais rarement quantifié, ce qui lui ôte une bonne partie de sa force de conviction dans les Codir). C’est le risque de déployer des systèmes d’IA à des coûts substantiels dans des fonctions dont on a préalablement appauvri le capital cognitif, et de constater, deux ou trois ans plus tard, que ces systèmes n’ont pas produit les gains de productivité attendus. Non parce que la technologie ne fonctionnait pas, mais parce que les équipes n’avaient plus les moyens de l’exploiter correctement.

Ce scénario est documenté dans les analyses des échecs de transformation numérique des décennies précédentes. Les implémentations de progiciels intégrés dans les années 2000-2010 ont produit, dans un nombre significatif de cas, des résultats décevants pour une raison similaire : non pas la défaillance technique du système, mais l’incapacité de l’organisation à mobiliser les compétences nécessaires pour s’en saisir. L’IA générative n’échappe pas à cette logique : elle y est même plus exposée, dans la mesure où la qualité de ses outputs dépend encore plus directement de la qualité des interactions humaines qui les encadrent. Le Budget Lab de Yale et plusieurs économistes du MIT ont commencé à documenter ce qu’on pourrait appeler le retour sur investissement conditionnel des technologies d’IA : les gains de productivité sont réels, mais fortement concentrés dans les organisations qui disposent d’un socle de compétences métier élevé.

La question que les Codir ne posent pas encore

La logique financière du double mouvement “seniors dehors, IA dedans” a sa rationalité propre. Ce qui en est absent, c’est l’horizon temporel. Même coûteuse en indemnités, la réduction de masse salariale permise par des plans de départ “seniors” produit un payback comptable en moins de 18 mois. La dégradation du capital cognitif de l’organisation produit ses effets sur la durée, de manière diffuse, dans des termes qui ne figurent pas dans les tableaux de bord standard. Le coût d’un déploiement d’IA sous-performant parce que les équipes manquent de l’expertise nécessaire ne s’impute pas sur le même compte que les économies réalisées sur les salaires des cadres partis avec un chèque d’indemnités. Il se noie dans les indicateurs de productivité globale, dans les délais de projets, dans les erreurs non détectées, autant de signaux faibles que les organisations en transformation attribuent aux difficultés de l’implémentation plutôt qu’à des choix RH pris trois ou quatre ans plus tôt.

C’est peut-être là le vrai impensé : non que les entreprises ne voient pas la contradiction, mais qu’elles ne disposent pas des outils de mesure ni des circuits de décision permettant de mettre en regard les deux faces de ce choix. Le dialogue social pourrait-il être d’un secours dans cette optique ? L’obligation de négocier un accord dédié sur l’emploi des salariés expérimentés s’applique désormais aux entreprises d’au moins 300 salariés. L’obligation d’information-consultation des IRP sur les projets de déploiement d’IA susceptibles d’affecter les conditions de travail s’impose à un périmètre croissant d’organisations. Ces deux obligations coexistent dans le même espace juridique et social sans qu’on sache encore bien les articuler : les directions RH et les DSI ne parlent généralement pas le même langage sur les compétences, et les négociateurs qui signent les accords ne sont pas ceux qui pilotent les feuilles de route IA. A-t-on posé, dans un seul Codir de grande entreprise française, la question de la cohérence entre le plan de départs volontaires en cours de négociation et la feuille de route IA engagée par la direction des systèmes d’information ? Si oui, avec quels outils d’analyse ? Si non, pourquoi ?

Visuel réduit: 
Visibilite: 
publique
Signature: 
Olivier Mériaux, Plein Sens
Supports de diffusion: 
Olivier Mériaux, directeur des études et synthèses au sein du cabinet Plein Sens, livrera régulièrement ses analyses sur les enjeux liés à l’intelligence artificielle en matière d’emploi et de conditions de travail. Dans cette première chronique, il souligne la contradiction entre les réflexions menées au sein des entreprises sur l’intelligence artificielle et les pratiques visant à se séparer des salariés seniors pourtant les plus à même de mettre au service de l’IA leur expertise.
Profile Chroniqueur: 
Olivier Mériaux
Cacher le visuel principal ?: 
Non
Type de produit: 
Produit d’origine: 
Auteur extérieur: 
Application immédiate: 

Cet article provient du site Editions Législatives - ActuEL RH