IA : votre futur manager ? Episode 6 - Syndicats et DRH ou comment négocier avec une boite noire
L’IA colonise le travail sans débat. DRH et syndicats peinent à encadrer un acteur devenu incontrôlable.

L’IA n’a pas attendu les syndicats pour s’installer dans l’entreprise. Ni les DRH. Elle est entrée par les navigateurs, les mails, les plateformes RH, les messageries. Aujourd’hui, elle est partout — sauf dans les accords collectifs.
AQUI continue son enquête sur la guerre des compétences, la fracture cognitive et le futur du travail augmenté.
IA : votre futur manager ? Episode 6 - Syndicats et DRH ou comment négocier avec une boite noire
Dans les précédents épisodes de notre série "IA : votre futur manager ?", nous avons montré comment l’IA s’est installée en douce dans les entreprises : d’abord par les usages individuels, puis en bousculant les métiers intermédiaires, en dopant les cadres, en modifiant les décisions, et en créant des tensions internes faute de gouvernance claire.
Vient maintenant le temps du dialogue social. Il arrive tard dans l'histoire. Peut-être trop tard.
Parce qu’entre-temps, l’IA a déjà colonisé le travail… sans jamais passer devant un seul CSE.
L’IA est déjà partout, mais hors de tout radar social
Le premier constat est implacable : l’IA générative est utilisée massivement dans les entreprises, mais sans cadre, sans règles, sans visibilité.
Le baromètre Parlons RH 2025 le montre sans ambiguïté : 83 % des professionnels RH utilisent déjà l’IA dans leur travail, souvent sans politique interne claire. À cela s’ajoute une donnée plus inquiétante encore : 70 % des entreprises françaises utilisent l’IA “dans l’ombre”, hors de tout cadre officiel.
Ce “shadow IA” englobe autant les salariés qui délèguent une partie de leurs tâches à ChatGPT que les managers qui font réécrire un entretien annuel ou produire une grille d’évaluation. Les outils RH intègrent de plus en plus l’IA en natif sans que l'on s’en préoccupe vraiment.
Peu de DRH demandent systématiquement : « Quel modèle est utilisé dans le raisonnement ? Quelle est la conformité RGPD ? Est-ce soumis au Cloud Act US ? » Et aucun syndicat ne peut exiger une transparence sur ce qu’il ne peut pas voir.
Dans l’épisode 1, nous écrivions que l’IA s’infiltrait “par le bas”. Nous pouvons désormais ajouter qu’elle s’infiltre aussi “par l’intérieur”, via des pratiques diffuses invisibles aux instances représentatives. Le dialogue social se retrouve ainsi dans une situation inédite : l’usage précède la régulation, et l’information circule hors des circuits habituels.
Au niveau national, l’entrée en vigueur de l’AI Act européen impose des obligations de transparence sur l’IA dans l’entreprise. Mais l’État avance à petits pas : aucune doctrine claire n’a encore été publiée par le ministère du Travail, et la plupart des organisations françaises n’ont pas anticipé ces exigences pourtant incontournables.
Les PME en région sont aussi concernées. Par exemple en Nouvelle-Aquitaine, nombre d’entreprises industrielles, vitivinicoles, nautiques ou tech (notamment autour de Bordeaux) automatisent déjà leurs processus sans véritable cadre social. Le paradoxe est saisissant : la région investit massivement dans l’IA, mais les mécanismes de régulation sociale n’ont pas suivi.
Les outils RH ne font pas exception
En 2025, la quasi-totalité des solutions RH intègrent l’IA, souvent sans que les entreprises en aient pleinement conscience.
Les outils RH intégrant de l’IA nativement
L’IA est partout : dans la rédaction d’une annonce, l’identification d’un talent, la gestion des compétences, l’engagement, la paie, l’onboarding… Autant d’usages souvent invisibles pour les salariés comme pour les partenaires sociaux.
Des modèles non explicables, donc non contestables
Le deuxième problème est technique, mais il devient immédiatement politique. Contrairement aux algorithmes décisionnels classiques, un modèle de langage IA n’a pas de logique interne lisible. C’est une machine statistique qui prédit la suite la plus probable. Cela rend impossible de produire une justification stable.
Marie Dollé, une référence sur le sujet de l’IA, explique très bien ce point dans ses analyses. Un LLM mélange dans un même espace le prompt utilisateur et les instructions système — une faille conceptuelle qui rend tout audit incomplet par nature.
C’est également pour cela que les attaques “prompt injection” restent si dangereuses : « Un attaquant peut cacher des instructions dans un lien, une pièce jointe, ou du texte invisible. »
Les modèles peuvent ainsi violer leurs propres règles sans que personne — pas même l’éditeur — ne puisse garantir l’origine exacte de la défaillance. C’est ce que Marie Dollé appelle la capacité des LLM à se tromper “avec une confiance absolue”.
Le droit du travail repose sur un principe clé : la motivation des actes. Un licenciement doit être justifié. Une promotion peut être contestée. Une évaluation peut être vérifiée. Avec l’IA, c’est impossible. Le droit du travail repose sur la notion de “motivation”. Or l’IA crée l’ère de la “décision sans auteur”. Un glissement explosif.
Les syndicats l'ont compris : comment contester une décision si on ne peut pas en comprendre le cheminement ? Comment demander les “éléments objectifs” quand l’outil lui-même ne peut pas les fournir ? Comment distinguer l’erreur humaine de l’erreur machine ?
C’est tout l’enjeu de la “boîte noire”. Et elle n’est pas seulement opaque par défaut : elle est opaque par nature.
Chez Orange, le dialogue social a déjà décroché. Les syndicats réclament l’application de l’accord de 2011 sur les “expérimentations en vue d’améliorer les conditions de travail” aux nouveaux outils IA déployés dans les centres d'appels : analyse automatique des conversations, notation algorithmique des conseillers, transcription des appels. La direction répond que cet accord ne s’applique pas, car il ne s’agirait pas d’expérimentations… ni d’amélioration des conditions de travail, mais de productivité. Autrement dit : on remplace les écoutes humaines par des scores IA, sans passer par la case négociation.
Un pouvoir diffus qui échappe à la négociation
La troisième difficulté est plus subtile. L’IA n’est pas seulement un outil. Elle devient une couche cognitive qui influence la manière dont on pense, travaille, écrit, décide.
Marie Dollé résume cela par un concept puissant : le “mundane power”, ce pouvoir discret qui s’exerce non par contrainte, mais par design.
« Quand l’environnement pense pour vous, vous finissez par penser comme l’environnement. Voilà comment le mundane power se propage : silencieusement. »
Or les assistants IA s’insèrent exactement dans ces espaces cognitifs : la rédaction de mails, la reformulation de décisions, l’analyse des situations, la priorisation des tâches, et la structuration du raisonnement.
Dans Microsoft 365, Teams, Google Workspace ou Slack, la présence d’un assistant n’est plus un choix : c’est une couche par défaut. L’IA ne conseille plus l’humain. Elle le précadre.
Ce glissement est majeur. Le dialogue social n’est pas outillé pour discuter non pas d’une technologie, mais d’un cadre mental embarqué dans des outils propriétaires.
« On n’exporte pas seulement un logiciel. On exporte un cadre mental complet. Pas "Made in USA", "Thinks like USA". »
Un syndicat peut négocier sur l'utilisation d'un outil. Il peut difficilement négocier sur un modèle culturel.
Le DRH, lui, se retrouve pris en sandwich : entre une direction qui déploie des outils pour gagner en efficacité et des salariés qui s’alignent progressivement sur les suggestions de l’IA.
Comment les emplois se reconfigurent plus vite que les classifications
Les classifications des conventions collectives se fondent sur des descriptions de postes relativement stables. Mais l’IA, elle, n’a aucune stabilité.
Les chiffres PwC montrent que les métiers les plus exposés à l’IA sont aussi ceux dont la demande augmente le plus : +273 % d’offres d’emploi depuis 2019. Indeed Hiring Lab confirme la même tendance : 46 % des compétences d’un job typique sont en “transformation hybride”, c’est-à-dire modifiées par l’IA. Ainsi, le contenu réel des métiers change plus vite que le droit du travail n’est capable de le décrire.
Les représentants du personnel se retrouvent face à des métiers où certaines tâches disparaissent, d’autres sont automatisées, de nouvelles compétences émergent, et la valeur ajoutée se déplace sans prévenir.
Cette instabilité complique tout : les grilles de classification, les négociations annuelles obligatoires, les avenants, la gestion des carrières, la GPEC, la formation.
Les DRH : pivots désignés, mais sans instruments
Le DRH devient le pivot de la transformation du travail. Mais c’est un pivot sans gouvernance, en porte-à-faux. Le paradoxe est que ce sont eux qu’on expose en première ligne sur un sujet que personne, dans l’entreprise, ne maîtrise vraiment.
Les enjeux qui pèsent aujourd’hui sur les managers et les ressources humaines sont multiples, et quasi impossibles à combiner au rythme actuel. Les DRH, déjà en surchauffe, doivent à la fois :
- sécuriser les usages de l’IA,
- garantir la conformité RGPD,
- rassurer les partenaires sociaux,
- accompagner les salariés dans la montée en compétence,
- intégrer l’IA dans les process métier,
- et structurer une politique d’utilisation cohérente.
Problème : moins d’un DRH sur deux a été formé à l'IA. Et 80 % d’entre eux identifient les risques de confidentialité comme critiques.
Exemple : la DRH d’une grande banque française déclarait en octobre 2025 : « Nous n’utilisons pas l’IA pour nos recrutements. » Elle oublie juste que LinkedIn, que ses équipes utilisent dans le processus de recrutement, est truffé d’IA nativement.
Le DRH devient donc responsable de technologies qu’il ne maîtrise pas, mis sous pression par des salariés qui les utilisent déjà et par des partenaires sociaux qui exigent des garanties impossibles à fournir. Le paradoxe est total.

Inventer un nouveau dialogue social pour un nouvel acteur du travail
L’IA est devenue un acteur du travail à part entière. Face à cette réalité, il ne reste qu’une option : refonder le dialogue social autour de la transparence, de la gouvernance et du droit à l’humain.
Rendre visible l’invisible
Inventer un nouveau dialogue social pour l’ère de l’IA commence par une exigence simple : rendre visible ce qui, aujourd’hui encore, se dissimule dans les usages quotidiens. Les entreprises devront mettre en place un véritable registre des usages de l’IA. Inspiré des pratiques du RGPD, il permet d’établir une cartographie précise des risques associés à chaque outil déployé.
À cela, s’ajoute la nécessité d’audits réguliers pour suivre l’activité des agents utilisés dans les workflows. McKinsey le rappelle : dès qu’on renonce à la mesure et à la traçabilité, les projets d’IA dévient de leur objectif initial. On ne pilote correctement que ce qu’on peut observer.
Protéger le droit à la justification humaine
Un principe doit rester intangible : aucune décision sensible ne peut être confiée intégralement à une machine. Évaluation de performance, sanction disciplinaire ou promotion doivent conserver une intervention humaine explicite, assumée et documentée. Le droit du travail repose sur la capacité à motiver les décisions.
Si l’IA devient un intermédiaire, il faut garantir que l’humain reste responsable — et identifiable — dans le processus. C’est une question de sécurité juridique, mais aussi de confiance collective.
Éduquer au doute
L’autre chantier, moins technique mais tout aussi décisif : former au raisonnement critique n’a jamais été aussi vital.
« Les modèles de langage ont une tendance naturelle à approuver, confirmer, rassurer. Le rôle des humains est d’apprendre à douter. »
C’est précisément cette compétence — le doute raisonné, l’examen minutieux des faits, la capacité à remettre en cause un texte “bien tourné” — qui devient indispensable dans les entreprises.
L’affaire Deloitte en Australie en est l’illustration parfaite. Fin 2024, le cabinet a été mandaté pour produire un rapport destiné au gouvernement australien. Problème : une grande partie du document a été générée par IA… sans relecture suffisante. Résultat : un rapport truffé d’erreurs factuelles, de copier-coller mal maîtrisés, de références bâclées. Un fiasco national, largement relayé par la presse australienne et internationale — et un rappel brutal que la qualité d’un document ne se juge ni à sa fluidité, ni à son apparente rigueur stylistique.
Ce scandale a révélé une faille béante : les juniors n’étaient pas équipés pour challenger la production de l’IA, trop confiants dans une prose ultra-propre et pseudo-experte. Les profils expérimentés, eux, identifient plus vite les incohérences, les approximations, les dérives. Leur expérience leur sert de garde-fou.
Dans les entreprises, la situation est identique. Les juniors s’appuient massivement sur les assistants IA pour gagner du temps, mais sans toujours en maîtriser les limites. À l’inverse, les seniors disposent d’un capital critique forgé par les années. Leur expérience leur permet de repérer l’amalgame, la conclusion trop rapide, la donnée ou la citation suspecte. C’est pourquoi “éduquer au doute” doit devenir une priorité managériale. Former à l’IA, oui, mais former surtout à ne pas s’y abandonner.
L’esprit critique, hier soft skill, devient désormais compétence stratégique. Et la qualité du travail dépendra demain de la capacité des organisations à le transmettre.
Redéfinir les rôles
Enfin, cette transformation impose de revoir la répartition des responsabilités. Le DRH, déjà désigné comme pivot de la transformation du travail, hérite d’une mission nouvelle : garantir la “compréhensibilité” du travail, veiller à ce que les outils restent interprétables, auditables, maîtrisables.
Les syndicats, de leur côté, voient émerger une fonction inédite : défendre le “droit à l’humain”. Non pas s’opposer à l’IA, mais exiger que chaque salarié puisse comprendre comment une décision a été produite, par qui, et avec quelle part humaine.
Un nouveau dialogue social ne consistera donc pas à discuter de l’IA comme d’un outil, mais à composer avec elle comme avec un acteur invisible, déjà pleinement intégré aux processus. La tâche est immense, mais elle conditionne la confiance future dans le travail.
Le travail change. Le dialogue social doit changer avec lui.
L’IA ne transforme pas seulement les tâches, les métiers ou les processus. Elle transforme le pouvoir : qui décide, comment, avec quelles justifications.
Dans les cinq premiers épisodes de cette série, nous avons décrit une révolution silencieuse. Dans celui-ci, nous examinons la pièce manquante : la négociation collective. Jusqu’ici, elle a été contournée par une technologie qui avance plus vite que les structures sociales censées la réguler.
Le défi, maintenant, est clair : reconstruire un dialogue social capable de discuter non seulement avec l’entreprise… mais aussi avec l’algorithme.
À lire aussi – IA : votre futur manager ?
Cette enquête fait partie de notre série “IA : votre futur manager ? – Dix enquêtes sur la révolution silencieuse qui redessine le travail”, publiée par AQUI.Media.
Déjà publié :
- Épisode 1 : Le choc silencieux – L’IA s’installe en douce dans vos open spaces
- Épisode 2 : La fin du job “moyen” ? – Quand l’IA efface les professions intermédiaires
- Épisode 3 : Cols blancs augmentés – Ceux qui domptent l’IA travaillent deux fois plus vite
- Épisode 4 : RH et recrutement - Quand l’IA trie les candidats
- Épisode 5 : La guerre des compétences – Ne pas “parler IA” devient un handicap mortel
Vous lisez actuellement :
- Épisode 6 : Syndicats et DRH – Comment négocier avec une boîte noire ?
À venir :
- Épisode 7 : Créativité vs intox – Génie sous stéroïdes ou fake news industrielles ?
- Épisode 8 : Burn-out de l’humain lent – Survivre au rythme imposé par la machine
- Épisode 9 : Les petites mains de l’IA – Derrière les algos, une armée d’ouvriers précaires
- Épisode 10 : Contrat social 2.0 ? – Taxer, réguler ou partager la valeur de l’IA
Mots-clés :
Par Jacques FROISSANT
Directeur de la publication
Bordelais, œnologue, tout allait bien… jusqu’à ce que je dérape dans l’entrepreneuriat RH pour les startups. 😉 Auteur et chroniqueur (L’Express, FrenchWeb, France 3 NOA...), je suis aujourd’hui cofondateur et rédacteur en chef d’AQUI.Media
Articles similaires

IA : votre futur manager ? Episode 6 - Syndicats et DRH ou comment négocier avec une boite noire
L’IA colonise le travail sans débat. DRH et syndicats peinent à encadrer un acteur devenu incontrôla...

SHEIN : un danger économique, sanitaire et sociétal — pour vous et vos entreprises ?
L’ouverture de SHEIN au BHV devait redorer son image ; elle révèle au contraire pourquoi c'est un mo...

French Tech Day Bordeaux 2025 : le 27 novembre, la tech régionale se donne rendez-vous
Le 27 novembre, Bordeaux accueille le French Tech Day 2025 : tout l’écosystème régional de l’innovat...

Le littoral aquitain, champion des locations Airbnb
De la côte basque à la Dordogne, la Nouvelle-Aquitaine domine Airbnb. Derrière les records de nuitée...

Innovaday 2025 : la deeptech néo-aquitaine passe à l’échelle
Innovaday 2025 s’impose comme le rendez-vous deeptech de Bordeaux : startups, investisseurs et innov...

French Tech Bordeaux : pourquoi la Nouvelle-Aquitaine est la grande oubliée du financement
Malgré un écosystème actif, de nombreux atouts, la French Tech de Nouvelle-Aquitaine ne produit pas ...