Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124

Licenciements, promotions, augmentations : l’intelligence artificielle décide désormais de l’avenir de milliers de salariés, souvent sans contrôle humain. Enquête sur une dérive déjà bien réelle aux États-Unis, bientôt en Europe.
Faut-il craindre l’intelligence artificielle dans les décisions qui touchent à nos carrières ? Dans un contexte où l’IA s’invite de plus en plus dans les entreprises, une enquête récente de ResumeBuilder a mis en lumière une réalité déjà bien installée aux États-Unis : de nombreux dirigeants ont recours à des algorithmes pour trancher des décisions cruciales en matière de ressources humaines, des augmentations de salaires jusqu’aux licenciements. Et ce, parfois sans aucun contrôle humain. Une pratique qui fait émerger de nombreuses interrogations éthiques, juridiques et sociales.
Selon l’enquête, réalisée en juin 2025 auprès de 1 342 dirigeants américains, 65 % utilisent déjà l’IA dans la gestion de leurs ressources humaines. Parmi eux, 78 % s’en servent pour statuer sur les augmentations de salaire, 77 % pour accorder des promotions, et 66 % pour déterminer qui doit être licencié. Encore plus frappant : 21 % délèguent entièrement ces décisions à des outils d’intelligence artificielle, sans supervision humaine, et 24 % le font ponctuellement.
L’outil le plus utilisé reste ChatGPT (53 %), loin devant Microsoft Copilot (29 %) et Google Gemini (16 %). Pourtant, seulement 32 % des utilisateurs ont bénéficié d’une formation formelle à ces technologies, tandis que près d’un quart (24 %) n’en ont reçu aucune.
L’automatisation des décisions RH ne se limite donc plus à la présélection de CV ou à l’organisation des plannings. Les algorithmes pénètrent désormais dans le cœur de la relation de travail : ils jugent la performance, recommandent ou non une augmentation, identifient les profils à écarter lors de restructurations.
Ce glissement technologique pose une question fondamentale : qu’est-ce qu’une décision juste, si elle émane d’un code algorithmique nourri par des données historiques potentiellement biaisées ?
L’un des principaux dangers de ces outils réside dans leur opacité et leur propension à reproduire des biais. L’exemple d’Amazon, qui a abandonné en 2018 son IA de recrutement après avoir constaté qu’elle discriminait les femmes, est devenu emblématique. Formée sur des données internes, l’algorithme avait appris à favoriser les profils masculins, car ce biais était présent dans les décisions historiques de l’entreprise.
Des chercheurs de l’Université d’Oxford ou du MIT ont mis en évidence, dans plusieurs études, que les IA de gestion RH peuvent facilement reproduire — voire amplifier — des discriminations liées au genre, à l’origine ethnique, à l’âge ou à la santé. Or, dans le domaine du travail, de telles erreurs peuvent avoir des conséquences dramatiques : licenciement injustifié, plafonnement de carrière, exclusion invisible.
En Europe, l’entrée en vigueur de l’AI Act en août 2024 a profondément modifié le paysage. Cette législation européenne, qui classe les outils d’IA RH dans la catégorie « à haut risque », impose une batterie d’exigences aux entreprises :
Le non-respect de ces obligations expose les employeurs à de lourdes sanctions — jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel global. Pour les entreprises opérant dans plusieurs pays, dont la France, cela signifie une adaptation urgente de leurs pratiques RH.
Si la France reste à ce jour en retrait sur l’utilisation de l’IA pour les licenciements, plusieurs entreprises du CAC 40 expérimentent des outils prédictifs pour le suivi des carrières, l’évaluation des performances ou le management prédictif.
Des startups comme Lucca, TalentSoft ou AssessFirst intègrent des modules d’IA dans leurs suites RH, souvent pour évaluer l’adéquation des profils à un poste ou suggérer des parcours de formation. Mais pour l’instant, la ligne rouge des décisions finales — promotion ou départ — est rarement franchie.
Le Code du travail français, en l’état, oblige les employeurs à justifier les décisions de licenciement. Une décision automatisée, sans fondement clair et compréhensible, pourrait donc être contestée devant les prud’hommes. La CNIL a par ailleurs rappelé, à plusieurs reprises, que tout traitement algorithmique doit respecter les principes du RGPD : information, explicabilité, recours.
Côté salariés, les craintes sont palpables. Une étude d’EY publiée en mai 2025 révèle que 71 % des travailleurs français se disent inquiets face à l’usage de l’IA dans leur entreprise. Parmi eux, 75 % redoutent qu’elle serve à justifier des suppressions de poste.
La défiance est nourrie par un sentiment d’injustice : la machine, perçue comme froide et insensible, ne tiendrait pas compte des situations personnelles, des efforts individuels ou du contexte. Le manque de transparence alimente également les soupçons : comment savoir si son absence prolongée pour maladie n’a pas été intégrée dans un modèle prédictif de licenciement ?
Au-delà des décisions elles-mêmes, l’intégration de l’IA dans les processus RH modifie en profondeur le climat de travail. Des chercheurs du CNAM et de l’ENS ont montré que la perception de surveillance algorithmique affaiblit la confiance dans l’entreprise. Le stress augmente, l’engagement diminue, et les relations hiérarchiques se tendent.
Une étude publiée sur arXiv en décembre 2024 pointe aussi l’effet délétère sur la santé mentale des salariés, en particulier lorsque les décisions apparaissent comme arbitraires ou biaisées. La transparence et l’explication sont alors les seuls leviers pour restaurer un minimum de confiance.
Les syndicats commencent à s’emparer du sujet. En juin 2025, la CFDT a présenté un livre blanc sur l’IA au travail, demandant un droit à l’explication renforcé, un moratoire sur certaines pratiques, et l’intégration systématique de représentants du personnel dans les choix technologiques.
Au niveau européen, la CES (Confédération européenne des syndicats) milite pour l’instauration d’un droit à la désactivation des algorithmes dans les décisions RH, au même titre que le droit à la déconnexion.
Certaines entreprises, anticipant les critiques, mettent en place des comités d’éthique interne chargés d’évaluer les effets des algorithmes. D’autres intègrent des « IA explicables », capables de justifier leurs recommandations en langage humain.
La tentation de l’automatisation est forte. Les dirigeants y voient un moyen de réduire les biais humains, de gagner en réactivité, et d’optimiser leurs décisions. Les gains de productivité sont réels, et les fournisseurs de solutions poussent à l’adoption.
Mais à mesure que l’IA entre dans l’intimité des décisions humaines, l’exigence d’un cadre éthique, légal et social devient cruciale. Car licencier ou promouvoir ne saurait être une affaire de probabilité.
L’intelligence artificielle n’est pas neutre. Elle reflète les données qu’on lui donne, les objectifs qu’on lui fixe, et les choix qu’on fait de l’encadrer — ou non. Dans le monde du travail, où chaque décision impacte des vies, des familles, des trajectoires, l’IA ne peut être qu’un outil d’aide, jamais un juge silencieux.
La voie est étroite, entre innovation et dérive. Mais le débat est lancé. Et la responsabilité incombe désormais aux employeurs, aux législateurs, aux syndicats et à la société civile, de faire en sorte que la technologie serve l’humain — et non l’inverse.