60% des gestionnaires utilisent l’IA pour prendre des décisions maintenant, y compris qui pour promouvoir et tirer – est-ce que le vôtre?
Un récent enquête De Resume Builder constate que la moitié des gestionnaires utilisent l’IA pour prendre des décisions cruciales concernant leurs rapports directs, y compris les employés promus – et lesquels sont licenciés.
L’enquête a interrogé 1 342 gestionnaires aux États-Unis, dont 60% ont déclaré s’appuyer sur l’IA pour prendre des décisions concernant leurs employés: 78% et 77% ont utilisé la technologie pour attribuer des augmentations et des promotions, respectivement, tandis que 66% et 64% l’ont utilisé pour déterminer les licenciements et les licenciements, respectivement.
Plus de 20% « ont fréquemment permis à l’IA de prendre des décisions finales sans contribution humaine », bien que la plupart des gestionnaires aient également déclaré qu’ils interviendraient si l’IA offrant une recommandation avec laquelle ils sont en désaccord.
Plus précisément, les gestionnaires ont déclaré avoir utilisé des outils d’IA pour une gamme de tâches liées à leurs rapports directs, notamment en créant du matériel de formation et des plans de développement des employés. Bien que 91% aient déclaré avoir utilisé la technologie pour évaluer les performances de leurs rapports, les questions d’enquête de CV Builder n’ont pas clarifié ce que ces évaluations impliquaient.
Près de la moitié (46%) des gestionnaires interrogés ont également été « chargés d’évaluer si l’IA peut remplacer leurs rapports », a noté le constructeur de CV. Parmi ceux-ci, 57% ont constaté que l’IA pouvait reprendre une position, et 43% sont allés de l’avant et ont remplacé un rôle humain par l’IA. Le constructeur de CV n’a pas fourni de détails sur les types de postes que les gestionnaires ont déclaré remplacer.
En ce qui concerne les outils d’IA les plus populaires parmi les gestionnaires, les personnes interrogées ont cité les suspects habituels: 53% Chatte le plus souvent, tandis que 29% optent pour Microsoft Copilot. Gémeaux avait environ 16% des voix et les 3% restants des gestionnaires utilisent Un autre outil.
L’enquête a également noté que les deux tiers de ceux qui utilisent l’IA pour gérer leurs rapports directs n’ont pas de formation formelle d’IA. Cependant, compte tenu de la rapidité avec laquelle les outils d’IA sont entrés dans les lieux de travail, il n’y a pas de normes convenues pour ce qu’est une formation adéquate – un problème exacerbé par un manque de réglementation continue.
Les auteurs du rapport ont mis en garde contre les risques d’utilisation de l’IA aveugle.
« Bien que l’IA puisse soutenir les idées basées sur les données, elle manque de contexte, d’empathie et de jugement », a déclaré le conseiller en chef de carrière du constructeur Stacie Haller dit dans le rapport. « Les organisations ont la responsabilité de mettre en œuvre l’éthique de l’IA pour éviter la responsabilité légale, de protéger leur culture et de maintenir la confiance des employés. »
Pourtant, ce que la mise en œuvre « éthique » signifie reste opaque. Le constructeur de CV ne comprenait aucune directive sur ce à quoi cela ressemble, et l’enquête a demandé aux gestionnaires de signaler leurs propres définitions ou instincts sur l’endroit où l’utilisation de l’IA pour gérer est plus ou moins appropriée.
Aussi: Claude d’Anthropic plonge dans l’analyse financière. Voici ce qui est nouveau
« L’utilisation éthique de l’IA dans la gestion aurait besoin d’une transparence radicale pour les employés, leur donnant une voix dans la prise de décision de quel système devrait être utilisé et montrant exactement pourquoi – et surtout, comment – ils sont évalués », Hilke Schellmann, expert en IA et auteur de « L’algorithme», a déclaré ZDNET.
Schellmann a ajouté que les employés devraient avoir un moyen de faire appel aux décisions prises par des algorithmes, en particulier lorsqu’ils peuvent être aussi conséquents qu’une mise à pied. « Honnêtement, la meilleure façon d’utiliser l’IA dans la gestion est d’utiliser des algorithmes qui aident les employés – et ne sont pas accessibles à la gestion », a-t-elle ajouté, « mais il ne semble pas y avoir d’appétit pour cela, du moins aux États-Unis. »
Éthique et controverse
Les outils d’IA ont devenir courant dans l’embauche et d’autres fonctions RH. L’enquête de CV Builder a révélé que la plupart des managers ont déclaré être encouragés par leur entreprise à gérer les rapports avec l’IA, qui se réfère le plus souvent à resserrer l’efficacité, à réduire les frais généraux et à évaluer les données plus rapidement.
Aussi: Les meilleurs cours et certificats d’IA gratuits en 2025 – et j’ai essayé beaucoup
Mais comme de nombreux critiques l’ont souligné, ces cas d’utilisation sensibles sont où les biais de l’IA peuvent être les plus dommageables. En 2021, New York City adopté la loi locale 144 Pour aborder les biais AI. L’une des premières lois du genre, elle exige que des outils de décision automatisés (AEDT) soient systématiquement vérifiés pour les biais – au moins une fois par an lorsqu’ils sont utilisés – et pour faire publier les résultats de cet audit.
Cependant, la loi a été critiqué Pour définir AEDT trop étroitement, permettant l’application et la conformité de la part des entreprises à diminuer.
Sans protection explicite des travailleurs ou des voies obligatoires pour que les employés appellent les résultats, l’utilisation de l’IA dans le personnel est essentiellement à la discrétion des entreprises individuelles. Les régulateurs pourraient porter leur attention vers ce cas d’utilisation de l’IA en créant des exigences et des processus de transparence plus robustes auxquels les entreprises doivent respecter s’ils utilisent des outils d’IA de manière à avoir un impact sur les employés.
Problèmes de confidentialité
Un 2023 papier De la Society for Human Resource Management (SHRM) note que les employés devraient avoir le droit de savoir quand et comment l’IA est utilisé, poser des questions et se retirer le cas échéant – quelque chose que la loi locale 144 a également besoin, en particulier de l’embauche. On ne sait pas combien de gestionnaires interrogés, le cas échéant, ont informé leurs rapports de leur utilisation de l’IA.
Aussi: Votre IA générative protège-t-elle votre vie privée? La nouvelle étude les classe mieux au pire
L’enquête CV Builder n’a pas posé de questions concernant les gestionnaires d’information partagés avec des outils d’IA sur leurs rapports directs. Si les gestionnaires incluent les détails de performance, le salaire et d’autres données potentiellement sensibles avec les chatbots, en particulier sans le consentement des employés, ils pourraient être Créer un grave problème de confidentialité que les employés n’ont pas le contrôle.
Comment les employés peuvent plaider pour eux-mêmes
Que peuvent faire les employés s’ils sont préoccupés par les décisions générées par l’AIA affectant l’avenir de leur rôle? Cela dépend de la façon dont l’IA est utilisée sur eux.
Aussi: Ne soyez pas dupe de penser que l’IA vient pour votre travail – voici la vérité
« Nous voyons l’IA utilisée pour de plus en plus de surveillance des employés, en commençant par les travailleurs horaires à des cols blancs », a souligné Schellmann. « Je dirais que les travailleurs se regroupent et travaillent avec leurs syndicats et écrivent dans leurs accords de négociation selon lesquels la technologie de surveillance doit être divulguée et a besoin de co-décision avec des représentants du syndicat. »
Au-delà de la surveillance, les employés devraient demander à leurs gestionnaires, le cas échéant, pour la transparence sur la façon dont les outils d’IA sont utilisés – bien que les normes autour des commentaires et comment les gestionnaires tirent des conclusions même sans les outils d’IA peuvent rendre cela difficile à naviguer.
Vous voulez plus d’histoires sur l’IA? Inscrivez-vous à l’innovationnotre newsletter hebdomadaire.
