Les patrons utilisent l’IA pour décider qui tirer

 Les patrons utilisent l’IA pour décider qui tirer


Bien que la plupart des signes nous disent que l’intelligence artificielle ne prend personne, les employeurs utilisent toujours la technologie pour Justifier les licenciements, externaliser les travaux dans le Sud mondialet effrayer les travailleurs à la soumission. Mais ce n’est pas tout – un nombre croissant d’employeurs utilisent l’IA non seulement comme excuse pour réduire la taille, mais lui donnent le dernier mot dans qui est hache.

C’est selon un Enquête auprès de 1 342 gestionnaires par ResumeBuilder.com, qui gère un blog dédié aux RH. Parmi les personnes interrogées, 6 sur 10 ont admis consulter un modèle de langue large (LLM) lors de la décision des principales décisions RH affectant leurs employés.

Selon le rapport, 78% ont déclaré avoir consulté un chatbot pour décider d’accorder une augmentation d’un employé, tandis que 77% ont déclaré l’avoir utilisé pour déterminer les promotions.

Et un stupéfiant 66% a déclaré qu’un LLM comme Chatgpt les avait aidés à prendre des décisions sur les licenciements; 64% ont déclaré qu’ils avaient tourné vers l’IA pour obtenir des conseils sur les licenciements.

Pour rendre les choses plus dérangeantes, l’enquête a enregistré que près de 1 managers sur 5 permettait fréquemment à leur LLM de disposer des décisions finales – sans contribution humaine.

Plus de la moitié des managers de l’enquête ont utilisé Chatgpt, avec le copilote de Microsoft et les Gémeaux de Google en deuxième et troisième, respectivement.

Les nombres peignent une image sombre, surtout si l’on considère le problème de la sycophance LLM – un problème où les LLM génèrent des réponses flatteuses qui renforcent les prédispositions de leur utilisateur. Le chatpt d’Openai est célèbre pour son nez brun, à tel point qu’il a été contraint de résoudre le problème avec une mise à jour spéciale.

La sycophance est une question particulièrement flagrante si Chatgpt seul prend la décision qui pourrait bouleverser les moyens de subsistance de quelqu’un. Considérez le scénario où un manager cherche une excuse pour licencier un employé, permettant à un LLM de confirmer ses notions antérieures et de passer efficacement la masse sur le chatbot.

AI Brownnosing a déjà des conséquences sociales dévastatrices. Par exemple, certaines personnes qui ont être convaincu Que les LLM sont vraiment sensibles – ce qui pourrait avoir quelque chose à voir avec la marque « Intelligence artificielle » – ont développé ce qu’on appelle « Psychose de chatte. « 

Les gens consommés par le chatgpt ont connu Crises de santé mentale sévèrescaractérisé par des pauses délirantes de la réalité. Bien que Chatgpt ne soit sur le marché que depuis un peu moins de trois ans, il est déjà blâmé d’avoir provoqué des divorces, une perte d’emploi, un sans-abrisme et, dans certains cas, engagement involontaire dans les établissements de soins psychiatriques.

Et c’est tout sans mentionner le talent de LLMS pour hallucinations – Un problème pas si minère où les chatbots crachent du charabia informé afin de fournir une réponse, même si c’est totalement faux. À mesure que les chatbots LLM consomment plus de données, ils deviennent également plus sujet À ces hallucinations, ce qui signifie que le problème ne fera probablement que s’aggraver au fil du temps.

En ce qui concerne les choix potentiellement qui changent la vie comme qui tirer et qui pour promouvoir, vous feriez mieux de faire du dés – et Contrairement aux LLMau moins vous saurez les chances.

Plus sur les LLMS: Openai admet que son nouveau modèle hallumine encore plus d’un tiers du temps



Source link

Related post