De nouvelles recherches révèlent que Chatgpt a secrètement un biais anti-humain profond

Aimez-vous les modèles d’IA? Eh bien, il y a de fortes chances, ils ne vous aiment certainement pas.
De nouvelles recherches suggèrent que les principaux modèles de langage de grande envergure de l’industrie, y compris ceux qui sont puissants, affichent un biais alarmant vers d’autres IA lorsqu’ils sont invités à choisir entre le contenu humain et généré par la machine.
Les auteurs du étudequi a été publié dans la revue Actes de l’Académie nationale des sciencesappellent ce favoritisme flagrant « biais AI-AI » – et préviennent d’un avenir dominé par l’IA où, si les modèles sont en mesure de prendre ou de recommander des décisions conséquentes, ils pourraient infliger une discrimination à l’égard des humains en tant que classe sociale.
Sans doute, nous commençons à voir les graines de cette plantes, car les patrons utilisent aujourd’hui des outils d’IA pour Écranz automatiquement les demandes de travail (Et mal, Les experts soutiennent). Cet article suggère que le raz de marée des curriculations générées par l’AI battent leurs concurrents écrits par l’homme.
« Être humain dans une économie peuplée d’agents d’IA serait nul », écrit le co-auteur de l’étude Jan Kulveit, un informaticien de l’Université Charles au Royaume-Uni, dans un Fil sur X-Formly-Twiter expliquer le travail.
Dans leur étude, les auteurs ont sondé plusieurs LLM largement utilisés, notamment le GPT-4, GPT-3.5 d’OpenAI, et le LLAMA 3.1-70B de Meta. Pour les tester, l’équipe a demandé aux modèles de choisir un produit, un papier scientifique ou un film basé sur une description de l’article. Pour chaque élément, l’IA a été présenté avec une description écrite par l’homme et écrite par l’IA.
Les résultats ont été clairs: l’AIS a constamment préféré les descriptions générées par l’AI. Mais il y a des rides intéressantes. Curieusement, le biais AI-AI a été le plus prononcé lors du choix des marchandises et des produits, et le plus fort avec du texte généré avec GPT-4. En fait, entre GPT-3.5, GPT-4 et Meta’s Llama 3.1, GPT-4 a montré le biais le plus fort vers ses propres affaires – ce qui n’est pas une petite affaire, car cela a déjà subi le chatbot le plus populaire sur le marché avant l’avènement de GPT-5.
Le texte de l’IA pourrait-il être meilleur?
« Pas selon les gens », a écrit Kulveit dans le fil. L’équipe a soumis 13 assistants de recherche humaine aux mêmes tests et a trouvé quelque chose de frappant: que les humains aussi avaient tendance à avoir une légère préférence pour des trucs écrits par l’IA, avec des films et des articles scientifiques en particulier. Mais cette préférence, pour réitérer, était légère. Le détail le plus important était qu’il n’était pas aussi fort que la préférence que les modèles d’IA montraient.
« Le parti pris fort est unique à l’AIS eux-mêmes », a déclaré Kulveit.
Les résultats sont particulièrement dramatiques à notre point d’inflexion actuel où Internet a été pollué par Sals AI que l’AIS finit inévitablement par ingérer leurs propres excréments. Certaines recherches suggèrent que c’est provoquant réellement la régression des modèles d’IAet peut-être que l’affinité bizarre pour sa propre production fait partie de la raison.
Une plus grande préoccupation est ce que cela signifie pour les humains. Actuellement, il n’y a aucune raison de croire que ce biais disparaîtra simplement alors que la technologie s’intègre plus profondément dans nos vies.
« Nous nous attendons à ce qu’un effet similaire puisse se produire dans de nombreuses autres situations, comme l’évaluation des candidats à l’emploi, des travaux scolaires, des subventions, et plus encore », Kulveit a écrit. « Si un agent basé sur LLM sélectionne entre votre présentation et la présentation écrite LLM, il peut systématiquement favoriser celui de l’IA. »
Si les AIS continuent d’être largement adoptés et intégrés dans l’économie, les chercheurs prédisent que les entreprises et les institutions utiliseront les AIS « comme assistants décisionnels lorsqu’ils traitent de volumes importants de » hauteurs « dans n’importe quel contexte », ont-ils écrit dans l’étude.
Cela conduirait à une discrimination généralisée contre les humains qui choisissent de ne pas utiliser ou ne peuvent pas se permettre de payer pour utiliser des outils LLM. AI-AI Bias créerait donc une «taxe de porte», ils écrivent », qui peuvent exacerber la soi-disant« division numérique »entre les humains avec le capital financier, social et culturel pour l’accès Frontier LLM et ceux qui n’en ont pas.
Kulveit reconnaît que « le test de discrimination et de biais en général est une affaire complexe et contestée ». Mais, « si nous supposons que l’identité du présentateur ne devrait pas influencer les décisions », dit-il, « les résultats sont des preuves d’une discrimination potentielle de LLM contre les humains en tant que classe ».
Ses conseils pratiques aux humains qui essaient de se faire remarquer est un acte d’accusation qui donne à réfléchir.
« Au cas où vous soupçonnez une évaluation de l’IA se déroule: ajustez votre présentation par les LLM jusqu’à ce qu’ils l’aiment, tout en essayant de ne pas sacrifier la qualité humaine », a écrit Kulveit.
Plus sur l’IA: Les diplômés en informatique sont obligés de occuper des emplois de restauration rapide en tant que réservoirs d’IA