Bombshell Research trouve qu’un nombre stupéfiant d’articles scientifiques a été généré par l’IA

 Bombshell Research trouve qu’un nombre stupéfiant d’articles scientifiques a été généré par l’IA


Comme tout écrivain humain merdique, les chatbots d’IA ont tendance à surmonter les mots spécifiques – et maintenant, les scientifiques utilisent cette propension à attraper leurs collègues lorsqu’ils l’utilisent secrètement dans leur travail.

Comme le New York Times rapports, Les scientifiques estiment, basé sur une analyse de ces termes surutilisés, qu’il pourrait déjà y avoir des centaines de milliers d’articles universitaires écrits avec l’aide de l’IA.

Dans une nouvelle étude publiée dans le journal Avancées scientifiquesLes chercheurs de l’Université allemand de Tübingen ont identifié quelque 454 mots que les modèles de grande langue (LLM) utilisent fréquemment – des termes comme «Garnered», «englobant» et «en plein essor» – et ont constaté que de 13,5 à 40% des résumés d’articles biomédicaux étaient entièrement écrits ou avec l’aide de l’IA.

Avec environ 1,5 million d’articles indexés chaque année dans la base de données de journal académique PubMed, cela signifie qu’au moins 200 000 de ces articles auraient pu être écrits avec l’aide de LLMS. Ce chiffre énorme peut, comme le NYT Notes, soyez conservateur lorsque vous comptez toute modification intentionnelle du texte généré par l’AI.

Alors que certains rédacteurs de journaux trompeurs prennent des problèmes pour cacher leur utilisation de l’IA, d’autres ne semblaient pas se soucier de qui savait. Dans un Exemple publié sur x Par l’informaticien de l’Arizona State University Subbarao Kambhampati, par exemple, les « écrivains » d’une revue de radiologie de faible qualité laissée dans une reconnaissance qu’elle avait été écrite par un chatbot.

« Je suis vraiment désolé », indique la citation de papier, « mais je n’ai pas accès à des données en temps réel ou à des données spécifiques au patient car je suis un modèle de langue IA. »

Toutes les erreurs ne seront pas si évidentes. À moins que vous ne connaissiez le terme « Réaction de régénération » – une option sur Chatgpt qui oblige le chatbot à retravailler une réponse de mauvaise qualité – vous pourriez facilement le manquer étant saupoudré dans des revues respectées, le blog Montre de rétraction trouvé en 2013.

Ce même blog a également signalé une débâcle frustrante impliquant un article sur les mille-pattes avec des références complètement inventées, qui était initialement retiré à partir d’un serveur pré-imprimé, seulement pour réapparaître en ligne sur une base de données académique différente avec ces mêmes sources hallucinées.

Et n’oublions pas le journal qui était obligé de rétracter un papier Après que les observateurs aient remarqué qu’il était rempli de non-sens, y compris une image générée par l’AI d’un rat avec des organes génitaux comiquement gigantesques.

Compliquant les choses, les universitaires prennent des problèmes pour cacher leur utilisation de l’IA. Comme Kambhampati l’a dit au NYTles universitaires ont même commencé à changer la façon dont ils écrivent afin que leur travail ne soit pas confondu avec l’IA, supprimant des termes comme « Delve » qui sont surutilisés par les LLM.

Dans le Avancées scientifiques L’article, les chercheurs de Tübingen offrent que toute cette IA utilise dans des revues universitaires, si elle est corroborée, pourrait être un « impact sans précédent sur l’écriture scientifique dans la recherche biomédicale, dépassant l’effet de grands événements mondiaux tels que la pandémie covide ».

À l’esprit du coauteur Dmitry Kobak, cependant, le tout semble contre-intuitif.

« Je penserais pour quelque chose d’aussi important que d’écrire un résumé de votre journal », a-t-il déclaré au NYT« Tu ne ferais pas ça. »

Plus sur l’IA: Openai dit qu’il a embauché un psychiatre médico-légal alors que ses utilisateurs continuent de glisser dans les crises en santé mentale



Source link

Related post