SPAMGPT: Affiche des modèles de grande langue

 SPAMGPT: Affiche des modèles de grande langue

Les modèles de grandes langues (LLM) peuvent désormais générer du texte difficile à distinguer du texte écrit sur l’homme. Cela signifie qu’ils peuvent générer du spam. Voici comment les chercheurs prévoient de faire face à ce problème.

Ted Chiang est un écrivain qui préfère la qualité de la quantité. Il n’a pas écrit autant au fil des ans (comme nous!), Mais a reçu de nombreux prix et a fait de ses histoires un film à succès, Arrivée. Ted a un flux fort et stable, comme vous pouvez vous vérifier en lisant Tour de BabylonePar exemple. Récemment, il a écrit Un article sur Chatgpt. C’est une bonne introduction de haut niveau au sujet et mérite d’être lu pour l’histoire du photocopieur allemand de Xerox seul.

Chiang fait un point intéressant sur une boucle de rétroaction entre la génération de texte pour le Web et la formation sur le texte du Web:

Il y a très peu d’informations disponibles sur le successeur à paraître OpenAIS à Chatgpt, GPT-4. Mais je vais faire une prédiction: lors de l’assemblage de la grande quantité de texte utilisée pour former le GPT-4, les gens d’Openai auront fait tout leur possible pour exclure le matériel généré par Chatgpt ou tout autre modèle grand langage.

En effet, ils ont montré de l’intérêt pour cette affaire il y a déjà quatre ans, essayant de détecter les sorties GPT-2.

Dans l’ensemble, nous sommes en mesure d’atteindre des précisions au milieu des années 90 pour les 40 générations de K 40 et le milieu des années 70 à un high-80 (en fonction de la taille du modèle) pour les générations aléatoires. Nous trouvons également des preuves que les adversaires peuvent échapper à la détection via le finetuning à partir de modèles libérés.

Au fait, ils ont libéré Gpt-4 aujourd’hui.

Filigranes

Maintenant, si vous entraînez un LLM, vous pouvez le filigraner. Cela signifie que vous pourrez savoir si le modèle a généré un texte donné. Récemment, il y a eu plusieurs articles traitant de cette tâche. Une solution, proposée dans Un filigrane pour les modèles de grandes languesconsiste à filigraner la production du modèle en préférant certains mots à d’autres dans sa sortie. Les mots en question sont choisis au hasard, mais les auteurs semesent le générateur de nombres aléatoires afin que ce soit toujours les mêmes mots. Il y a un démo en direct de cette méthode à HuggingFace.

L’alpaga de Stanfordpublié hier, utilise également cette méthode de filigrane, comme mentionné dans leur article de blog:

Nous filigranons toutes les sorties du modèle en utilisant la méthode décrite dans Kirchenbauer et al. 2023, afin que d’autres puissent détecter (avec une certaine probabilité) si une sortie provient d’Alpaca 7B.

L'alpaga de Stanford dit que sa production n'est pas filigranée
Alpaga a été retiré quelques jours après la libération pour avoir menti au grand public.

Les auteurs de DetectGPT: détection de texte générée par la machine zéro en utilisant la courbure de probabilité a proposé une autre approche qui nécessite l’accès au modèle source. Compte tenu d’un morceau de texte, ils calculent la probabilité qu’il provenait du modèle. Ensuite, ils perturbent la pièce plusieurs fois et calculent les probabilités des perturbations. Si la probabilité de l’original est nettement supérieure aux probabilités des perturbations, cela signifie que le modèle a généré l’extrait.

Une autre équipe de l’Université du Maryland demande Le texte généré par l’IA peut-il être détecté de manière fiable?et leur réponse est non, car vous pouvez vous débarrasser du filigrane en paraphrasant le texte.

Une illustration des vulnérabilités des détecteurs de texte AI existants

Courrier indésirable

La capacité des modèles de grande langue à générer du texte est intéressant dans le contexte de l’optimisation des moteurs de recherche (SEO). Google a souligné l’importance du contenu dans le classement élevé dans les pages de résultats du moteur de recherche. Par exemple, ils disent que La création de contenu convaincant et utile influencera probablement votre site Web plus que tous les autres facteurs. Traditionnellement, cela signifiait payer aux gens d’écrire du contenu qui était essentiellement spam, créant des fermes de contenu et les liant aux pages pour augmenter leur rang. Vous pouvez maintenant obtenir ce type de contenu de LLMS, qui pourrait présenter un gros problème pour Google.

Finalement, il pourrait y avoir une sorte d’accord entre les organisations mettant leurs modèles à la disposition de les filigrane, comme l’Université de Stanford l’a fait avec Alpaga. Cependant, ce n’est pas si grave pour former ou Finetune votre propre modèle si vous êtes prêt à dépenser de l’argent. Cela signifie qu’il y aura des gens qui vendront des services de génération de spam.

Il semble que Google essaie de rester en avance sur la courbe par Offrir un moyen Pour construire des applications d’IA génératives, conformément à leur Principes d’IAbien sûr.

Nous ne pouvons pas nous empêcher de nous demander ce qui se passe si nous utilisons l’assistance de l’IA pour modifier un article comme celui-ci. Sera-t-il fasciné et sera punie dans les résultats des moteurs de recherche?



Source link

Related post