(P) Pourquoi mon IA arrête-t-elle enfin de rattraper les choses? (Approche de boussole open source à l’intérieur)
|
Salut les gens, Avez-vous déjà remarqué comment la plupart des IA ont tendance à inventer des réponses lorsque vous leur demandez quelque chose de résumé, de délicat ou de l’extérieur des données de formation? Cela me dérange depuis un certain temps – donc j’ai décidé de le corriger. Après beaucoup d’essais et d’erreurs, j’ai développé une nouvelle approche qui empêche (principalement) l’IA d’hallucination. Maintenant, au lieu d’inventer des non-sens plausibles, il me dit en fait quand il ne peut pas répondre ou quand quelque chose ne s’additionne pas. Je l’appelle le Cadre de boussole. Au lieu d’essayer simplement de corriger les erreurs après coup, il empêche structurellement les hallucinations en forçant le modèle à vérifier sa sortie contre les axiomes explicites et les champs de connaissances validés avant il génère une réponse. Curieux de savoir si cela pourrait être utile pour les autres (ou si je viens d’inventer une façon compliquée pour l’IA de dire «je ne sais pas beaucoup»!). Si vous voulez voir le côté technique, voici le papier ouvert et le code: • (papier (préimpression OSF)) (https://osf.io/r7w86/files/osfstorage/684464ca14df4180a285b1b1) J’adorerais entendre vos pensées ou entendre parler de votre propre expérience avec les hallucinations dans les LLM. Est-ce que quelqu’un d’autre souhaite que leur modèle admette simplement quand il ne le saura pas? soumis par / u / fédéral_cookie2960 |
