Raisonnement automatisé pour empêcher l’hallucination LLM avec Byron Cook

Aujourd’hui, nous sommes rejoints par Byron Cook, vice-président et scientifique distingué dans le groupe de raisonnement automatisé de l’AWS pour fouiller dans la technologie sous-jacente derrière la fonction de vérification automobile automatisée nouvellement annoncée des garde-boue du fondement amazon. Les vérifications de raisonnement automatisées utilisent des preuves mathématiques pour aider les utilisateurs de LLM à sauvegarder les hallucinations. Nous explorons les avancées récentes dans le domaine du raisonnement automatisé, ainsi que certaines des façons dont il est appliqué largement, ainsi que sur AWS, où il est utilisé pour améliorer la sécurité, la cryptographie, la virtualisation, etc. Nous discutons de la façon dont la nouvelle fonctionnalité aide les utilisateurs à générer, affiner, valider et formaliser les politiques, et comment ces politiques peuvent être déployées aux côtés des applications LLM pour garantir la précision du texte généré. Enfin, Byron partage également les repères qu’ils ont appliqués, l’utilisation de techniques comme le «codage contraint» et le «retour de retour» et la future co-évolution du raisonnement automatisé et de l’IA génératrice.