Une profonde exploration technique de la génération (RAG) de la récupération avec Transformers, DPR, FAISS et BART

 Une profonde exploration technique de la génération (RAG) de la récupération avec Transformers, DPR, FAISS et BART


Auteur (s): Saif Ali Kheraj

Publié à l’origine sur Vers l’IA.

Le chiffon signifie une génération auprès de la récupération. C’est une configuration intelligente où un modèle de transformateur (vous savez, le cerveau derrière tous les GPT) ne se contente pas de faire des choses – il sort en fait, trouve des informations réelles et la ramène avant de répondre.

Figure 1: https://arxiv.org/pdf/2312.10997

Dans cet article, je vous guiderai dans la façon dont tout cela fonctionne, étape par étape. Dense Passage Retrieval (DPR) joue un rôle clé – il effectue un codage intelligent à l’aide de modèles formés sur des questions-réponses ensembles de données. DPR utilise un encodeur basé sur Bert qui traite le texte en commençant par la tokenisation, puis applique des incorporations, des mécanismes d’attention et de multiples couches de transformateur pour produire des représentations vectorielles finales (intégres). Nous appliquons cet encodage à la fois à la question de l’utilisateur et aux documents ou paragraphes internes. Il en résulte deux ensembles d’incorporation. Pour trouver les passages les plus pertinents, nous utilisons FAISS (développé par Facebook), qui compare ces intérêts en utilisant des mesures de similitude. Le contexte récupéré et pertinent est ensuite transmis à un modèle de générateur, qui produit une réponse précise et éclairée.

Quelqu’un demande à votre assistant AI: «Comment devrais-je stocker des articles fragiles dans l’entrepôt?»

La réponse n’est pas dans un blog ou un manuel public – il est enterré profondément dans vos manuels d’entrepôt interne et vos procédures de manutention, que le modèle d’IA n’a jamais… Lisez le blog complet gratuitement sur Medium.

Publié via Vers l’IA



Source link

Related post