Vous faites un mal de chiffon: comment réparer la génération auprès de la récupération pour les LLM locaux

 Vous faites un mal de chiffon: comment réparer la génération auprès de la récupération pour les LLM locaux


Auteur (s): Ombs

Publié à l’origine sur Vers l’IA.

Cette histoire réservée aux membres est sur nous. Mettre à niveau pour accéder à tout le milieu.

✔️ Vous voulez passer directement à la configuration? Sautez au tutoriel.

✔️ Besoin d’un rafraîchissement de chiffon? Consultez mon article précédent.

Le chiffon fonctionne… jusqu’à ce que ce ne soit pas

Le chiffon sonne bien, jusqu’à ce que vous essayiez de l’implémenter. Ensuite, les fissures commencent à se montrer.

Le chiffon tire des morceaux non pertinents, écrase des idées non liées et mortez en toute confiance l’écriture à la première personne, transformant le contexte utile en un gâchis déroutant.

J’ai rencontré deux problèmes majeurs lors de la construction de mon propre système de chiffon:

🧩 Le contexte de la cécité – lorsque les morceaux récupérés ne transportent pas suffisamment d’informations pour être utiles.

Je vais vous montrer exactement comment j’ai résolu ces problèmes, donc votre système de chiffon comprend réellement ce qu’il récupère.

À la fin, vous aurez un pipeline de chiffon à 100% local, 100% gratuit et au contexte avec votre local préféré LLM et interface. Nous allons également configurer une base de connaissances automatisée, donc l’ajout de nouvelles informations est sans friction.

Vous profitez de cette plongée profonde? Voici comment vous pouvez aider:

👏 Clap pour cet article – il aide plus de gens à le trouver. Plus de messages comme celui-ci arrivent! 💬 Laissez un commentaire – faites-vous… Lisez le blog complet gratuitement sur Medium.

Publié via Vers l’IA



Source link

Related post