(P) Cachelm – Cache sémantique pour LLMS (réduction des coûts, vitesse de renforcement)

Hé tout le monde! 👋 J’ai récemment construit et ouvert un petit outil d’ouverture que j’ai utilisé appelé cachelm – Une couche de mise en cache sémantique pour les applications LLM. Il est censé réduire les appels d’API répétés Même lorsque l’utilisateur explique les choses différemment. Pourquoi j’ai fait ceci: Alors j’ai construit cachelm Pour résoudre ce problème. Ce qu’il fait:
J’adorerais vos commentaires si vous l’essayez – en particulier autour des seuils de précision ou des cas de bord LLM! 🙏 GitHub Repo: https://github.com/devanmolsharma/cachelm Merci et bonne mise en cache! 🚀 soumis par / u / keep_up_sharma |