Appel Asynchrone LLM, utilisant le SDK OpenAI et Gemini 2.0 Flash

 Appel Asynchrone LLM, utilisant le SDK OpenAI et Gemini 2.0 Flash


Auteur (s): Hadi Rouhani

Publié à l’origine sur Vers l’IA.

– une approche universelle en appelant LLMS de différentes marques

Cette histoire réservée aux membres est sur nous. Mettre à niveau pour accéder à tout le milieu.

Hadi Rouhani

·

S’abonner

Publié dans

Vers l’IA

· 5 min Read · Il y a 17 heures

19

Écouter

Partager

Plus

Vous cherchez à masquer les faits saillants? Vous pouvez maintenant les cacher au menu «•••».

D’accord, je l’ai

Accès au référentiel GitHub: lien

J’ai travaillé sur une application de production qui utilise GPT-4O pour générer des résumés à partir d’un système de chiffon. Les parties prenantes ont demandé à tester Gemini 2.0 Flash pour comparer les réponses et évaluer les commentaires des utilisateurs. Cela m’a amené à réaliser la nécessité d’une approche universelle à une époque de multiple LLM Apis. J’ai découvert que le SDK Openai Python prend en charge la plupart des API LLM, vous permettant de spécifier l’URL de base de l’API souhaitée. Cette flexibilité optimise considérablement la fonctionnalité principale des applications.

Pour mon cas d’utilisation, le service backend reposait entièrement sur Azure Openai et d’autres ressources Azure, telles que Azure AI Search et COSMOSDB. Nous avions besoin d’une solution pour passer en douceur le modèle de génération de l’OpenAI à l’API Gemini de Google (ou API Vertex AI pour une utilisation d’entreprise).

Dans cet article, je vous marche étape par étape, comment basculer de manière transparente entre les modèles en utilisant uniquement la bibliothèque SDK Openai à Python.

Quelques avantages de cette approche:

Moins de bibliothèques de dépendances à installer (pensez à cette application Docker Container légère!) Commutation entre les modèles… Lisez le blog complet gratuitement sur Medium.

Publié via Vers l’IA



Source link

Related post