Qu’est-ce que le protocole de contexte du modèle? L’IA et les données de pontage standard émergentes, expliquée

 Qu’est-ce que le protocole de contexte du modèle? L’IA et les données de pontage standard émergentes, expliquée


Flavio Coelho / Getty Images

Il y a de fortes chances, à moins que vous ne soyez déjà profondément Programmation de l’IAtu n’as jamais entendu parler Protocole de contexte modèle (MCP). Mais croyez-moi, vous le ferez.

MCP émerge rapidement comme une norme fondamentale pour la prochaine génération d’applications alimentées par l’IA. Développé comme standard ouvert par Anthropique fin 2024MCP est conçu pour résoudre un problème de base dans l’écosystème de l’IA: comment connecter de manière transparente et en toute sécurité les modèles de grande langue (LLM) et les agents de l’IA au vaste paysage en constante évolution des données, des outils et des services du monde réel.

Aussi: Copilot vient de faire tomber mes tests de codage d’IA hors du parc (après s’étouffer l’an dernier)

La société AI Anthropique a expliqué que, en tant qu’assistants en IA et que les LLM derrière elles se sont améliorées, « même les modèles les plus sophistiqués sont limités par leur isolement des données – piégé derrière des silos d’information et des systèmes hérités. Chaque nouvelle source de données nécessite sa propre implémentation personnalisée, ce qui rend les systèmes vraiment connectés difficiles à évoluer. »

MCP était la réponse d’Anthropic. La société a affirmé qu’elle fournirait un « standard universel et ouvert pour connecter les systèmes d’IA aux sources de données, en remplacement des intégrations fragmentées par un seul protocole ».

C’est bien bien, mais de nombreuses entreprises ont affirmé que leur norme universelle serait la réponse à tous vos problèmes technologiques. Cependant, comme le célèbre dessin animé XKCD A souligné, si vous avez 14 normes différentes et essayez ensuite de fournir une seule norme pour résoudre les problèmes de chacun, vous aurez bientôt 15 normes différentes.

Aussi: Anthropic trouve des «tendances émergentes» alarmantes dans le rapport d’insuffisance abusive de Claude

Ce n’est pas si mal avec les protocoles d’intégration d’IA, les programmes et les interfaces de programmation d’applications (API), mais je pouvais le voir en obtenir. Pour le moment, les autres rivaux MCP importants sont Protocole d’agent à agent de Google (A2A)outils d’automatisation du flux de travail tels que Zéro et Picaet, bien sûr, une variété d’API et de kits de développement de logiciels spécifiques aux fournisseurs (SDK). Cependant, pour des raisons qui deviendront bientôt claires, je pense que MCP est la vraie affaire et deviendra rapidement la norme d’interopérabilité de l’IA.

Passons à la viande du problème.

Qu’est-ce que MCP?

Je considère MCP comme un adaptateur de données AI universel. En tant que société centrée sur l’IA Crasse Le dit, vous pouvez considérer MCP comme un « Port USB-C pour l’IA«Tout comme USB-C normalisé comment nous connectons les appareils, MCP standardant comment les modèles AI interagissent avec les systèmes externes. MCP comme « émergeant comme une couche de communication fondamentale pour l’IA systèmes, semblables à ce que HTTP a fait pour le Web.  »

Aussi: Vos données ne sont probablement pas prêtes pour l’IA – voici comment les rendre dignes de confiance

Plus précisément, MCP définit un protocole standard, construit sur JSON-RPC 2.0, qui permet aux applications AI d’invoquer les fonctions, de récupérer des données et d’utiliser des invites à partir de tout outil, base de données ou service conforme via une seule interface sécurisée.

Il le fait en suivant une architecture client-serveur avec plusieurs composants clés. Ce sont:

  • Hôte: L’application alimentée par AI (par exemple, Claude Desktop, un environnement de développement intégré (IDE), un chatbot) qui a besoin d’accès aux données externes.
  • Client: Gère une connexion dédiée et avec état à un seul serveur MCP, gérant la communication et la négociation des capacités.
  • Serveur: Expose des capacités spécifiques – outils (fonctions), ressources (données) et invites – sur le protocole MCP, se connectant aux sources de données locales ou distantes.
  • Protocole de base: La couche de messagerie standardisée (JSON-RPC 2.0) garantit que tous les composants communiquent de manière fiable et en toute sécurité.

Ce L’architecture transforme le « problème d’intégration M × N » (où les applications M AI doivent se connecter à n outils, nécessitant des connecteurs personnalisés m × n) dans un « problème M + N beaucoup plus simple. Ainsi, chaque outil et application ne doivent prendre en charge MCP qu’une seule fois pour l’interopérabilité. C’est un économiseur en temps réel pour les développeurs.

Comment fonctionne MCP?

Tout d’abord, lorsqu’une application AI démarre, il fait tourner les clients MCP, chacun se connectant à un autre serveur MCP. Ceux-ci négocient les versions et les capacités du protocole. Une fois qu’il a une connexion au client, il interroge ensuite le serveur pour les outils, les ressources et les invites disponibles.

Aussi: Les 20 meilleurs outils d’IA de 2025 – et la chose n ° 1 à retenir lorsque vous les utilisez

Avec la connexion établie, le modèle AI peut désormais accéder aux données et fonctions en temps réel à partir du serveur, à la mise à jour de son contexte dynamiquement. Cela signifie que MCP permet aux chatbots AI d’accéder aux dernières données en temps réel au lieu de compter sur des ensembles de données pré-indexés, des intérêts ou des informations mises en cache dans un LLM.

Ainsi, lorsque vous demandez à l’IA d’effectuer une tâche (par exemple, « Quels sont les derniers prix pour un vol de New York à LA? »), L’IA achemine la demande par le biais du client MCP vers le serveur concerné. Le serveur exécute ensuite la fonction, renvoie le résultat et l’IA intègre ces nouvelles données dans votre réponse.

De plus, MCP permet aux modèles AI de découvrir et d’utiliser de nouveaux outils lors de l’exécution. Cela signifie que vos agents d’IA peuvent s’adapter à de nouvelles tâches et environnements sans modifications de code majeures ni recyclage d’apprentissage automatique (ML).

Aussi: Comment utiliser Chatgpt: un guide du débutant sur le chatbot IA le plus populaire

En bref, MCP remplace les intégrations fragmentées et personnalisées par un seul protocole ouvert. Cela signifie que les développeurs n’ont besoin d’implémenter MCP qu’une seule fois pour connecter les modèles d’IA à toute source ou outil de données conforme, réduisant considérablement la complexité d’intégration et les frais généraux de maintenance. Cela rend la vie d’un développeur beaucoup plus facile.

Rendre les choses encore plus simples, vous pouvez utiliser l’IA pour générer du code MCP et relever les défis de la mise en œuvre.

Voici quoi MCP fournit:

  • Intégration unifiée et standardisée: MCP sert de protocole universel, permettant aux développeurs de connecter leurs services, API et sources de données à tout client d’IA (tels que les chatbots, les IDE ou les agents personnalisés) via une seule interface standardisée.
  • Communication bidirectionnelle et interactions riches: MCP prend en charge la communication bidirectionnelle sécurisée en temps réel entre les modèles d’IA et les systèmes externes, permettant non seulement la récupération des données, mais aussi l’invocation de l’outil et l’exécution d’action.
  • Évolutivité et réutilisation de l’écosystème: Une fois que vous avez implémenté MCP pour un service, il devient accessible à tout client AI conforme à MCP, favorisant un écosystème de connecteurs réutilisables et accélérant l’adoption.
  • Cohérence et interopérabilité: MCP applique un format de demande / réponse JSON cohérent. Cela facilite le débogage, le maintien et l’échelle des intégrations, quel que soit le service sous-jacent ou le modèle d’IA. Cela signifie également que les intégrations restent robustes même si vous changez de modèles ou ajoutez de nouveaux outils.
  • Contrôle amélioré de sécurité et d’accès: MCP est conçu avec la sécurité à l’esprit, le cryptage à l’appui, les contrôles d’accès granulaires et l’approbation des utilisateurs pour les actions sensibles. Vous pouvez également être auto-hébergé des serveurs MCP, vous permettant de conserver vos données en interne.
  • Temps de développement réduit et maintenance: En évitant les intégrations fragmentées et uniques, les développeurs gagnent du temps sur la configuration et la maintenance continue, leur permettant de se concentrer sur la logique d’application et l’innovation de niveau supérieur. De plus, la séparation claire de MCP entre la logique de l’agent et les capacités backend permet des bases de code plus modulaires et maintenables.

Qui a adopté MCP?

La chose la plus importante pour toute norme est: « Les gens l’adopteront-ils? » Après seulement quelques mois, la réponse est un oui fort et clair. OpenAI a ajouté le support en mars 2025. Le 9 avril Google Deepmind chef Demis Hassabis a ajouté son soutien. Il a été rapidement appuyé par Le PDG de Google Sundar Pichai. D’autres sociétés ont emboîté le pas, notamment Microsoft, Replit et Zapier.

Ce n’est pas seulement le service des lèvres. Une bibliothèque croissante de connecteurs MCP pré-construits émerge. Par exemple, Docker a récemment annoncé qu’il soutenait MCP avec un catalogue MCP. Ce catalogue, même six mois après l’introduction de MCP, comprend déjà plus de 100 serveurs MCP de Grafana Labs, Kong, Neo4j, Pulumi, Heroku, Elasticsearch et de nombreux autres.

Quels sont les cas d’utilisation du MCP du monde réel?

Au-delà de ce à quoi Docker peut accéder, il y a déjà Des centaines de serveurs MCP. Ceux-ci peuvent être utilisés pour des tâches telles que:

  • Chatbots du support client: Les assistants IA peuvent accéder aux données CRM, aux informations sur les produits et aux billets de support en temps réel, fournissant une aide contextuelle précise.
  • Enterprise AI Search: L’IA peut rechercher dans les magasins de documents, les bases de données et le stockage cloud et lier les réponses à leurs documents source correspondants.
  • Outils du développeur: Les assistants de codage peuvent interagir avec CVS ​​et d’autres systèmes de contrôle de version, les trackers de problèmes et la documentation.
  • Agents AI: Et, bien sûr, les agents autonomes peuvent planifier des tâches en plusieurs étapes, agir au nom des utilisateurs et s’adapter aux exigences changeantes en tirant parti des outils et des données connectés à MCP.

La meilleure question, c’est vraiment à quoi MCP ne peut pas être utilisé.

L’avenir: une couche d’intégration d’IA universelle

MCP représente un décalage de paradigme: de l’IA isolée, statique aux systèmes profondément intégrés, au contexte et compatibles avec l’action. À mesure que le protocole mûrit, il sous-tendra une nouvelle génération d’agents et d’assistants de l’IA qui peuvent raisonner, agir et collaborer à travers le spectre complet des outils numériques et des données en toute sécurité, efficacement et à grande échelle.

Aussi: Combien d’énergie utilise un seul chatbot? Cet outil IA peut vous montrer

Je n’ai vu aucune technologie décoller comme ça depuis AI génératif lui-même a explosé pour la première fois sur la scène en 2022. Ce dont je me souviens vraiment, c’est comment Kubernetes est apparu il y a un peu plus d’une décennie. À l’époque, beaucoup de gens pensaient qu’il y aurait une race dans les orchestrateurs de conteneurs entre des programmes maintenant pour la plupart oubliés comme Swarm et Mesosphère. Je savais depuis le début que Kubernetes serait le gagnant.

Donc, je l’appelle maintenant. MCP sera le lien AI qui débloquera le plein potentiel de l’IA dans l’entreprise, le cloud et au-delà.

Obtenez les meilleures histoires du matin dans votre boîte de réception chaque jour avec notre Newsletter Tech Today.





Source link

Related post