Le nouveau raisonnement de ServiceNow et Nvidia, le modèle d’IA, augmente la barre des agents d’IA d’entreprise

Beaucoup ont surnommé cette année « l’année de Agents d’IA«Comme ces systèmes d’IA qui peuvent effectuer des tâches pour les utilisateurs sont particulièrement utiles pour optimiser les flux de travail d’entreprise. Lors de la conférence annuelle des connaissances 2025 de ServiceNow, la société a dévoilé un nouveau modèle en partenariat avec NVIDIA pour faire progresser les agents de l’IA.
Aprime Nemotron 15b
Mardi, ServiceNow et Nvidia ont lancé Aprime Nemotron 15B, un nouveau modèle de langage de raisonnement open source (LLM) construit pour offrir une latence plus faible, des coûts d’inférence inférieurs et une IA agentique. Selon le communiqué, le modèle a été formé sur Nvidia Nemo, l’ensemble de données post-entraînement Nvidia Llama Nemotron et les données spécifiques au domaine de ServiceNow.
Le plus gros point à retenir du modèle est qu’il emballe les capacités de raisonnement avancé dans une taille plus petite. Cela rend le modèle moins cher et plus rapide à fonctionner sur l’infrastructure GPU NVIDIA en tant que microservice Nvidia NIM tout en livrant les sociétés de renseignement de qualité d’entreprise.
La société partage qu’Avriel Nemotron 15B montre des résultats prometteurs pour sa catégorie de modèle dans les tests de référence, confirmant que le modèle pourrait être un bon choix pour soutenir les workflows d’IA agentiques.
Les capacités de raisonnement sont particulièrement importantes lors de l’utilisation de l’IA agentique car, dans ces expériences automatisées, l’IA effectue des tâches pour l’utilisateur final dans divers paramètres. Puisqu’il effectue des tâches sans direction humaine, il doit effectuer un traitement ou un raisonnement pour déterminer comment procéder le mieux.
Architecture du volant de données conjointes
En plus du modèle, les deux sociétés ont également dévoilé une architecture de volant de données conjointes – une boucle de rétroaction qui collecte des données à partir d’interactions pour affiner davantage les modèles d’IA. L’architecture intègre le tissu de données de workflow ServiceNow et sélectionner les microservices NVIDIA NEMO, selon le communiqué.
Cette architecture conjointe permet aux entreprises d’utiliser des données de flux de travail d’entreprise pour affiner davantage leurs modèles de raisonnement tout en ayant les garde-corps nécessaires pour protéger les clients, s’assurer que les données sont traitées de manière sécurisée et en temps opportun et leur donner le contrôle qu’ils souhaitent. Idéalement, cela alimenterait la création d’agents d’IA hautement personnalisés et compatibles, selon la société.
Obtenez les meilleures histoires du matin dans votre boîte de réception chaque jour avec notre Newsletter Tech Today.