Le nouveau raisonnement de ServiceNow et Nvidia, le modèle d’IA, augmente la barre des agents d’IA d’entreprise

 Le nouveau raisonnement de ServiceNow et Nvidia, le modèle d’IA, augmente la barre des agents d’IA d’entreprise


Elyse Bests Picaro / Zdnet

Beaucoup ont surnommé cette année « l’année de Agents d’IA«Comme ces systèmes d’IA qui peuvent effectuer des tâches pour les utilisateurs sont particulièrement utiles pour optimiser les flux de travail d’entreprise. Lors de la conférence annuelle des connaissances 2025 de ServiceNow, la société a dévoilé un nouveau modèle en partenariat avec NVIDIA pour faire progresser les agents de l’IA.

Aprime Nemotron 15b

Mardi, ServiceNow et Nvidia ont lancé Aprime Nemotron 15B, un nouveau modèle de langage de raisonnement open source (LLM) construit pour offrir une latence plus faible, des coûts d’inférence inférieurs et une IA agentique. Selon le communiqué, le modèle a été formé sur Nvidia Nemo, l’ensemble de données post-entraînement Nvidia Llama Nemotron et les données spécifiques au domaine de ServiceNow.

Aussi: Les 70+ projets de Nvidia à ICLR montrent comment la puissance de la puce brute est au cœur de l’accélération de l’IA

Le plus gros point à retenir du modèle est qu’il emballe les capacités de raisonnement avancé dans une taille plus petite. Cela rend le modèle moins cher et plus rapide à fonctionner sur l’infrastructure GPU NVIDIA en tant que microservice Nvidia NIM tout en livrant les sociétés de renseignement de qualité d’entreprise.

La société partage qu’Avriel Nemotron 15B montre des résultats prometteurs pour sa catégorie de modèle dans les tests de référence, confirmant que le modèle pourrait être un bon choix pour soutenir les workflows d’IA agentiques.

Aussi: Les données synthétiques déraillent-elles l’élan génératives de l’IA ou seront-elles la percée dont nous avons besoin?

Les capacités de raisonnement sont particulièrement importantes lors de l’utilisation de l’IA agentique car, dans ces expériences automatisées, l’IA effectue des tâches pour l’utilisateur final dans divers paramètres. Puisqu’il effectue des tâches sans direction humaine, il doit effectuer un traitement ou un raisonnement pour déterminer comment procéder le mieux.

Architecture du volant de données conjointes

En plus du modèle, les deux sociétés ont également dévoilé une architecture de volant de données conjointes – une boucle de rétroaction qui collecte des données à partir d’interactions pour affiner davantage les modèles d’IA. L’architecture intègre le tissu de données de workflow ServiceNow et sélectionner les microservices NVIDIA NEMO, selon le communiqué.

Aussi: Nvidia lance les outils logiciels NEMO pour aider les entreprises à créer des agents d’IA personnalisés

Cette architecture conjointe permet aux entreprises d’utiliser des données de flux de travail d’entreprise pour affiner davantage leurs modèles de raisonnement tout en ayant les garde-corps nécessaires pour protéger les clients, s’assurer que les données sont traitées de manière sécurisée et en temps opportun et leur donner le contrôle qu’ils souhaitent. Idéalement, cela alimenterait la création d’agents d’IA hautement personnalisés et compatibles, selon la société.

Obtenez les meilleures histoires du matin dans votre boîte de réception chaque jour avec notre Newsletter Tech Today.





Source link

Related post