AI et équilibrage de charge | CIO

 AI et équilibrage de charge | CIO

Tout comme le cloud computing a conduit à l’émergence de l’équilibrage de chargement défini par les logiciels, la révolution de l’intelligence artificielle (IA) nous mène plus loin, vers des architectures définies par l’IA. Cette transformation représente un changement important dans la façon dont les entreprises abordent leur infrastructure pour soutenir les charges de travail d’IA modernes et apporter des avantages en IA aux charges de travail existantes.

Les applications d’IA présentent des défis importants en ce qui concerne l’équilibrage des charges. Les charges de travail AI, y compris les charges de travail agentiques, exigent des performances extrêmes: Terabits / Second, pas les gigabits / seconde qui ont été requis pour les applications traditionnelles. En conséquence, les organisations ont besoin d’équilibreurs de charge avec des capacités de débit extraordinaires et de l’évolutivité pour soutenir les opérations élastiques.

«Lorsque vous créez des applications d’IA modernes pour les entreprises, il doit y avoir un niveau de performance, de résilience, de sécurité et d’élasticité très élevé», explique Chris Wolf, responsable mondial de l’IA et des services avancés, division VCF à Broadcom. «Les équilibreurs de chargement à l’ère de l’IA doivent être en mesure de gérer les services et de répondre aux exigences des entreprises sur plusieurs serveurs et grappes, en raison de la nature distribuée des travaux importants d’inférence et de formation dans des environnements d’IA privés.»

De plus, les applications d’IA d’entreprise sont presque exclusivement construites sur Kubernetes avec une architecture microservices. Cela signifie que les organisations ont besoin d’équilibreurs de chargement qui peuvent automatiquement, auto-oroheal et exploiter «en tant que code», avec des capacités intégrées, notamment l’équilibrage mondial de chargement du serveur (GSLB), les pare-feu d’application Web (WAFS) et la sécurité de l’interface de programmation (API) d’application.

Les applications AI échangent de grandes quantités de données sensibles via des API, nécessitant une protection robuste contre les attaques et les fuites de données grâce à une application Web complète et à la sécurité des API. Le seuil de détection d’anomalies et de reconnaissance du modèle de trafic doit être utilisé pour optimiser l’allocation des ressources.

Équilibrage de la charge définie par AI

Il convient seulement que l’équilibrage de charge dans l’ère AI utilise l’IA pour faire le travail, et il le fait sur trois dimensions clés.

Premièrement, l’intelligence prédictive permet une résilience élevée, en tirant parti de la surveillance des scores de santé et des seuils dynamiques qui évoluent en temps réel au besoin pour s’adapter aux rafales. Dans cet environnement, les seuils statiques ne sont pas possibles, car le trafic est trop dynamique et le surprovisionment pour la charge maximale serait prohibitif. Les configurations à haute puissance active active garantissent un fonctionnement continu et des capacités d’autoscalités couplées à des modèles de trafic autoooliques et résoudre la plupart des problèmes sans qu’un administrateur ne s’implique profondément, voire pas du tout.

Deuxièmement, l’IA génératrice (Genai) peut améliorer considérablement l’efficacité opérationnelle en agissant comme des copilotes pour aider les équipes de plusieurs manières. Les administrateurs peuvent poser des questions en utilisant le langage naturel, et les outils d’IA fournissent des réponses, des analyses et des informations contextuelles basées sur les informations trouvées dans les scores de santé des applications, les mesures de latence d’application, les guides de conception et la documentation de la base de connaissances (KB). Les outils d’IA peuvent également fournir des analyses corrélées, des idées contextuelles et une inférence multifactorielle dans les flux de travail des administrateurs. Les capacités d’infrastructure en tant que code réduisent le travail manuel, car les configurations peuvent être modifiées par programme dans les logiciels. La gestion des capacités et l’assistance de dépannage des performances peuvent signaler les problèmes émergents que les administrateurs s’adressent bien avant qu’ils affectent les utilisateurs, ce qui améliore considérablement la productivité.

Enfin, les capacités en libre-service alimentées en AI créent des interfaces d’équilibrage de charge pour les équipes DevOps qui nécessitent une formation zéro, car l’IA peut fournir une assistance intuitive aux ingénieurs à suivre. Le résultat est un déploiement et une configuration plus rapides sans sacrifier la qualité ou la sécurité.

Une solution qui répond à toutes ces exigences de l’IA, telles que Broadcom, Broadcom Avi Load Balancer, fournit de gros dividendes. Études rigoureuses ont montré que l’entreprise peut réaliser 43% d’épargne OPEX, 90% de provisionnement de livraison d’applications plus rapide et une augmentation de la productivité DevOps de 27% avec cette solution.

Les principes d’équilibrage de la charge définis par logiciel restent – les performances d’échelle d’inscription, la disponibilité dynamique et la sécurité au niveau de l’application – et l’ère AI amplifie considérablement ces exigences tout en infusant des principes d’IA. Les organisations qui adoptent l’équilibrage des charges définies par l’IA soutiendront non seulement plus efficacement leurs charges de travail en IA et non AI, mais bénéficieront également de l’intelligence ancrée dans leur infrastructure.

Pour en savoir plus sur la façon dont Broadcom peut aider votre organisation à apporter un équilibrage des charges à l’ère IA, visitez-nous ici.

À propos de l’auteur:

Umesh Mahajan est vice-président et directeur général de la division des réseaux et de la sécurité de Broadcom. Il a rejoint Broadcom de VMware, où il a dirigé l’unité commerciale de réseautage et de sécurité et était responsable de la plate-forme de virtualisation du réseau définie par logiciel NSX, qui comprenait la connectivité, la sécurité et l’équilibrage des charges réseau. Avec plus de trois décennies d’expérience dans les services de réseautage et de réseautage multi-cloud, M. Mahajan détient plus de 30 brevets. Avant de rejoindre VMware, il a fondé AVI Networks, qui a construit l’équilibreur avancé de chargement défini par logiciel perturbateur. Plus tôt, il a occupé des postes de direction chez Cisco, notamment vice-président et directeur général de l’activité de commutation du centre de données, et était responsable des plateformes Nexus 7000 & MDS 9000, et le système d’exploitation NX-OS. M. Mahajan est titulaire d’une maîtrise ès sciences en informatique de l’Université Duke et d’un baccalauréat en technologie de l’IIT Delhi.

LinkedIn: https://www.linkedin.com/in/umeshmahajan/



Source link

Related post