Récapituler «Inside Azure Innovations avec Mark Russinovich» à Microsoft Build 2025 | par Dave R – Microsoft Azure & Ai MVP☁️ | Mai 2025

 Récapituler «Inside Azure Innovations avec Mark Russinovich» à Microsoft Build 2025 | par Dave R – Microsoft Azure & Ai MVP☁️ | Mai 2025


À Microsoft Build de cette année, j’ai eu l’occasion d’assister à la session de Mark intitulée «  Inside Azure Innovations  » qui a présenté les développements de saignement dans l’infrastructure d’Azure, le calcul, l’IA et les capacités natives dans le cloud.

Cet article décompose les principales innovations de la session, le contexte derrière chaque technologie et l’impact qu’ils visent à traverser le paysage cloud.

La session a été structurée pour fournir une vue complète de la pile d’innovation d’Azure dans quatre domaines:

  • Infrastructure
  • Natif de nuage
  • Informatique confidentielle
  • L’informatique future

Azure Boost 2.0: Accélération des infrastructures à grande échelle

Azure Boost 2.0 marque un saut significatif dans la pile d’infrastructure d’Azure.

Azure Boost est la carte de décharge accélérateur de Microsoft. En déplaçant le stockage et la mise en réseau des E / S dans le matériel spécialisé, Azure libère des cœurs de serveur pour le traitement des applications. Ceci est rendu possible à travers:

  • FPGA (tableau de porte programmable sur le terrain): gère les tâches de stockage et de mise en réseau.
  • Complexe de processeur ARM: gère le trafic de plan de contrôle, isolé des opérations de serveur.
Azure Boost 2.0:

Azure Boost 2.0:

  • 2 ports 100 Gbps Liens à gauche
  • FPGA au milieu
  • Processeur ARM à droite

Statistiques clés:

  • Débit de disque distant: 14 Go / s et 800k IOPS
  • Performance SSD locale: 36 Go / s et 6,6 m IOPS
  • Débit de réseau: jusqu’à 200 Gbps
Azure Boost Avantages

Du point de vue du réseautage, nous avons obtenu jusqu’à 200 Gbps avec ces liens 2×100 Gbps, et nous avons obtenu 400 000 connexions par seconde qui peuvent prendre en charge; Ces connexions impliquent en fait le traitement de base sur les plans de données.

Une innovation est la prise en charge de l’accès à la mémoire directe à distance!

RDMA pour le cloud public: accès à la mémoire directe à distance Permet aux machines virtuelles de contourner les surcharges TCP / IP et de communiquer directement via des tampons de mémoire.

RDMA pour le cloud public: accès à la mémoire directe à distance

De cette façon, vous pouvez faire une formation en IA très efficacement!

Invité RDMA utilisant Boost et GPU

Une démo de communication GPU-GPU pour les charges de travail de l’IA a montré un gain de performance 11X, comme indiqué ci-dessous:

démo de la communication GPU à GPU

👉AZURE Boost Documentation

Mises à jour de l’hôte de la machine virtuelle (VMPHU)

Historiquement, la mise à jour du système d’exploitation hôte ou des hyperviseurs signifiait des redémarrages VM.

VM-PHU élimine cela par:

  • Sauver l’état de VM dans RAM
  • Redémarrer autour
  • Restaurer sans interrompre les E / S de VM

Amélioré avec le «processeur virtuel en suspension automatique» et «Keep-Alive», le nouveau VMFU assure:

  • Pas de temps d’arrêt pour la plupart des charges de travail
  • Restauts de pile de virtualisation transparente
  • Démo: comparé un cycle traditionnel de gel / mise à jour / restauration par rapport au nouveau mécanisme d’interruption zéro.
VM-PHU

👉 Migration en direct hyper-v

Comptes de stockage à l’échelle: débit d’E / S de grade AI

Les charges de travail de l’IA exigent souvent le débit de stockage à l’échelle des pétaoctets, en particulier pendant la formation, le point de contrôle et la distribution des inférences.

Exigences de stockage pour les charges de travail de l’IA

Microsoft a introduit des «comptes de stockage à l’échelle»:

Sous le capot, il utilise des tranches composées de comptes de stockage répartis dans l’infrastructure de stockage. Cela signifie qu’ils ont accès à la bande passante réseau et aux nœuds de stockage à travers le centre de données.

  • Agrégation logique de nombreux comptes de stockage
  • Fournit un débit de plus de 25 tbps sur les nœuds de calcul distribués
  • Réalisé à l’aide de Blobfuse et du bidonville sur un cluster HPC à 320 nœuds
Échelle de stockage azur

👉 Azure Blobfuse et Cyclecloud

Linux Guard: exécution de conteneurs signée

Les environnements soucieux de la sécurité luttent souvent avec des binaires non vérifiés en cours d’exécution dans des applications conteneurisées. Linux Guard fournit:

  • Vérification de signature de la couche de conteneur forcé
  • OS de base Linux immuable avec selinux et Verity DM

Cas d’utilisation: empêche l’hôte et le conteneur d’exécuter des binaires non autorisés tout en garantissant des déploiements signés reproductibles.

👉 Sécurité Linux en Azure

Hyperlite: exécution sécurisée de WASM au bord.

Hyperlite est le bac à sable basé sur Hyper-V de Microsoft pour WebAssembly (WASM).

Il:

  • Prend en charge les microvmes aussi petits que les dizaines de MBS
  • Fonctions isolées non fidées par l’utilisateur (UDF)
  • Déployé en porte d’entrée Azure pour la manipulation de la demande de bord
Azure Actions du bord de la porte d’entrée

👉 Webassembly in azure

Instances de conteneurs Azure à grande échelle

ACI permet le déploiement de conteneurs sans serveur sans gérer les VM ou les nœuds Kubernetes. Maintenant amélioré avec:

  • Piscines de secours: conteneurs préchauffés pour startup ultra-rapide
  • Test d’échelle massive: 10 000 conteneurs lancés en moins de 2 minutes! Fou!
Démo: évolutivité dans des conteneurs sans serveur

Les cas d’utilisation incluent la mise à l’échelle des microservices, l’inférence rapide ML et les scénarios de rafale CI / CD.

👉 Nœuds virtuels ACI en AKS

Maintenant, distirons les incubations azur.

Incubations azure.

RAYON. Ingénierie de plate-forme indépendante des infrastructures

RDIUS résume l’infrastructure de déploiement de l’application. Vous pouvez déclarer:

  • Exigences de l’application comme Redis, MongoDB
  • Les lier à des recettes comme AKS, ACI, etc.

Demo: l’application Traderx a été déployée sur AKS et ACI en utilisant le même manifeste. L’infrastructure devient invisible pour les équipes de développement.

👉 Radius de projet Github

Drasi: infrastructure d’État réactive

Les développeurs écrivent souvent une logique complexe pour surveiller et réagir aux changements de données. Drasi présente:

  • Requêtes continues: renvoyez les données si une condition tient
  • Événement Reactinos: Exécutez lorsque le jeu de résultats change

Cas d’utilisation: application de ramassage Cubside à l’aide de deux bases de données, MySQL et Postgres, pour rejoindre les données de commande et de localisation.

Drasi

👉 Drasi Github

Informatique confidentielle: exécution sécurisée de bout en bout

L’informatique confidentielle protège les données à l’aide de t-shirts (environnements d’exécution de confiance).

T-shirts

Tee fait deux choses:

  • Ils créent une boîte de bouclier autour du code et des données
  • Ils fournissent un matériel cryptographique basé sur

Microsoft Innovations:

  • Prise en charge Intel TDX et AMD SEV
  • GPU confidentiels (H100, H200) avec NVLink
  • Permet une formation de modèle multi-GPU sécurisé

Démo: demande d’inférence cryptée entièrement exécutée dans une limite Confidentiel VM-GPU.

👉 Documents informatiques confidentiels

Informatique optique: Prototype de recherche Microsoft.

Un prototype d’ordinateur neuronal optique futuriste a été montré:

  • Utilise des faisceaux lumineux, des filtres et des lentilles
  • Exécute l’addition / multiplication optiquement
  • Le premier modèle a démontré la classification des chiffres
Ordinateur optique analogique

Importance:

  • Calcul respectueux de l’environnement
  • Latence proche de zéro



Source link

Related post