Ignite 2020 : déferlante d'annonces Azure, la centralisation accélère

Ignite 2020 : déferlante d’annonces Azure, la centralisation accélère

Des frontières gommées

Avatar de l'auteur
Vincent Hermann

Publié dans

Internet

16/10/2020 17 minutes
1

Ignite 2020 : déferlante d'annonces Azure, la centralisation accélère

Après une première partie consacrée notamment aux nouveautés bureautiques, voici l'essentiel des annonces faites sur Azure lors de la dernière conférence Ignite. Elles sont particulièrement nombreuses et variées, Microsoft ne souhaitant rien lâcher face à son grand concurrent, Amazon Web Services.

Ignite est un évènement consacré à l’entreprise et ses besoins, sous ses différentes formes : bureautique, communication, gestion, administration ou encore le cloud. La fameuse transformation numérique (et non digitale).

Difficile de faire un parfait distinguo entre toutes, car un même produit peut exister sur site et dans le cloud. Mais dans ce dernier domaine, Azure est une offre à part. L’appellation parapluie désigne l’ensemble des services accessibles aux entreprises pour stocker ou gérer à distance des données.

La marque a pris une importance considérable ces dernières années, cette division affichant une insolente croissance à deux chiffres chaque trimestre depuis bientôt cinq ans. Les annonces centrées sur Azure sont donc un temps fort, et cette année ne fait pas exception. Microsoft accentue ses investissements dans son bouquet de services et renforce sa stratégie consistant à en faire le point de liaison de pratiquement tous ses produits.

Avant de plonger dans les nouveautés annoncées pour Azure, faisons un petit rappel sur les principaux produits.

Azure Stack est ainsi devenu Stack Hub, pour mieux refléter l’évolution donnée à son offre de cloud hybride, mélangeant initialement les installations sur site et distantes. Stack Edge ajoute un troisième élément dans la nasse : la périphérie (edge), qui désigne dans les grandes lignes un cloud de proximité, quand la latence devient critique en particulier. Les entreprises peuvent créer elles-mêmes ces zones, notamment via les objets connectés.

Citons également Stack HCI (HyperConverged Infrastructure), spécialisé dans l’exécution de tâches virtualisées sur des installations sur site. Enfin, pour chapeauter tout ce petit monde, Arc, dont nous avions parlé l’année dernière et qui fournit une interface unique de gestion pour administrer tout ce qui touche à Azure, quel que soit le type de cloud (classique, hybride ou périphérique), avec le même lot de services.

Disponibilité générale d’Azure Arc, les sources de données en préversions

Il passe d'ailleurs en disponibilité générale. Il était certes accessible, mais uniquement en préversion publique. Il s’agit d’une annonce importante pour Microsoft, car Arc se retrouve au carrefour de tous les services, en permettant de déployer n’importe lesquels sur tout type d’infrastructure prise en charge. La gestion est élargie aux serveurs Windows et Linux, les serveurs SQL et clusters Kubernetes sur site, dans le cloud ou en périphérie.

Les services de données compatibles avec Arc sont, eux, disponibles en préversions publiques. Un accès est ouvert pour l’occasion à Azure SQL Managed Instance et Azure PostgreSQL Hyperscale, eux aussi exécutables sur n’importe quel type d’infrastructure. Notez qu’Arc permet du même coup de réunir la gestion de ces sources.

Toujours dans cette volonté de gestion centralisée, Microsoft proposera une préversion publique du Backup Center, pour réunir dans une même interface l’ensemble des outils pour les sauvegardes et leur restauration. Il devient d’explorer les grands inventaires via coffres, les abonnements, les emplacements et les locataires.

Backup Center prend en charge les machines virtuelles (VM) Azure, SQL dans les VM Azure, Azure Database pour les serveurs PostgreSQL et Azure Files. La restauration peut du coup être faite entre plusieurs régions.

Azure Arc

Azure Data : bases Redis, CosmosDB, Database pour MySQL/PostgreSQL, Azure SQL Edge…

Les nouveautés pour Azure Data sont déjà nombreuses, avec pour commencer la disponibilité du Cache Azure pour les bases de données Redis. Il est disponible en deux niveaux, Enterprise et Enterprise Flash.

Tous deux prennent en charge des fonctions de Redis comme RediSearch, RedisBloom et RedisTimeSeries. Les applications Azure centrées sur la recherche, l’analyse de données et l’IoT peuvent donc accéder à ces bases en profitant de leurs services. Le niveau Flash permet à Redis de fonctionner sur une mémoire plus rapide. Le cache peut alors être dix fois plus grand. Dans les deux cas, le contrat de service passe de 99,9 à 99,99 %.

Cosmos DB récupère de son côté une option sans serveur pour les opérations de base de données quand la charge de travail est faible. Conséquence, les développeurs peuvent créer de petites applications et effectuer des tests sans avoir à provisionner des débits, donc les coûts qui vont avec. Il s’agissait d’une demande des entreprises. L’option est disponible pour l’instant en préversion.

Azure Database pour MySQL et Database pour PostgreSQL gagnent tous deux également une option : le déploiement de serveurs flexibles. Disponible en préversion, elle permet l’installation en environnement serveur avec mise à l’échelle et une intégration native de Linux. Les besoins pouvant différer selon les chartes de travail, les entreprises clientes pourront définir des zones de disponibilité, chacune avec son propre contrat de niveau propre.

Également en préversion, une fonction pour Azure SQL propose désormais d’étendre la redondance de zone aux bases de données d’usage général. Microsoft évoque donc de nouvelles options de stockage et une facturation plus souple. Mais c’est aussi un moyen pour la firme de se prémunir, puisque la fonction augmentera la résilience face à de potentiels évènements graves dans le centre de données.

On reste sur SQL avec sa variante Edge, dont la disponibilité est générale depuis peu. Elle est conçue pour les objets connectés et les passerelles. La sécurité et les outils de gestion sont les mêmes, mais cette version rassemble aussi la diffusion continue de données, le stockage et l’IA dans un conteneur à empreinte réduite (moins de 500 Mo), que l’environnement soit connecté ou non. Seuls les appareils de type ARM ou x64 sont compatibles.

Le Delta Engine, optimisé par Photo, est disponible lui aussi en préversion. Il a été développé sur la base d’Apache Spark 3.0, mais se veut beaucoup plus rapide que ce dernier pour les charges de travail Spark fonctionnant dans Azure Databricks. Microsoft n’hésite pas à parler de performances 20 fois plus grandes, grâce à trois groupes d’améliorations : un nouvel optimiseur de requêtes, un cache situé entre la couche d’exécution et le stockage, ainsi qu’un nouveau moteur d’exécution fortement parallélisé et écrit en C++.

Autre demande faite régulièrement par les clients, la gestion du cycle de vie par heure du dernier accès dans le stockage Azure Blob. Les administrateurs peuvent ainsi définir des stratégies par date d’accès sur le niveau dans lequel un objet a été placé ou supprimé. En plus, bien sûr, de fournir une visibilité sur qui accède à quoi et quand. L’information est transmise sous forme de métadonnée.

Centres de données et régions : faut que ça bouge

Microsoft a annoncé une augmentation du nombre de zones de disponibilité déployées dans les régions Azure, où le niveau de service est de 99,99 %, garantissant contractuellement que les machines virtuelles seront actives 99,99 % du temps. Avec Canada Centre et Australie Est, ce nombre de zones est maintenant de 14. Paris a déjà la sienne.

Azure Orbital est un nouveau service, disponible en préversion privée. Il s’agit d’un service managé faisant le lien entre satellites physiques et analyse des données dans Azure. Microsoft ne le dit pas, mais elle manquait d’une offre capable de concurrencer un service équivalent chez Amazon Web Services depuis 2018 : Ground Station.

Outil très spécifique aussi et disponible en préversion publique, Resource Mover permet le déplacement de ressources multiples entre plusieurs régions. L’éditeur cite plusieurs raisons pouvant pousser une entreprise à bouger ses données, dont la pertinence technique de la localisation et les besoins changeants en matière de résidence, par exemple à cause de contraintes juridiques.

Dans la même veine, les clients peuvent maintenant bouger leurs machines virtuelles d’une zone de disponibilité à une autre, à condition qu’elles soient toutes deux dans la même région. À cette capacité viennent s’ajouter la réplication et la restauration. Les scénarios d’application sont nombreux, de la situation d’urgence à la facilité de reprendre les mêmes machines virtuelles dans une nouvelle zone, sans repasser par leur configuration.

Cloud hybride, infrastructure et migration

Les machines virtuelles isolées ont été renouvelées et sont maintenant basées sur des processeurs Cascade Lake d’Intel, Microsoft évoquant des performances jusqu’à 20 % plus élevées.

On reste dans le même domaine avec des améliorations pour Azure Dedicated Host, notamment la capacité de programmer les opérations de maintenance (aussi pour les machines virtuelles isolées). Les administrateurs peuvent choisir le moment où sont installées les mises à jour des OS de leurs machines. Les clients peuvent également laisser la plateforme sélectionner le groupe d’hôtes dans lequel déployer les machines virtuelles.

Dans la partie stockage sur disque Azure, on note surtout deux améliorations. D’une part, l’intégration avec Private Link, pour sécuriser les imports/exports de données sur un VPN. D’autre part, le support de 512E sur les disques ultra, permettant la migration de bases de données héritées vers Azure.

Azure Kubernetes Service (AKS) sur Azure Stack HCI est un nouveau produit, disponible en préversion publique une fois encore. Comme on s’en doute, il permet aux développeurs le déploiement de conteneurs Kubernetes sur Stack HCI. L’ensemble est très proche de l’actuel AKS pour Azure, auquel il offre des fonctions hybrides pour l’occasion.

Azure Migrate, service spécialisé dans la migration de centres de données vers le cloud, est maintenant disponible en version finale. Il permet une détection et une évaluation du patrimoine, donc un inventaire logiciel sans agent et un mappage des dépendances. L’outil intègre depuis peu le support de Windows Virtual Desktop et des applications web en ASP.NET. Notez que Windows Virtual Desktop est également pris en charge par FastTrack, qui permet la définition rapide de modèles de déploiement dans le cloud.

Deux autres produits font leur apparition pour les machines virtuelles : Spot et Advisor, tous deux en préversions publiques. Spot permet la création de machines du même nom, d’ouvrir et consulter l’historique des tarifs de ces machines sur 28 jours, d’obtenir une estimation de la probabilité que les charges de travail soient exclues ou encore une estimation du coût induit par les charges de travail pouvant être interrompues.

Advisor sert à donner des conseils en tarification, sécurité, fiabilité et performances, en comparant les actions de l’entreprise au guide de bonnes pratiques d’Azure.

Pour Azure Stack Edge, Microsoft a dévoilé trois nouveaux produits. « Pro », tout d’abord, est un serveur montable en rack (11U), conçu pour la périphérie et intégrant notamment un GPU T4 de NVIDIA. « Pro R » est la version « robuste » du même produit, fournie dans un boitier transportable, avec en option une batterie relai. Quant à « Mini R », il s’agit d’une version ultra-portable, robuste et pouvant tenir dans un sac à dos. Il fonctionne sur batterie et intègre un VPU Intel pour le machine learning.

VMware était aussi à l’honneur dans les annonces, avec la nouvelle version d’Azure VMware Service (AVS), développée par les deux partenaires. On y retrouve les derniers composants VMware Cloud Foundation (dont vSphere, NSX-T, HCX et vSAN), le tout dans Azure.

Le service prend en compte la migration des déploiements sur site vers le cloud. Le nouvel AVS supporte également d’autres produits partenaires, notamment les solutions de sauvegarde de Commvault, Veeam et Veritas. Les installations sur site de GitHub peuvent elles aussi être transférées dans le cloud. À la suite de retours clients, Microsoft fournit également Enterprise HCX pour son support de Replication Assisted vMotion (RAV.

Les charges de travail Linux ont droit à une série spécifique de nouveautés en cas de migration vers le cloud. Par exemple, Hybrid Benefit (préversion) facilite ces opérations pour Red Hat et SUSE. Depuis le portail ou l’interface en ligne de commande, les machines virtuelles Linux facturées à l’utilisation (PAYG) pourront être converties à un abonnement (BYOS) via les abonnements Red Hat et SUSE existants.

Le même Hybrid Benefit autorise le déploiement d’un POC dans Azure via les machines virtuelles Linux à la demande, puis de le passer en production une fois les tests terminés.

Azure Image Builder permet, comme son nom l’indique, de générer des images Linux et Windows pour faciliter leur création, leur mise à jour, leurs correctifs, leur gestion et leur exploitation. Le déploiement des ressources se fait à l’utilisation. La facturation se fait sur les machines virtuelles ainsi générées, ainsi que sur les ressources de stockage et de réseau consommées. Enfin, Microsoft ajoute Flatcar Container Linux de Kinvolk dans le lot des distributions disponibles. Elle est immuable et est présentée comme particulièrement adaptée aux conteneurs.

Du neuf également pour Windows Server dans Azure avec Automanage. Il a pour mission de réduire drastiquement le temps consacré aux tâches quotidiennes de gestion en automatisant – on s’en serait douté – une bonne partie du travail. Les pratiques sont celles du Cloud Adoption Framework. Azure Backup et Azure Security Center sont notamment pris en charge. L’outil fournit une gestion centralisée des cycles de vie des machines virtuelles. Si certaines s’écartent du référentiel, il peut les reconfigurer à la volée.

À noter enfin que l’Admin Center de Windows, normalement présent uniquement sur les installations sur site de Windows Server, est présent en préversion dans le portail Azure. Il reprend les mêmes fonctions d’administration que la mouture classique, applicables aux machines virtuelles Windows.

Azure et les objets connectés

Bien qu’il s’agisse d’un chapitre dédié, les nouveautés sont en fait partagées avec plusieurs autres domaines, notamment tout ce qui touche à Stack Edge. Pour un peu mieux s’y retrouver dans les solutions existantes, Microsoft propose désormais le programme Azure Certified Device, qui devrait mener à une simplification du processus devant connecter un appareil adapté à une solution, via un catalogue.

Selon Microsoft, le temps de commercialisation devrait être réduit d’autant, les constructeurs n’ayant plus à s’occuper de ces étapes. La certification mène à la validation d’une connexion au hub Azure IoT. Le provisionnement se veut sécurisé via Device Provisioning. Deux certifications existantes la rejoignent, l’une pour le développement d’appareils sans code personnalisé (IoT Plug and Play), l’autre pour la compatibilité d’exécution Edge.

Azure Sphere, déjà annoncé et centré sur la sécurité des objets connectés, a également fait l’objet d’une annonce, AT&T venant de commercialiser le premier produit l’utilisant. Il connecte au cloud du client des appareils et machines via le réseau mobile. Le produit est disponible dans plus de 200 pays via un peu plus de 500 opérateurs.

Réseau Azure : du Cisco et de l’équilibrage de charge

La partie réseau contient surtout deux grosses annonces. La première est le support natif du SD-WAN (Software-Defined Wide Area Network) de Cisco dans les hubs WAN d'Azure Virtual, dans l’optique d’éliminer les réseaux traditionnels. Cette compatibilité permet l’envoi direct du trafic de la succursale vers le cloud, et à l’entreprise de reprendre les chemins et stratégies déjà définis.

Le Global Load Balancer est une nouvelle fonction du Load Balancer d’Azure. Il vise spécifiquement les applications globales, pour en améliorer les performances et la disponibilité.

Et pour les développeurs ?

L’une des plus grosses annonces concernait la disponibilité en Release Candidate de .NET 5.0, dont nous avons déjà expliqué les tenants et aboutissants. Au sein d’Azure, cette arrivée revêt une importance particulière, .NET 5.0 permettant la création d’applications à fichier unique plus légères et rapides, donc adaptées aux microservices en conteneurs, quel que soit l'OS.  La version finale de .NET 5.0 est attendue pour le 10 novembre.

Azure App Service, pour le déploiement et la mise à l’échelle des applications web, reçoit également plusieurs mises à jour, dont plusieurs niveaux de prix. Par exemple, des remises sont proposées sur la base d’engagements sur l’instance réservée, allant de 35 % pour un an à 55 % pour trois ans. Un nouveau rang PV3 (Premium V3) peut fournir également des machines virtuelles plus puissantes, avec 2, 4 ou 8 cœurs et une quantité de mémoire grimpant jusqu’à 32 Go. Ces machines virtuelles sont présentées comme 20 % moins chères que les PV2.

On note également l’intégration de GitHub Actions à App Service. Elle doit simplifier les flux de travail automatisés quand survient un nouvel évènement tel qu’une demande de tirage ou une validation. Via l’intégration, tous les paramètres CI/CD deviennent accessibles dans le centre de déploiement App Service.

L’assistant de migration d’App Service gagne une corde à son arc avec Java Tomcat. Il peut cibler les applications web exécutées sur de tels serveurs, les découvrir, les évaluer puis les migrer vers Azure, sous Windows ou Linux.

Toujours pour les développeurs, signalons l’intégration d’Azure avec Datadog qui commercialise une solution de contrôle pour le cloud. Elle permet notamment de mapper les systèmes hérités et basés sur le cloud, surveiller en temps réel les données pendant la transition, vérifier que les applications répondent aux critères fixés, etc.

Azure Spring Cloud, développé et opéré conjointement avec VMware, est compatible avec Steeltoe, un cadriciel .NET qui permet le développement de microservices, notamment à l’aide de bibliothèques et extensions préconçues.

Enfin, Logic Apps a lui aussi été mis à jour. On y trouve de nouvelles options d’hébergement, des performances améliorées, mais surtout plusieurs fonctions. Par exemple, il sait maintenant gérer plusieurs flux de travail au sein d’une application unique pour simplifier les déploiements automatisés et les pipelines CI/CD.

Une extension pour Visual Studio permet en outre la création de flux de travail dans les applications. Elle prend en charge le développement local et GitHub Actions.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Disponibilité générale d’Azure Arc, les sources de données en préversions

Azure Data : bases Redis, CosmosDB, Database pour MySQL/PostgreSQL, Azure SQL Edge…

Centres de données et régions : faut que ça bouge

Cloud hybride, infrastructure et migration

Azure et les objets connectés

Réseau Azure : du Cisco et de l’équilibrage de charge

Et pour les développeurs ?

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (1)


Coté AKS (kubernetes) on a identifié les points suivants:




  • GA support de l’identité des pods

  • Preview du start/stop de cluster (avec le master, pas juste les noeuds)

  • Preview de l’autoupgrade (un pas vers le full managé)

  • Preview du resource health (autre pas vers le full managé)

  • GA RBAC & Azure Policies

  • Preview disk OS sur SSD emphemeral storage (putain enfin le fix des problèmes d’IO !)

  • Preview support des noeuds confidential-compute pour empêcher l’accès cloudeur