Amazon AWS annonce Cloud WAN, « une seule console pour tout gérer »

Martin Beeby, principal défenseur des développeurs d’Amazon Web Services (AWS), a annoncé lors d’une présentation principale au AWS Summit de New York une nouvelle façon d’exécuter des charges de travail à l’échelle mondiale, AWS Cloud WAN, le « WAN » – qui signifie réseau étendu.

« C’est une console unique pour tout gérer », indique Martin Beeby. L’utilisation de Cloud WAN permet à une entreprise d’exécuter des programmes sous la forme d’une combinaison de zones de disponibilité AWS, y compris les « zones locales » AWS et les « Outposts » AWS, des déploiements qui se trouvent à l’intérieur des propres centres de données des entreprises, note Martin Beeby, ainsi que de nombreuses autres ressources AWS telles que le edge computing.

L’événement d’une journée s’est tenu au Jacob Javitz Convention Center dans le Midtown de Manhattan, à New York. C’était le deuxième événement américain en direct, après celui de San Francisco. Martin Beeby remplaçait le directeur technique d’Amazon, Werner Vogels, qui devait prononcer le discours principal, mais qui n’a pas pu le faire en raison d’un problème de météo. « Considérez-moi comme la zone de disponibilité de Werner Vogels », a plaisanté Martin Beeby.

Configurer toutes les parties d’un réseau, y compris des clouds privés

Cloud WAN est présenté comme un moyen de configurer et de gérer facilement plusieurs parties d’un réseau basé sur AWS dans le monde entier, y compris les « clouds privés virtuels », ou VPC, d’AWS, ainsi que les offres de clouds privés sur site des clients. Plus de détails sont disponibles dans un billet de blog de Sébastien Stormacq, principal défenseur des développeurs AWS.

Parmi les clients qui utilisent des zones locales, on trouve le fabricant de jeux finlandais SuperCell, auteur de Clash of Clans, note Martin Beeby. Ils utilisent des zones locales aux Etats-Unis pour réduire la latence subie par leurs joueurs américains. La société d’échange financier Nasdaq utilise les avant-postes AWS afin d’exécuter les services AWS dans son propre centre de données.

AWS a par ailleurs annoncé que la compagnie aérienne Delta Airlines l’a choisi comme « fournisseur privilégié de services cloud ».

Zoom sur Graviton3 et Honeycomb

Martin Beeby a longuement parlé de la gamme de puces informatiques personnalisées d’Amazon, qui comprend « Trainium », pour le machine learning des formes d’intelligence artificielle ; « Inferentia », pour accélérer les prédictions avec des modèles formés et « Graviton », conçu pour accélérer les charges de travail générales.

La troisième génération de Graviton a été dévoilée fin mai, « Graviton3 », et certains clients d’AWS ont transféré des charges de travail sur la nouvelle puce avec des résultats favorables en termes de réduction des coûts et d’amélioration des performances.

Un exemple d’utilisation de Graviton3 est Honeycomb dot io, qui construit des programmes pour l’observabilité. Selon Liz Fong-Jones, ingénieure en fiabilité du site et défenseure des développeurs chez Honeycomb, la société a pu réduire ses coûts de 60 % par rapport à ses utilisations antérieures d’AWS en exécutant des programmes dans les instances de septième génération d’AWS, « C7G », en passant des instances de cinquième génération fonctionnant sur la puce Graviton2 qu’Honeycomb utilisait auparavant. « Le plus grand nombre de personnes possible devrait adopter Graviton3 parce que c’est beaucoup plus économe en énergie, beaucoup plus économe en carbone », explique-t-elle à ZDNet à l’issue de la keynote.

« Graviton3 a conduit à des avantages significatifs en matière de performances », poursuit Liz Fong-Jones. Honeycomb est en concurrence avec de nombreuses entreprises dans le domaine de l’observabilité et de la surveillance des performances des applications, notamment avec la start-up Lightstep. « Honeycomb se différencie uniquement par sa vitesse et son échelle, et AWS nous permet d’atteindre cette vitesse et cette échelle. »

« Pour ce qui est de la façon dont nous procédons, il s’agit de Graviton, Lambda et Spot Compute. Ces technologies ont été fondamentales pour nous », ajoute-t-elle, faisant référence aux technologies serverless d’AWS, sous l’égide d’AWS Lambda, et aux instances « Spot », qui consistent à utiliser la capacité EC2 disponible qu’Amazon propose à des prix pouvant atteindre 90 % de ceux des instances AWS EC2 normales.

Décrivant la vitesse et l’échelle, Liz Fong-Jones indique à ZDNet que « 10 secondes [temps de requête] est la limite de ce que nous considérons comme acceptable, le temps de requête médian est inférieur à 500 millisecondes, alors que nos concurrents peuvent prendre 30 secondes, une minute, deux minutes ».

Alors que « les concurrents peuvent dire que nous renvoyons les résultats immédiatement, ces concurrents pré-agrègent les données, ce qui limite les dimensions sur lesquelles vous pouvez effectuer des requêtes », précise Liz Fong-Jones. En revanche, « Honeycomb utilise un format d’index en colonnes, et nous pouvons vous donner n’importe quelle combinaison de champs à la volée ». Cette recherche agile est rendue possible par AWS Lambda. C’est important parce que l’observabilité signifie vraiment poser des questions « ouvertes », a-t-elle ajouté.

Réduire les coûts et augmenter l’efficacité énergétique de l’infrastructure

Au cours de la keynote, Martin Beeby a insisté auprès des développeurs pour qu’ils utilisent AWS Lambda, à la fois pour des raisons de réduction des coûts et d’efficacité énergétique de l’infrastructure. « Vous devriez vraiment commencer à envisager le serverless. Il peut véritablement vous faire économiser de l’argent et nous aider à sauver la planète », fait valoir Martin Beeby.

La technologie serverless est une forme de microservice apatride de calcul, ce qui signifie qu’elle peut traiter des demandes individuelles de ressources, telles que des requêtes de base de données individuelles, sans les frais généraux d’une instance de serveur entière. Elle permet ainsi d’économiser de la puissance de calcul et des coûts pour certains types de travaux.

Martin Beeby a présenté une version serverless du programme d’entrepôt de données Amazon Redshift. Il s’agit de l’un des trois programmes d’analyse en version serverless, les deux autres étant EMR, le service Apache Spark et une offre sans serveur d’Apache Kafka, le service de streaming d’événements.

La conférence de Martin Beeby a été interrompue à plusieurs reprises par des manifestants criant depuis le public diverses dénonciations d’AWS, notamment « Stop hurting immigrants, stop contracting with ICE », en référence à la division de l’immigration et des douanes du département de la sécurité intérieure des Etats-Unis. Les manifestants ont été escortés hors de la salle par la sécurité du Javitz Convention Center.

Source : ZDNet.com

Cliquez ici pour lire l’article depuis sa source.

Laisser un commentaire