Les banques peuvent-elles combler le déficit d

Lorsque le metaverse a été présenté pour la première fois par Mark Zuckerberg à l’automne dernier, on sentait un certain scepticisme pointer le bout de son nez, ici et là, pour ce système d’avatars et de mondes virtuels décrit par le patron de Meta comme étant la prochaine version d’internet.

Richard Kerris, qui dirige une équipe d’une centaine de personnes chez le géant des puces Nvidia, chargée de mettre au point une technologie pour le metaverse, connu sous le nom d’Omniverse, n’est pas du tout fermé à l’idée de ce monde futur.

Il est cependant sceptique sur une chose, « la façon dont les gens ont tendance à en parler », a déclaré Richard Kerris à ZDNet, lors d’un récent voyage à New York pour rencontrer des développeurs. « Les gens interprètent à tort le metaverse comme une destination, un monde virtuel, un ceci ou un cela », a observé Richard Kerris. « Le metaverse n’est pas un lieu, c’est le réseau de la prochaine version du Web. »

Vivre et penser en 3D

« Remplacez simplement le mot « metaverse » par le mot « réseau », et vous commencerez à comprendre » dit-il. Le réseau, dans le sens où Richard Kerris l’entend, est une sorte de technologie sinueuse qui reliera les médias riches sur de nombreux sites web, en particulier le contenu en 3D.

« De la même manière que le web a unifié tant de choses […], la prochaine génération de ce web, dont les principes fondamentaux seront la 3D, posera le défi de la rendre omniprésente entre les mondes virtuels. Le résultat final serait, de la même manière que vous pouvez passer de n’importe quel appareil à n’importe quel site web sans avoir à charger quelque chose – rappelez-vous le bon vieux temps, « Quel navigateur avez-vous, quelle extension, etc. » tout cela a disparu avec la ratification du HTML – lorsque nous pourrons faire cela avec la 3D, cela va être transformateur. »

Sans surprise, étant de Nvidia, qui vend la grande majorité des puces graphiques (GPU) pour rendre la 3D, Richard Kerris fait remarquer que « nous vivons dans un monde 3D, nous pensons en 3D » mais le web est une réalité 2D. « Il est limité », dit-il, avec des îlots de capacités de rendu en 3D qui ne sont jamais interconnectés.

« La cohérence des mondes connectés est à l’origine de la magie qui s’opère », a-t-il déclaré. Ainsi, « je peux me téléporter d’un monde à l’autre, et je n’ai pas besoin de le décrire à chaque fois que je le construis ».

Le format USD

L’analogue du HTML pour ce nouvel écosystème 3D est quelque chose appelé « USD » (Universal Scene Descrption), soit la description universelle de la scène. L’USD est un cadre d’échange inventé par Pixar en 2012, qui a été publié en open source en 2016, fournissant un langage commun pour définir, emballer, assembler et éditer des données 3D. Pour le dire simplement, USD est capable de décrire de nombreux éléments dans un environnement 3D, de l’éclairage au comportement physique des objets qui tombent.

En pratique, Richard Kerris imagine le metaverse défini par USD et activé par l’omniverse comme un voyage où les gens passent d’un monde en 3D à l’autre aussi facilement qu’ils naviguent sur des sites traditionnels. « Je peux passer d’une usine virtuelle à un centre de villégiature virtuel, à une salle de conférence virtuelle, à un centre de conception virtuel ou à n’importe quoi d’autre », explique Richard Kerris.

Au sein de ces environnements, le rendu 3D permettra aux gens d’aller au-delà de l’encombrant réseau de partage de fichiers. « Et cela permet d’offrir beaucoup plus de possibilités dans ce que je fais », a-t-il déclaré, en donnant l’exemple des concepteurs de produits. « Avec le metaverse, nous serons dans cet environnement 3D, au même moment, et plutôt que de partager une page web, nous pourrons nous déplacer, vous pourrez regarder quelque chose de ce côté du produit, je pourrai regarder autre chose, mais c’est comme si nous étions dans la même pièce au même moment. »

Selon Richard Kerris, Nvidia s’est lancé sur la voie de l’USD il y a six ou sept ans « parce que nous simulons tout ce que nous construisons [chez Nvidia] avant de le construire dans le monde physique », a-t-il déclaré. Nvidia a des pairs dans l’industrie qui travaillent sur la réalisation de la technologie, notamment Ericsson, qui veut simuler des antennes. « Ils veulent tous une simulation de la réalité », dit-il à propos des entreprises du giron de Nvidia.

Simuler le réel avec précision

Selon Richard Kerris, cette technologie permet d’aller beaucoup plus loin dans le domaine des jumeaux numériques, des simulations de produits et de structures qui permettent d’intervenir, d’expérimenter et d’observer. « Auparavant, cela se faisait en mode représentatif », comme l’illustration d’un bâtiment dans Autodesk. « Ce n’était pas fidèle à la réalité, je ne pouvais pas vous montrer exactement comment ce serait en cas de tempête de vent ».

La « base de la situation qui est fidèle à la réalité », en utilisant USD, permettra aux concepteurs de simuler avec plus de précision, à rebours et en avant, y compris des choses comme la résistance à la traction.

« J’aimerais avoir une maison dont la structure est solide avant de concevoir la finition en marbre », a-t-il observé. « Si je construis un jumeau numérique d’une maison que je suis en train de construire, il y a des couches de choses dessus, des choses pour les ingénieurs structurels, et du polissage que d’autres vont venir terminer. » L’important est de savoir que les matériaux et les éléments qui maintiennent la structure en place sont « fidèles à la réalité », a-t-il ajouté.

En rendant possibles ces interactions plus riches en 3D, a déclaré Richard Kerris, « de la même manière que le web a transformé les entreprises, les expériences et la communication, le metaverse fera de même, et dans un environnement plus familier, car nous travaillons tous en 3D ».

Différentes entreprises contribuent à USD de différentes manières. Par exemple, Nvidia travaille avec Apple sur ce que l’on appelle la « définition de corps rigide ». Nvidia a développé les outils Omniverse en tant que « plateforme », ce que Richard Kerris appelle « le système d’exploitation du metaverse ». Et d’ajouter : « Les gens peuvent s’y brancher, ils peuvent construire par-dessus, ils peuvent s’y connecter, ils peuvent le personnaliser – il est vraiment à leur disposition, un peu comme l’est un système d’exploitation aujourd’hui. »

Effets multiplicateurs

Selon Richard Kerris, la norme USD est « assez avancée » en termes d’adoption, la plupart des sociétés de 3D l’utilisant. « Toutes les entreprises du secteur du divertissement ont aujourd’hui une stratégie USD », a-t-il observé. « Dans le domaine de la CAO [conception assistée par ordinateur] et de l’ingénierie mécanique, c’est pour bientôt, soit ils ont des plans, soit ils participent à la définition de ce qui est nécessaire. »

« Le HTML était de la même façon à ses débuts », a-t-il ajouté, manquant de support pour la vidéo à ses débuts, avec des plugins tiers comme Adobe Flash dominant, avant que les normes n’évoluent.

Les jumeaux numériques vont-ils enflammer l’imagination du monde au sujet du metaverse ? Il semble un peu trop axé sur l’industrie. Les gens ordinaires s’y intéresseront lorsqu’ils réaliseront qu’il s’agit de connectivité, et non d’une destination unique. « Lorsqu’ils réaliseront qu’il s’agit de la prochaine génération du web, je pourrai me rendre dans un endroit éloigné sans avoir besoin d’un casque ou d’installer des navigateurs spécifiques, c’est un aspect », a déclaré Richard Kerris. « Dans leur vie de tous les jours, comme nous partageons des photos aujourd’hui, vous serez en mesure de partager des objets ; vous savez, votre enfant rentre à la maison, et il a fabriqué quelque chose et il pourra le partager avec les grands-parents. »

« Cela fera tout simplement partie de ce que vous faites, que vous achetiez un meuble pour votre maison, et vous irez dans votre téléphone, vous vous synchroniserez avec la maison, vous déposerez le meuble, vous vous promènerez autour – c’est la chose que les gens prendront pour acquise, mais c’est la connexion transparente. »

Il en va de même pour la conception de la finition de sa voiture personnalisée, a-t-il proposé. « Vous serez réellement connecté à l’usine qui fabrique cette voiture » pour en vérifier tous les aspects.

Autrement dit, « cela va tout changer ». Et il y aura aussi des effets multiplicateurs, a ajouté Richard Kerris, car les jumeaux numériques permettent de tester de multiples scénarios, comme dans le cas des robots d’entraînement. « Aujourd’hui, on branche un ordinateur sur le robot et on lui fournit des informations pour l’entraîner dans un seul espace physique », a-t-il expliqué. Dans un environnement de jumeaux numériques, avec un robot dans la pièce simulée, « vous pouvez former non seulement un robot mais des centaines », en utilisant « des centaines de scénarios que le robot pourrait rencontrer. Maintenant, ce robot va être des milliers de fois plus intelligent qu’il ne l’aurait été si vous l’aviez entraîné une seule fois ».

Amazon utilise Omniverse dans ses entrepôts

Nvidia a, en fait, poursuivi cette approche particulière depuis de
nombreuses années en faisant de la formation à la conduite autonome du
machine learning dans des environnements routiers simulés.

Bien que la conduite autonome n’ait pas atteint le développement promis, Richard Kerris estime que l’approche est toujours valable. « Je peux construire un jumeau numérique de Palo Alto », la ville de la Silicon Valley. « Et je peux avoir des milliers de voitures dans cette simulation, qui roulent, et je peux utiliser l’IA pour appliquer tous les types de simulation auxquels je peux penser – une tempête de vent, un enfant qui sort en courant, qui court après un ballon, une marée noire, un chien… de sorte que ces voitures en simulation apprennent plusieurs milliers de fois plus de scénarios que ne le ferait une voiture physique. »

Nvidia a effectué des travaux combinant les essais simulés avec la conduite réelle avec le constructeur automobile Mercedes pour la conduite autonome de niveau 5, le niveau le plus exigeant. « L’efficacité », c’est-à-dire la façon dont le logiciel autonome gère les scénarios routiers, « est assez étonnante », a affirmé Richard Kerris. « En utilisant des données synthétiques pour former ces voitures, vous avez un plus haut degré d’efficacité », en combinant les scénarios.

Quant à l’échéance de la vision, « nous la voyons déjà dans les entrepôts », a noté Richard Kerris, qui adoptent rapidement le régime d’entraînement des robots. Cela inclut Amazon, où un développeur a téléchargé Omniverse et l’a évangélisé au sein d’Amazon. La version entreprise d’Omniverse, qui est un produit sur abonnement, a été adoptée par Amazon pour une formation plus poussée des robots. Amazon utilise actuellement le logiciel pour ses robots de prélèvement et de placement.

« La beauté de la chose, c’est qu’ils ont découvert, en utilisant la génération de données synthétiques, qu’ils étaient capables d’être plus efficaces au lieu de se fier uniquement à la caméra » du robot pour la détection des objets. Ces caméras étaient souvent perturbées par le ruban d’emballage réfléchissant sur les paquets, note Richard Kerris. L’utilisation de données synthétiques générées par l’Omniverse permet de contourner cette limitation. C’est un exemple d’efficacité accrue en robotique, a-t-il ajouté.

Les consommateurs ressentiront probablement les effets de ces simulations dans les résultats finaux. « Il y a cent mille entrepôts sur la planèt » », a commenté Richard Kerris. « Ils cherchent tous à utiliser la robotique pour être plus sûrs, plus efficaces et pour mieux utiliser l’espace. » Les gens « ne sont peut-être pas conscients de ce qui se passe, mais ils en récolteront les bénéfices. »

En ce qui concerne les expériences directes des consommateurs, « les gens vont commencer à voir la possibilité de faire l’expérience de lieux », a déclaré Richard Kerris. Les dirigeants de l’industrie des loisirs s’intéressent, par exemple, à la manière de montrer une chambre d’hôtel aux consommateurs avant leur voyage, d’une manière plus efficace que les photos. « Je vais vous permettre de vous téléporter dans la chambre, d’en faire l’expérience, de sorte que votre décision sera fondée sur une expérience immersive, de regarder la fenêtre, de voir quelle sera ma vue », a décrit Richard Kerris.

Se passer du casque

L’impact sur l’éducation « va être énorme », a-t-il souligné. Aujourd’hui, en raison de leur situation géographique, certaines écoles des quartiers défavorisés ne peuvent pas organiser de somptueuses sorties éducatives. « Une école d’un quartier défavorisé n’aura pas vraiment l’occasion d’aller faire un safari en Afrique », a-t-il ajouté. « Je pense que les mondes virtuels connectés de manière transparente peuvent apporter de nouvelles opportunités en permettant à tout le monde de vivre la même expérience, quelle que soit l’école dans laquelle il se trouve. »

Un avatar de la chercheuse Jane Goodall pourrait « inspirer l’apprentissage », a-t-il proposé. « Pensez à ce que cela fait pour un élève ».

Tout en mettant l’accent sur la 3D, Richard Kerris ne pousse pas la réalité virtuelle ou la réalité augmentée, les deux technologies sur lesquelles les gens ont tendance à se concentrer. Ces technologies font partie du tableau, mais la 3D ne doit pas nécessairement être utilisée avec un casque, affirme-t-il.

D’une part, les outils de VR actuels, tels que les vidéos de VR sur YouTube, utilisant des casques conventionnels, sont assez limités, a noté Richard Kerris. « Ce n’est pas transparent, ce n’est pas facile, ce n’est pas comme un site web », a-t-il observé. Ce qu’il faut, c’est que les environnements virtuels disparates d’aujourd’hui reçoivent ce tissu tendu d’USD et de technologies connexes. « Ils sont tous déconnectés », a déclaré Richard Kerris à propos des proto-metaverse d’aujourd’hui, comme l’Oculus Rift. « S’il ne s’agissait que de simples sites web, où vous pourriez vous balader, et aller faire l’expérience, l’opportunité serait bien plus grande. »

Plutôt que d’avoir besoin d’un casque Oculus, « si je pouvais en faire l’expérience avec ceci qui est une fenêtre sur ce monde », a-t-il dit en brandissant son smartphone, « il y a beaucoup plus de chances que j’aille y jeter un œil. »

Richard Kerris a fait allusion aux premiers jours des sites web mobiles sur l’iPhone, lorsque Steve Jobs a dévoilé la technologie pour la première fois en janvier 2007, sur la scène de Macworld. « Quel a été le facteur de transformation qui a permis au web d’être dans la poche de tout le monde ? C’est un peu comme ça », a-t-il déclaré. « C’est presque arrivé alors que vous ne le saviez pas, et ensuite les gens le prennent pour acquis ».

Source : ZDNet.com

Cliquez ici pour lire l’article depuis sa source.

Laisser un commentaire