Les entreprises du Web 4.0 offriront, en théorie, des expériences très immersives aux clients. Les exigences en matière de traitement à grande vitesse pour fournir ces expériences obligeront beaucoup d’entre elles à transcender le nuage et à adopter le traitement des données à la périphérie du réseau, le edge computing.
Le Web 2.0 nous a apporté le contenu généré par les utilisateurs et l’interactivité – pensez à Twitter, Facebook, Slack et Zoom. Il a permis à la start-up en ligne Dollar Shave Club d’acquérir une notoriété mondiale en 2012 grâce à une vidéo YouTube dont la production n’a coûté que 4 500 dollars. L’entreprise a fait trembler les opérateurs historiques de son marché, jusqu’alors à l’abri des bombes, à tel point qu’Unilever aurait payé 1 milliard de dollars pour l’acquérir quatre ans plus tard.
Le Web 3.0 nous a apporté encore plus de perturbations, sous la forme de technologies telles que le big data, l’apprentissage automatique et la blockchain. Les entreprises sont donc naturellement désireuses de prendre de l’avance sur le Web 4.0. Les définitions de ce dernier varient, mais cette itération promet des services en ligne immersifs et hautement personnalisés, brouillant le physique et le numérique.
À quoi cela ressemblera-t-il ? Le métavers est à la fois la plus grande promesse et la plus grande menace du Web 4.0. C’est une menace pour les opérateurs historiques tels que Facebook (devenu Meta), en grande partie à cause de sa nature décentralisée. C’est une promesse pour les jeunes entreprises, car elles pourraient être en mesure d’exploiter la technologie d’une manière qui leur donnerait un avantage concurrentiel.
Tous les secteurs sont désireux d’être à l’avant-garde. Microsoft a récemment dépensé 68,7 milliards de dollars pour acquérir la société de jeux Activision Blizzard. JPMorgan, quant à elle, a créé son propre salon métavers, dans lequel les visiteurs sont accueillis par un tigre virtuel. Ce que les DSI doivent faire pour que cette technologie fonctionne bien est une question qui fait moins les gros titres.
Les entreprises qui proposent de la réalité augmentée (AR) et de la réalité virtuelle (VR) dans le métavers devront presque certainement reconfigurer leur puissance informatique pour que les expériences soient correctement immersives. Une offre centralisée de cloud computing, aussi performante soit-elle, ne suffira pas. La raison en est la latence – le décalage temporel sur le réseau.
La société suédoise de télécommunications Ericsson a souligné que les jeux vidéo où le temps est critique, comme les jeux de tir à la première personne, n’ont pas besoin de moins de 30 millisecondes de latence de bout en bout du réseau pour garantir une expérience de haute qualité. Plus le centre de données est éloigné de l’appareil final, plus la latence est importante. Selon une étude menée par Infinera, même sur les liaisons par fibre optique les plus rapides, la latence est de 5 microsecondes (0,005 milliseconde) pour chaque kilomètre de câble parcouru par les données.
C’est pourquoi les joueurs sérieux utilisent du matériel coûteux qui peut effectuer le traitement sur place. Le problème pour les entreprises est qu’il est peu probable que les consommateurs veuillent dépenser beaucoup pour un matériel spécial afin d’accéder aux services du métavers. Que faire ?
Gagner un avantage concurrentiel
L’informatique de périphérie, qui consiste à placer la puissance de traitement au plus près des données à traiter, est la prochaine étape après le nuage. « Cela fait vingt ans que l’on parle de l’informatique de périphérie, mais elle était limitée à des cas d’utilisation de niche », explique Ishu Verma, évangéliste des technologies émergentes chez Red Hat, fournisseur de logiciels d’entreprise open source. « Maintenant, l’idée de placer l’informatique et le stockage plus près des sources de données est adoptée plus largement dans les applications industrielles et grand public. » L’une des raisons importantes de cette évolution est que les systèmes de données sont devenus beaucoup plus performants, rentables et économes en énergie, de sorte que leur déploiement à la périphérie à grande échelle est beaucoup plus réalisable qu’auparavant. « Dans le nuage, vous augmentez la capacité. À la périphérie, vous la faites évoluer vers des millions de sites », explique M. Verma, qui ajoute qu’il existe une demande dans tous les secteurs qui ont besoin de services à faible latence ou qui veulent simplement éviter le traitement par lots.
Certains secteurs ont déjà une longueur d’avance. Les entreprises manufacturières, par exemple, utilisent l’informatique périphérique pour construire des jumeaux numériques – des répliques virtuelles intelligentes de l’infrastructure physique. Rolls-Royce, par exemple, peut proposer à ses clients un moteur d’avion virtuel en vol qui réagit comme la machine physique. Les capteurs du moteur renvoient des données via une liaison satellite, bien que la plupart des informations soient recueillies après l’atterrissage de l’avion. Les modèles d’apprentissage automatique informent le jumeau numérique et, par extension, l’objectif final, qui est d’améliorer la conception et la maintenance du moteur physique.
Le directeur de l’information et du numérique de Rolls-Royce, Stuart Hughes, explique que cette installation de simulation est importante pour l’entreprise, car certaines de ses activités sont « vraiment à la limite de la physique ». Le fait de disposer d’une réplique virtuelle d’un moteur permet aux testeurs de lui faire subir bien plus de scénarios qu’ils ne pourraient le faire physiquement. L’objectif à long terme de la société est de disposer d’un moteur « de plus en plus connecté, conscient du contexte et compréhensif ».
Dans l’état actuel des choses, la plupart des entreprises ont leur principale capacité de calcul dans le nuage, bien qu’il existe des exemples quotidiens d’informatique périphérique. Chaque distributeur automatique de billets est un minuscule centre de données, par exemple. Et l’interface utilisateur d’Alexa, l’assistant virtuel à commande vocale d’Amazon, ne repose pas sur l’aller-retour de chaque donnée vers le nuage. Une partie de ces données est analysée sur la machine. Les offres fournies par Amazon Web Services (AWS) constituent un continuum – jusqu’aux capteurs de l’internet des objets dans les locaux des utilisateurs. C’est ce qu’affirme le directeur du développement des produits d’AWS, George Elissaios, qui ajoute : « L’informatique de périphérie est de l’informatique en nuage ».
Les entreprises qui ne sont pas des hypercalculateurs de nuages ont tendance à faire encore une distinction claire entre le nuage et la périphérie. La règle générale est que le cloud offre des économies d’échelle, un meilleur contrôle du traitement et une plus grande capacité de calcul. « La formation et le développement de modèles d’apprentissage automatique se font dans le cloud, tandis que l’inférence des données en temps réel se fait à la périphérie », explique M. Verma. Les entreprises doivent également prendre en compte d’autres facteurs que la simple latence lorsqu’elles envisagent la périphérie. La souveraineté des données, par exemple, est une question épineuse. Comme Facebook est en train de le découvrir dans l’UE, certaines juridictions n’apprécient pas que les données soient transférées vers des serveurs situés au-delà de leurs frontières.
La sécurité est un autre élément clé. L’approche à adopter est la suivante : « Ne faites confiance à personne », conseille M. Verma. « Toute donnée provenant d’un appareil distant est suspecte ». Cela s’explique en partie par le fait que les appareils distants peuvent facilement être manipulés, contrairement à ceux qui se trouvent dans le nuage ou dans les locaux de l’entreprise. L’utilisation de la périphérie supplantera-t-elle l’utilisation du cloud ? Les experts s’accordent à dire que non.
« Je ne pense pas que la périphérie remplace le cloud. Je ne pense pas que la périphérie soit en concurrence avec le cloud », déclare Matt George, directeur du marketing sectoriel et de la transformation des entreprises pour Equinix dans la région EMEA. « À mesure que vous avancez sur la voie [vers des services plus en temps réel], ce que vous voulez, c’est la configuration informatique la plus agile et la plus flexible possible. »