Apple Vision Pro, le premier casque de la société, n’est pas un appareil pour métavers. Il s’agit du premier véritable produit informatique spatial d’Apple.
Comme beaucoup de monde, j’étais rivé à mon écran lors de la keynote qui a ouvert la conférence annuelle des développeurs d’Apple. J’avais entendu les mêmes rumeurs que tout le monde concernant le casque, et elles se sont avérées exactes : l’Apple Reality Pro sera disponible au début de l’année 2024. Il s’agit d’un appareil incroyable, mais aussi incroyablement cher.
Mais il y a eu un moment qui a transformé ma compréhension de ce qui se passait. Un présentateur parlait de la puce R1 en temps réel qui se trouve dans le casque et qui traite les informations provenant de l’énorme réseau de capteurs de l’appareil. Et soudain, j’ai compris que les deux grands projets « secrets » d’Apple de ces dix dernières années – la voiture et le casque – n’étaient pas du tout des projets distincts. Ils sont tous deux des manifestations de ce qui se passe réellement.
Apple construit le matériel et les logiciels nécessaires à l’informatique spatiale.
La voie vers l’informatique spatiale
Bien sûr, les indices étaient là. Regardez combien de fois dans la présentation ils ont parlé d' »informatique spatiale » (souvent) par rapport aux métavers (zéro). Mais le véritable indice est la puce R1 qui alimente le casque. Bien qu’elle fonctionne en parallèle avec la puce M2 qui équipe les Mac et iPad actuels, elle fait quelque chose de très différent : elle traite les données du capteur en temps quasi réel. Il n’y a donc pas de décalage entre ce que vous voyez à l’écran et ce que vous ressentez autour de vous.
Mais savez-vous où les puces en temps réel sont incroyablement utiles ? Non, plus que cela, essentielles ? Les voitures autopilotées.
L’informatique spatiale est, par essence, une informatique consciente de l’espace physique autour de votre appareil et capable d’interagir avec lui. Son utilisation dans les véhicules autonomes est et devrait être évidente : la voiture doit être capable de traiter les données de ses capteurs en temps réel pour s’adapter aux changements du paysage physique. Dans Vision Pro, il doit savoir où se trouvent les objets autour de vous, afin de placer l’écran que vous utilisez – ou de signaler qu’il y a quelqu’un à proximité et de permettre à la personne de percer l’image numérique. Il s’agit là d’une démarche physique de la part d’Apple.
L’informatique spatiale : la prochaine grande plateforme numérique
Il s’agit de la prochaine étape évidente du grand voyage du 21e siècle : la numérisation de tout, comme nous l’avions prédit en 2019. Pour atteindre cet objectif et commencer à exploiter la puissance de calcul pour mieux gérer notre environnement physique, les ordinateurs doivent comprendre l’espace physique en profondeur.
De petits indices de ce travail se sont cachés dans d’anciens produits Apple : la façon dont les grands HomePods utilisent en fait le son pour définir l’espace physique dans lequel ils opèrent, par exemple. Et maintenant, il connaît aussi la température et l’humidité. Ou encore les AirPods Pro et leur capacité à mélanger la musique et les sons du monde réel, tout en supprimant les entrées externes les plus bruyantes. Ou encore l’Apple Watch Ultra, avec ses deux types de GPS pour créer un appareil incroyablement conscient de l’endroit où il se trouve dans l’espace. FaceID dépend de la capacité à lire et à apprendre un objet physique : votre visage.
Il s’agit là de petits cadeaux au reste de l’écosystème Apple, issus du travail sur l’informatique spatiale. Le HomePod a bénéficié du travail sur l’audio spatial, et les AirPods Pro de l’idée de réalité mélangée : les sons du monde réel et les sons numériques se mélangent. La montre pousse à l’extrême l’idée de savoir précisément où l’on se trouve. Il s’agit là de technologies fondamentales pour les appareils conscients du monde qui nous entoure.
Quand le numérique devient physique
Bon nombre des utilisations les plus passionnantes de la technologie qui nous attendent dépendent de ce type d’idées. Pour créer une ville vraiment intelligente, il faut que le système informatique soit capable de comprendre les environnements physiques du monde urbain et de s’adapter en temps réel aux changements qui s’y produisent. Cela nécessite à la fois des logiciels et du matériel, en termes de puces en temps réel et de réseaux de capteurs. Apple est en train de construire une plateforme qui intègre tous ces éléments.
Tout appareil autonome, des robots de livraison aux drones, des voitures autonomes aux meilleurs aspirateurs robots, pourrait bénéficier de cette technologie. Les maisons intelligentes deviennent encore plus intelligentes lorsque les appareils comprennent la réalité physique de l’espace à plusieurs niveaux.
Cela signifie que les entreprises qui devraient s’inquiéter de ce qu’Apple a annoncé au début du mois de juin ne sont peut-être pas celles que vous attendez.
La mise à l’écart des métavers
De nombreuses personnes ont fait le lien entre le casque d’Apple et la ligne de quête de Meta, les considérant comme des concurrents naturels pour la prochaine vague de l’informatique. Ce n’est pas la bonne façon de voir les choses. Ils vont dans des directions opposées, mais utilisent des appareils similaires pour y parvenir.
Le Quest de Meta est fondamentalement un produit de RV. Il vous éloigne des contraintes de la réalité physique et vous transporte dans un espace numérique. C’est l’idée du métavers, sur lequel Zuckerberg a misé gros il y a quelques années. Et vous y accédez au moyen d’un casque.
Apple s’intéresse de très près à la réalité augmentée numérique. Si l’Apple Vision Pro est capable de devenir un appareil de RV et de s’affranchir totalement de la réalité – une bénédiction sur les vols long-courriers – ses principaux cas d’utilisation consistent à intégrer des objets numériques dans le monde réel. Vous restez conscient de votre bureau ou de votre salon, et des autres personnes qui s’y trouvent, même si vous interagissez avec un objet numérique que vous êtes le seul à voir.
Apple ajoute des éléments à la réalité existante. Meta vous permet de vous absenter de la réalité physique. À l’ère post-pandémique, alors que nous ressentons tous le besoin de redevenir physique, je ne parierais certainement pas contre Apple.
Le premier produit d’informatique spatiale
Si j’étais Tesla, je regarderais ce qu’Apple a fait ici avec un peu d’inquiétude. Si je fabriquais des kits pour maisons ou villes intelligentes, je me demanderais peut-être où Apple veut en venir.
L’Apple Reality Pro, aussi cher qu’il soit, est la version informatique spatiale du petit Mac original de 1984. Si vous le regardiez, vous ne verriez pas le futur iPhone, n’est-ce pas ? Et pourtant, il y a un lien direct entre l’un et l’autre.
Quels dispositifs l’informatique spatiale introduira-t-elle dans nos vies dans 10 ans ? Dans 20 ans ? Et dans 23 ans, c’est-à-dire le temps qui s’est écoulé entre le premier Mac et le premier iPhone ? Je n’en sais rien. Apple ne le sait pas, mais elle en sait plus que moi à l’heure actuelle. Et cela m’a appris une précieuse leçon : il est temps de moins penser à s’échapper dans des mondes virtuels et de penser davantage à ce qui se passe lorsque le physique devient numérique.