1947 a été une année intéressante. Pas que j’y étais moi-même, vous comprenez, mais j’ai entendu des histoires. Par exemple, 1947 était l’année où l’ingénieur électricien et physicien hongrois-britannique Dennis Gabor a inventé l’holographie. 1947 était également l’année où William Shockley, John Bardeen et Walter Brattain ont démontré le premier transistor chez Bell Labs. Également en 1947, Alan Turing a donné ce que l’Encyclopedia Britannica décrit comme « très probablement la première conférence publique à mentionner l’intelligence informatique ». Maintenant, seulement 77 ans plus tard, ces trois domaines se réunissent de manière impressionnante.
J’ai dit cela auparavant, et (sans aucun doute) je le répéterai, je pense que la combinaison de l’intelligence artificielle (IA) et de la réalité mixte (MR) va changer la façon dont nous interagissons avec nos systèmes, le monde et les uns avec les autres. Pour nous assurer que nous tapons tous sur le même rythme de la cornemuse, le MR englobe la réalité augmentée (AR), la réalité diminuée (DR), la réalité virtuelle (VR) et la réalité virtuelle augmentée (AV). Certaines personnes utilisent également le terme de réalité étendue (XR), mais je l’assimile à MR, et ne me lancez pas sur la réalité hyper (HR) (voir aussi Qu’est-ce que le VR, MR, AR, DR, AV et HR ?).
L’une des principales exigences pour la combinaison AI+MR/XR est une forme d’affichage. C’est là que les gars et les filles de Swave Photonics entrent en scène avec un ballyhoo de bimbonifonos (mes oreilles résonnent encore). Il y a un peu plus de deux ans, au moment où j’écris ces mots, Swave a commencé sa vie avec pour mission d’utiliser la technologie Holographic eXtended Reality (HXR) développée par imec pour donner vie au métavers. À l’époque, ils ont trompetté, tromboné et bimbonifoné :
Notre technologie HXR est le Saint Graal du métavers, offrant des images 3D haute résolution et réalistes visibles à l’œil nu, sans compromis. La technologie HXR permet une résolution de pixel 1000 fois supérieure avec des milliards de pixels minuscules et densément emballés pour permettre une vision réelle 20/20 sans obliger les spectateurs à porter des casques AR/VR intelligents ou des lunettes de prescription.
La technologie HXR de Swave projette des images holographiques réalistes qui éliminent les défis actuels de l’AR/VR/XR en matière de profondeur focale et de suivi oculaire, de sorte que les spectateurs peuvent facilement se concentrer sur des objets proches et éloignés. Plus important encore, les puces HXR sont fabriquées à l’aide de la technologie CMOS standard, ce qui permet une mise à l’échelle rentable. En exploitant les avancées de la photonique et de l’holographie basées sur l’optique diffractive, la technologie HXR gigapixel de Swave cible les plateformes de métavers, les murs holographiques à 360 degrés, les jeux 3D, les lunettes AR/VR/XR, la visioconférence collaborative et les affichages tête haute pour les systèmes automobiles et aérospatiaux.
La technologie Swave peut également alimenter des casques holographiques qui offrent des expériences AR/VR/XR immersives en 3D et haute résolution, avec une profondeur de champ parfaite et des angles de vue de 180 à 360 degrés, le tout sans les maux de tête ressentis par les utilisateurs de casques conventionnels. Les applications alimentées par la technologie HXR gigapixel seront capables de passer le test de Turing visuel dans lequel la réalité virtuelle est pratiquement indiscernable des images du monde réel que les humains voient avec leurs propres yeux.
Relisez cette dernière phrase. Celle qui dit : « Les applications alimentées par la technologie HXR gigapixel seront capables de passer le test de Turing visuel dans lequel la réalité virtuelle est pratiquement indiscernable des images du monde réel que les humains voient avec leurs propres yeux ».
Gardez cette pensée en tête pendant que nous faisons une brève digression. J’étais au premier rang de la queue lorsque le casque VR Oculus Rift a débarqué dans les rues en 2016. D’une part, cela ne fait que 8 ans. D’autre part, cela semble être une éternité. Maintenant, j’ai un casque MR Meta Quest 3. C’est génial, et il est facile de se laisser captiver et de suspendre son incrédulité. Par exemple, regardez cette vidéo de personnes essayant l’expérience Richie’s Plank
Si vous voulez vraiment passer au niveau supérieur, posez une planche de 8″ de large, 1″ d’épaisseur et 10′ de long sur le sol et équilibrez-vous dessus tout en « appréciant » l’expérience.
Le fait est que nous avons l’habitude de faire confiance à nos yeux. J’ai déjà utilisé les miens pour lire que 80 % de notre perception sensorielle du monde est visuelle (je ne sais pas qui a déterminé cela ou comment ils ont trouvé ce chiffre). En conséquence, même si les graphismes associés aux casques VR d’aujourd’hui ne sont vraiment pas si bons, une promenade sur la planche de Richie peut certainement faire battre votre cœur. Maintenant, imaginez la même expérience en portant un casque capable de passer le test de Turing visuel…
La raison pour laquelle je m’étends sur le sujet ici est que je viens de discuter avec Mike Noonen, qui est le PDG de Swave. Ma tête est encore en train de bourdonner et mon cerveau est encore en train de trembler sur ses cardans à cause de ce que j’ai entendu et vu. « Quel genre de casque monstrueux cela va-t-il prendre ? » ai-je demandé. Eh bien, Mike a attrapé un casque pour me le montrer, mais il l’a confondu avec ses propres lunettes. Après avoir réglé cela, il a présenté une paire de lunettes ressemblant beaucoup à celles que je porte maintenant, mais avec quelques pièces supplémentaires attachées à l’intérieur des montures.
Comme nous le voyons, nous avons des lasers RVB « tirant vers l’arrière » pour illuminer le modulateur de lumière spatiale (SLM) HXR de Swave, où un SLM est un dispositif qui peut contrôler l’intensité, la phase ou la polarisation de la lumière de manière spatiale. Ce SLM HXR est le dispositif qui est en train d’être testé.
Le SLM HXR projette la forme d’onde sculptée sur un miroir à forme libre, qui projette le front d’onde sur un miroir semi-transparent sur la lentille des lunettes. À son tour, ce miroir projette l’image sur la pupille de l’utilisateur.
Mike dit que pour faire de l’holographie correctement et obtenir le champ de vision énorme dont nous avons besoin, nous avons besoin que la distance entre les pixels (pitch) soit de 0,5 lambda (c’est-à-dire la moitié de la longueur d’onde du régime lumineux utilisé). La technologie de traitement numérique de la lumière (DLP) a actuellement une distance entre les pixels de 5,4 µm, ce qui équivaut à 10,8 lambda, tandis que la technologie liquid crystal on silicon (LCoS) a une distance entre les pixels de 3 µm, ce qui équivaut à 6 lambda. Même la technologie micro-LED (µLED) de pointe tourne autour de 2,5 µm. Bien que ce soient toutes des technologies impressionnantes, elles sont à la traîne lorsqu’il s’agit d’hologrammes. Pourquoi ? Eh bien, selon Mike, « lorsque vous avez une distance entre les pixels qui est un multiple de la longueur d’onde de la lumière avec laquelle vous travaillez, vous vous retrouvez avec un champ de vision qui est un peu comme regarder à travers un trou de serrure ».
En comparaison, la distance entre les pixels du HXR de Swave est inférieure à 300 nm. Cela équivaut à l’incroyable 0,5 lambda, ce qui signifie qu’ils commencent avec un champ de vision de 160 degrés dès le départ. Une autre façon de voir les choses est que le SLM HXR de Swave contient 16 mégapixels par millimètre carré, ce qui leur donne un quart de milliard de pixels par œil ! Selon Mike, « cela nous donne un nombre embarrassant de pixels – le plus grand écran du monde en termes de résolution, bien que cela soit pour l’holographie – le tout emballé dans une petite puce CMOS avec une économie CMOS ». À ce propos, tout cela est gravé sur des tranches de 300 mm utilisant un nœud de processus mature, ce qui équivaut à un coût et un risque plus faibles.
Maintenant, lorsque quelqu’un dit « affichages holographiques », je pense immédiatement au message de la princesse Leia (mais de préférence en couleur, avec une résolution plus élevée et moins d’artéfacts visuels et de bruit).
Mais cela m’a inquiété. Je suis moins enthousiaste à l’idée d’avoir une paire de lunettes MR légères si je suis également obligé de porter un sac à dos de 40 livres rempli d’unités de traitement graphique (GPU) pour générer les images et de batteries de voiture pour alimenter le tout.
Mike a dissipé mes craintes. Bien que les animations 3D complètes et les images réalistes puissent arriver à un moment donné dans le futur, ce dont nous parlons dans un avenir plus proche est la capacité de prendre des images 2D et de les projeter comme des hologrammes dans l’espace 3D.
Comme exemple, Mike dit que tout ce qui se trouve sur le bureau de votre tablette, ou sur l’écran de votre smartphone, ou sur le cadran de votre smartwatch peut être affiché sur ces lunettes en utilisant des bandes passantes de niveau Bluetooth.
Cela ouvre la porte à une richesse incroyable d’applications, y compris la fourniture de l’interface utilisateur idéale pour l’IA. Par exemple, lorsque je me promène dans une ville étrange, j’ai toujours voulu voir des flèches apparaître devant moi pour me guider là où je veux aller. Maintenant, en utilisant les capacités GPS et cartographiques de mon smartphone couplées à des lunettes équipées de la technologie Swave, je vois cela se concrétiser.
Cela arrivera-t-il de mon vivant ? Vous pouvez parier vos petites chaussettes en coton que oui ! En fait, Swave accepte actuellement les commandes de kits de développement HXR pour les fabricants d’appareils, qui seront livrés aux clients au cours du second semestre 2024. Ces kits de développement fourniront le matériel et les logiciels nécessaires aux entreprises pour concevoir, prototyper et tester leur propre matériel XR et leurs facteurs de forme en utilisant la puce Swave.
Pour ma part, je suis tellement excité que je rebondis sur les murs. Et vous ? Avez-vous des réflexions que vous aimeriez partager à ce sujet ?