HaptoClone, les hologrammes à portée de main

Vous n’avez jamais rêvé de réprimander vos troupes comme Palpatine sans vous déplacer ? Ou de manipuler des structures, enlevant ou ajoutant, modifiant en temps réel une image en 3D d’un geste de la main comme Tony Stark ? Ce rêve est devenu réalité nous explique Yasutoshi Makino.
Ce jeune homme du Shinoda et Makino Lab de l’université de Tokyo qui intervient lors de la keynote « HaptoClone, les hologrammes à portée de main » va bien au-delà du thème de la 4e édition du Smart FIPA 2017 « Au-delà des écrans ». Car il ne nous propose pas d’améliorer nos écrans, non, il nous explique que nous n’en aurons même plus besoin.

Revenons un peu sur les avancées technologiques de la réalité virtuelle, ou VR pour les plus connaisseurs. Aujourd’hui les systèmes qui permettent de se balader dans une autre réalité via des engins technologiques sont de plus en plus populaires : Oculus Rift, PlayStation VR, HTC Vive, Hololens… Et pour ceux qui veulent « toucher » en plus de voir, et qui veulent y mettre le prix, il existe des manettes pour aller avec (HTC Vive Controller et Oculus Touch) et même des gants (Vexmo). Au Japon, pays de la surenchère, des salles de réalité virtuelle ont ouvert, permettant de simuler une descente en ski avec de faux skis accrochés aux pieds ou de se confronter au vertige avec une planche au sol représentant une planche suspendue au-dessus du vide dans le monde virtuel. Et oui, pour les plus curieux, une salle de VR pornographique y a aussi ouvert dont le but est de créer un univers totalement « immersif » pour l’utilisateur.

© Les Numériques.

Mais l’inconvénient de tous ces outils destinés à simuler une autre réalité, c’est l’appareillage. Si vous voulez explorer un autre monde (et que vous en avez les moyens bien sûr), accrochez-vous : lunettes de VR, gants, harnais et tapis de course spécialisé (style Cyberith Virtualizer) plus tous les fils qui traînent, attendez-vous à ressembler à un bébé en trotteur, emmailloté dans une couche de fils. Heureusement,  les chercheurs n’ont pas attendu que tous les adeptes de VR se ridiculisent pour améliorer le concept avec l’Airborne Ultrasound Tactile Display (2008) ou AUTD. Je ne vais pas vous embêter avec tout le baratin technique mais en gros, des plaques balancent de l’ultrason très concentré qui déclenche les capteurs situés sous la peau et boum, sensations tactiles sans rien toucher.

Étape supérieure, la technologie HaptoMime (2014). Très simple : par jeu de miroir une image provenant d’un écran flotte devant l’utilisateur et celui-ci peut interagir avec elle grâce à un système infrarouge qui capte les mouvements.

Combinaison des deux technologies précédentes, Horn (2014) vous laisse toucher des images virtuelles et vous pouvez même les faire bouger.

Mais la grande révolution apparaît avec la technologie HaptoClone (2015) que venait nous présenter Yasutoshi Makino. Bon, vous avez bien vu que maintenant on peut toucher des images qui flottent générées par ordinateur ; et bien là, vous pouvez toucher quelque chose de virtuel qui est en fait réel, mais pas là. Pas compris ? Je m’explique. Imaginez deux cubes, dont 5 côtés sont recouverts de plaques à ultrason. Chacun est le clone de l’autre, c’est-à-dire que ce qu’il se passe dans l’un se reproduira dans l’autre. Maintenant, imaginez que je prenne une balle et que je la place dans un des cubes : son image virtuelle sera répliquée à l’identique dans l’autre cube. Là ça devient cool : vous touchez la réplique de la balle virtuelle et, petit trip, vous décidez que vous voulez la pousser. Boum ! En même temps que vous poussez la balle virtuelle, l’autre cube copie les mouvements, donc la vraie balle tombe sans que vous l’ayez touchée ! Là vous vous dites « Bof ». Ah, public difficile. Et si je vous disais que vous pouviez toucher une autre personne à distance ? Et oui, si deux personnes mettent chacune la main dans un cube, elles peuvent se toucher virtuellement.

« Mais est-ce que ça se passe réellement en même temps ? N’y a-t-il pas un temps de décalage quand les deux cubes s’échangent des informations ? » me demandera un petit malin. Pas faux, mais ce décalage est négligeable, il est de l’ordre de 100 millisecondes.

Bon j’imagine que vous êtes déjà en train de penser à tout ce que vous pourrez faire avec, mais ne nous emballons pas. Pour l’instant, les cubes doivent rester proches, genre très proches. Tellement proches que vous avez juste à vous tourner vers votre pote pour lui serrer la poigne en vrai au lieu de le faire par l’intermédiaire des cubes. Et les plaques à ultrason ne peuvent pas vous apporter de sensations tactiles au-delà de 100 millinewton. C’est comme si ce qui vous touchait ne pesait pas plus de 10 grammes. Et oui, ça limite l’imagination tout de suite. Vous ne pouvez pas non plus saisir l’objet. Assez décevant en fait, me direz-vous. Et je vous réponds un grand « NAN ». Parce que passer en moins de 10 ans d’une image en 2D qui flotte, crédible que d’un certain point de vue, à une image 3D d’une personne que l’on peut toucher à distance, ça donne envie de savoir où on en sera dans 10 ans.

Et pour les plus philosophes et « sensibles » d’entre vous qui sont déjà en train d’imaginer le pire, des humains zombifiés incapables de distinguer réel et virtuel, piégés dans cette technologie et esprits perdus errant pour l’éternité, je réponds wow WOW. Bois un coup coco, et considère cela : si on est capable de faire la différence entre un train qui fonce sur nous et une image d’un train qui fonce sur nous en 1895, tout va bien se passer. Et sinon, ce serait pas cool ?