Apple veut étendre la réalité augmentée au monde entier



Votre salon est trop petit pour Apple et pour la réalité augmentée. Le géant de Cupertino semble bien décidé à conquérir le monde afin de l’enrichir à coup d’expériences immersives, interactives et virtuelles.
C’est en tout cas une des promesses que semble faire le nouvel ARKit, l’ensemble d’outils de développement pour les applications de réalité augmentée de la société de Cupertino, introduit lors de la WWDC 2020.

L’AR, ancrée dans le réel

Grâce à une nouvelle fonction, baptisée Location Anchoring, il sera désormais possible d’ancrer une expérience de réalité augmentée sur un lieu géographique. Les ingénieurs d’Apple tirent parti des données agglomérées dans Plans pour positionner un élément virtuel, non seulement avec des coordonnées précises mais aussi une altitude précise.
On peut ainsi imaginer différentes expériences AR à chaque étage de la Tour Eiffel. Cela pourrait être très utile pour des jeux comme Minecraft Earth ou Pokémon Go.
Autre petite nouveauté qui pourrait avoir des répercussions intéressantes dans les jeux, notamment, la possibilité d’utiliser simultanément les caméras avant et arrière des iPhone et iPad. Cela pourrait permettre d’interagir avec des objets virtuels avec sa tête ou son visage, par exemple, explique Apple.

Le LIDAR pour encore plus de réalisme

Autre nouveauté d’ARKit 4, Depth API, qui va permettre aux applications de mieux utiliser les informations de profondeur de champ générées notamment par le LIDAR, qui équipe les derniers iPad Pro, et devrait faire son apparition dans la prochaine gamme d’iPhone.
Cette nouvelle fonction donne la possibilité de récolter des données précises au pixel près. Cela aura donc des répercussions intéressantes sur l’occlusion d’objets dans une expérience de réalité augmentée, que vous passiez devant ou derrière un objet virtuel.

Actu à voir aussi ...  Horoscope de la semaine, du 3 au 9 juillet 2024

Le LIDAR servira aussi à l’Instant AR. En détectant plus rapidement les plans, cet outil place les objets virtuels dans le monde réel de manière automatisée et donc plus rapide.

Ensuite, le suivi de visage est également amélioré, aussi bien sur la caméra avant que la caméra arrière de tous les appareils qui utilisent un puce A12 Bionic et suivantes, à savoir les iPhone X, XS, XR, SE 2020 et les iPad Pro 2018 et 2020.
Selon Apple, jusqu’à trois visages peuvent être suivis en temps réel avec la caméra TrueDepth. Cela permettra d’appliquer des masques ou des filtres à plusieurs personnes simultanément. Les Memoji seront bien évidemment les premiers à en profiter.

Par ailleurs, ARKit 4 intègre toujours des fonctions de motion capture, introduites avec ARKIT 3.5 en mars dernier, qui permettront aux applications de mieux interpréter les mouvements du corps et d’éventuellement mieux les reproduire ou les accompagner. De même, l’estimation de la taille devrait désormais être plus précise, sans altération du code des applications.

Source : Blog développeurs ARKit





Source link