Les nouveaux iPhone Pro embarquent un quatrième capteur cette année, dédié à la réalité augmentée.

Apple a levé le voile sur ses nouveaux smartphones lors de sa deuxième keynote de rentrée. Comme on pouvait s’y attendre, ce sont pas moins de quatre modèles d’iPhone 12 qu’a présentés Apple ; deux modèles d’entrée de gamme, les iPhone 12 & 12 mini, et deux autres haut de gamme, les iPhone 12 Pro et 12 Pro Max. Ces deux derniers se distinguent des premiers sur plusieurs points, notamment sur la photographie. Les modèles Pro embarquent en effet trois capteurs photo – contre seulement deux pour les autres –, ainsi qu’un capteur LiDAR dédié à la réalité augmentée. Mais à quoi sert-il concrètement ?

Un capteur pensé pour la 3D

Ce module photo que l’on retrouvait déjà sur la dernière génération d’iPad Pro n’est pas un capteur photo comme les autres. Son rôle n’est pas d’immortaliser un cadre, mais plutôt de cartographier en environnement en 3D. Le capteur LiDAR permet en effet de mesurer la distance d’un objet par rapport à son objectif grâce à un système de lumière pulsée.

Le capteur émet en effet des impulsions de lumière infrarouge et mesure le temps que celle-ci met pour revenir à lui après avoir été réfléchie sur les objets. Il peut ainsi se rendre compte des différents obstacles qui se trouvent à proximité, mais aussi les identifier et les mesurer.

On retrouve ce type de capteurs sur les voitures autonomes qui cartographient leur environnement en trois dimensions pour éviter les obstacles. Dans leur cas, leurs capteurs se basent sur des ondes radios pour détecter les bordures et autres voitures.

Un soutien à la mise au point

Grâce à son système de lumière pulsée, le capteur LiDAR s’avère être un vrai soutien aux autres caméras puisqu’il les aide à réaliser une mise au point rapide sur les objets ou personnes pris en photo. Le capteur LiDAR est particulièrement utile dans les basses lumières, puisque l’autofocus traditionnel a souvent du mal sans ces conditions. Apple assure que grâce au capteur “Light Detection And Ranging”, la mise au point se fera 6 fois plus vite qu’auparavant sur iPhone.

Beaucoup de réalité augmentée

L’utilisation première de la technologie LiDAR devrait surtout se concentrer sur la réalité augmentée. Outre les filtres – Snapchat a d’ailleurs dévoilé un filtre inédit lors de la conférence d’Apple –, la RA va surtout permettre aux utilisateurs de voir ce que pourrait donner tel nouveau meuble dans leur salon ou dans leur chambre à coucher. La représentation sera améliorée.

Apple n’est évidemment pas le premier constructeur de smartphones à intégrer un tel capteur sur ses téléphones. Huawei et Samsung, pour ne citer qu’eux, ont opté pour des capteurs « temps de vol » (Time of Flight) qui se comportent de la même façon que le capteur LiDAR pour mesurer la distance des objets par rapport à la caméra.