Recientemente, ha habido mucho alboroto acerca de Tecnología LIDAR Tan integrado en los nuevos dispositivos de Apple es fácil olvidar que la realidad aumentada en el móvil podría funcionar de otra manera. Pero puede hacerlo, especialmente con las herramientas ToF alcanzando nuevas alturas en los teléfonos Samsung.
Ya sea que sea un desarrollador, esté en el mercado de un nuevo dispositivo o simplemente una persona curiosa, vale la pena tomarse el tiempo para familiarizarse con estos atajos y aprender las entradas a la detección de profundidad en dispositivos móviles.
Enlaces rápidos
¿Qué es ToF?
ToF es un acrónimo de tiempo de vuelo.
Técnicamente, ToF significa usar la velocidad de la luz (o incluso del sonido) para determinar la distancia. Mide el tiempo que tarda la luz (o el sonido) en salir del dispositivo, rebotar en un objeto o avión y regresar al dispositivo, todo dividido por dos que revela la distancia desde el dispositivo hasta el objeto o avión.
Entonces, la relación es que LiDAR es un tipo de ToF, pero no todos los ToF son LiDAR. Para simplificar las cosas, cuando hablamos de "ToF" nos referimos a la medición de distancia óptica, sin incluir LiDAR.
Entonces, si tanto las tecnologías ópticas LiDAR como las que no son LiDAR utilizan la luz para la determinación de la distancia y el mapeo 3D, ¿en qué se diferencian entre sí?
¿Qué es LIDAR?
LiDAR es un acrónimo de Light Detection and Ranging. Esta tecnología utiliza un láser, o rejilla láser, como fuente de luz en la ecuación detallada anteriormente.
Se puede usar una sola lectura de LiDAR para medir cosas como el ancho de la habitación, pero se pueden usar múltiples lecturas de LiDAR para crear "puntos de atracción". Que se puede utilizar para crear modelos 3D de objetos o mapas topográficos de regiones enteras.
Si bien LiDAR puede ser nuevo para los dispositivos móviles, la tecnología en sí existe desde hace mucho tiempo. Alejándose de los dispositivos móviles, LiDAR se está utilizando para hacer de todo, desde mapear entornos submarinos hasta descubrir sitios arqueológicos.
¿En qué se diferencian LiDAR y ToF?
La diferencia funcional entre LiDAR y otras formas de tecnologías ópticas que usan ToF es que LiDAR usa un láser pulsado para construir una nube de puntos, que luego se usa para crear un mapa o imagen 3D. Las aplicaciones ToF crean "mapas de profundidad" basados en la detección de luz, generalmente a través de una cámara RGB estándar.
La ventaja que tiene ToF sobre LiDAR es que ToF requiere un equipo menos especializado para que pueda usarse con dispositivos más pequeños y menos costosos. El beneficio de LiDAR proviene de la facilidad con la que una computadora puede leer una nube de puntos en comparación con un mapa de profundidad.
La API está funcionando API de profundidad Creado por Google para dispositivos Android, funciona mejor en dispositivos habilitados para ToF y funciona mediante la creación de mapas de profundidad y el reconocimiento de "puntos destacados". Estos puntos característicos, que a menudo son barreras entre diferentes intensidades de luz, se utilizan para marcar diferentes niveles en el entorno. Básicamente, esto crea una nube de puntos de baja resolución.
Cómo funcionan ToF y LiDAR con realidad aumentada en el teléfono
Los mapas de profundidad y las nubes de puntos son excelentes y, para algunas personas y aplicaciones, son suficientes. Sin embargo, para la mayoría de las aplicaciones AR, estos datos deben contextualizarse. Tanto ToF como LiDAR hacen esto trabajando con otros sensores en el dispositivo móvil. Específicamente, estas plataformas necesitan comprender la orientación y el movimiento de su teléfono.
Comprender la ubicación de un dispositivo dentro de un entorno determinado se denomina localización y mapeo síncronos, o SLaM. SLaM se utiliza en otras aplicaciones, como los vehículos autónomos, pero es muy necesario para las aplicaciones de realidad aumentada basadas en dispositivos móviles para colocar objetos digitales en el entorno real.
Esto es especialmente cierto para las experiencias que permanecen en su lugar cuando el usuario no interactúa con ellas, así como para colocar objetos digitales que parecen estar detrás de personas y objetos reales.
Otro factor importante para poner cosas digitales en aplicaciones basadas en LiDAR y ToF incluye "anclajes". Los anclajes son puntos digitales en el mundo real a los que se “adjuntan” objetos digitales.
En aplicaciones globales como Pokemon Go, esto se hace a través de un proceso separado llamado Geoetiquetado. Sin embargo, en las aplicaciones AR basadas en dispositivos móviles, el objeto digital se acopla en puntos en la nube de puntos LiDAR o en uno de los puntos característicos en un mapa de profundidad.
¿LiDAR es mejor que ToF?
Estrictamente hablando, LiDAR es más rápido y más preciso que ToF. Sin embargo, esto se vuelve más importante con aplicaciones tecnológicamente más avanzadas.
Por ejemplo, ToF y Depth API tienen dificultades para comprender objetos grandes y de baja textura, como paredes blancas. Esto puede dificultar que las aplicaciones que utilizan este método coloquen con precisión objetos digitales en alguna superficie del mundo real. Es menos probable que las aplicaciones que usan LiDAR experimenten este problema.
Sin embargo, es poco probable que las aplicaciones con entornos más grandes o con una composición más diversa encuentren este problema. Además, la mayoría de las aplicaciones AR de consumo basadas en dispositivos móviles implican el uso de un filtro AR en la cara o el cuerpo del usuario, una aplicación que es poco probable que encuentre problemas debido a las grandes superficies no tejidas.
¿Por qué Apple y Google usan diferentes sensores de profundidad?
Al lanzar sus dispositivos compatibles con LiDAR, dijo Apple Incluía los sensores y otro hardware para "desbloquear flujos de trabajo más profesionales y admitir aplicaciones profesionales de fotografía y video". El comunicado también describió al iPad Pro compatible con LiDAR como "el mejor dispositivo del mundo para la realidad aumentada" y promocionó la aplicación "Measurement" de Apple.
Google no ha proporcionado una explicación clara de por qué LiDAR no se usa tanto en la API de profundidad como en la versión más nueva de los dispositivos compatibles. Además de trabajar con LiDAR, manteniendo los dispositivos Android más livianos y asequibles, también hay una gran ventaja en la accesibilidad.
Dado que Android se ejecuta en dispositivos móviles fabricados por varias empresas, el uso de LiDAR favorecerá los modelos compatibles con LiDAR a expensas de todas las demás empresas. Además, dado que solo requiere una cámara estándar, la API de profundidad es compatible con versiones anteriores de más dispositivos.
De hecho, la API de profundidad de Google no depende del hardware, lo que significa que los desarrolladores que utilizan la plataforma crean una experiencia Google realidad aumentada También pueden desarrollar experiencias que funcionen en dispositivos Apple.
¿Ha explorado la detección de profundidad?
Este artículo se centró principalmente en LiDAR y ToF en experiencias de realidad aumentada basadas en dispositivos móviles. Esto se debe en gran parte a que estos experimentos más complejos requieren la mayor explicación. Esto también se debe a que estas experiencias son las más divertidas y con mayor visión de futuro.
Sin embargo, enfoques de detección de profundidad como estos son la base para muchos experimentos y herramientas más simples y prácticos que puedes usar todos los días sin pensar mucho en ellos. Esperamos que leer sobre ToF y LiDAR le permita apreciar mejor estas aplicaciones. Puedes ver ahora Aprovecha LiDAR en iPhone: los usos más interesantes.