sábado, 16 de junio de 2018

Cómo funciona ARKit 2, y por qué Apple está tan enfocada en AR

Apple está invirtiendo en AR hoy, a pesar de que el caso de uso asesino aún no ha llegado.

SAMUEL AXON

La realidad aumentada (AR) ha jugado un papel destacado en casi todos los eventos de Apple desde que se introdujo iOS 11, Tim Cook ha dicho que cree que será tan revolucionario como el teléfono inteligente, y AR fue el mayor enfoque de Apple en sesiones con desarrolladores en la WWDC este año .

¿Pero por qué? La mayoría de los usuarios no creen que la aplicación definitiva para AR haya llegado todavía, a menos que cuentes Pokémon Go . Hasta ahora, los casos de uso son geniales, pero no son necesarios y son mucho menos geniales en una pantalla de iPhone o iPad de lo que serían si tuvieras gafas o contactos que hicieran lo mismo.
Sin embargo, desde la presentación de WWDC de este año a las diversas sesiones de desarrolladores de Apple en el Centro de Convenciones de San José y publicadas en línea para que todos las vean , está claro que Apple está invirtiendo mucho en realidad aumentada para el futuro.

Vamos a analizar lo que Apple ha dicho sobre AR y ARKit esta semana, repasemos exactamente lo que hace el kit de herramientas y cómo funciona, y especulemos sobre la estrategia de la compañía: por qué a Apple parece importarle tanto el AR y por qué cree que va a llegar primero en la próxima fiebre del oro.

Qué es ARKit y cómo funciona
Comencemos con exactamente lo que ARKit es y hace. Vamos a revisar a fondo las características de alto nivel y los propósitos del kit de herramientas. Si desea aún más detalles, Apple ha realizado charlas y documentación sobre el tema disponible en su portal para desarrolladores.

La explicación más simple y breve de ARKit es que hace mucho trabajo pesado para los desarrolladores de aplicaciones en términos de trabajar con la cámara del dispositivo iOS, escanear imágenes y objetos en el entorno, y posicionar modelos 3D en el espacio real y hacerlos encajar en .

O como dice Apple :

ARKit combina el seguimiento del movimiento del dispositivo, la captura de escenas de la cámara, el procesamiento avanzado de escenas y las conveniencias de visualización para simplificar la tarea de crear una experiencia de AR. Puede utilizar estas tecnologías para crear muchos tipos de experiencias de AR utilizando la cámara trasera o la cámara frontal de un dispositivo con iOS.

Apple lanzó inicialmente ARKit con iOS 11 en 2017. Los desarrolladores de aplicaciones podrían usar Xcode, el entorno de desarrollo de software de Apple en Mac, para construir aplicaciones con él. ARKit principalmente hace tres cosas esenciales entre bastidores en aplicaciones AR: seguimiento, comprensión de escena y renderizado.

El seguimiento mantiene las pestañas en la posición y orientación de un dispositivo en el mundo físico, y puede rastrear objetos como carteles y caras, aunque algunos de esos elementos rastreables no eran compatibles con la versión inicial de iOS 11.

La comprensión de la escena escanea esencialmente el entorno y proporciona información al desarrollador, a la aplicación o al usuario. En el primer lanzamiento, eso significaba planos horizontales y algunas otras cosas.

Renderizar significa que ARKit maneja la mayor parte del trabajo para colocar objetos 3D contextualmente en la escena capturada por la cámara del dispositivo, como poner una mesa virtual en el medio del comedor del usuario mientras usan una aplicación de compra de muebles.

ARKit hace esto mediante el seguimiento del entorno de algunas formas específicas. Repasemos el lanzamiento inicial admitido en ese frente.

Seguimiento de orientación
En la configuración de seguimiento de orientación , ARKit usa los sensores internos del dispositivo para rastrear la rotación en tres grados de libertad, pero es como girar la cabeza sin caminar a ninguna parte; los cambios en la posición física no se rastrean aquí, solo la orientación en un entorno esférico virtual con dispositivo en el origen. El seguimiento de orientación es un enfoque especialmente útil para aumentar objetos y lugares lejanos fuera de las inmediaciones del dispositivo.



Seguimiento mundial
Hay más en el seguimiento mundial . Realiza un seguimiento de la orientación de visualización de la cámara del dispositivo y de cualquier cambio en la ubicación física del dispositivo. Entonces, a diferencia del seguimiento de orientación, entiende si el dispositivo se ha movido dos pies hacia la derecha. También lo hace sin ninguna información previa sobre el medio ambiente.

Además, ARKit usa un proceso llamado odometría inercial visual, que implica la identificación de características físicas clave en el entorno del dispositivo. Esas características se registran desde múltiples ángulos a medida que el dispositivo se mueve y se reorienta en el espacio físico (se requiere movimiento, la rotación no proporciona suficiente información). Las imágenes capturadas en este proceso se usan juntas para comprender la profundidad; es similar a cómo los humanos perciben la profundidad desde dos ojos.

Esto genera lo que Apple llama un mapa mundial, que se puede utilizar para posicionar y orientar objetos, aplicarles iluminación y sombras, y mucho más. Cuanto más se mueva y reoriente un usuario, más se rastreará la información y más exactos y realistas serán los aumentos. Cuando ARKit construye el mapa del mundo, lo combina con un espacio de coordenadas virtual en el que se pueden colocar los objetos.

El dispositivo necesita datos de sensores ininterrumpidos, y este proceso funciona mejor en entornos bien iluminados que tienen textura y que contienen características muy distintas; apuntar la cámara hacia una pared en blanco no ayudará mucho. Demasiado movimiento en la escena también puede disparar el proceso.

ARKit rastrea la calidad del mapa mundial bajo el capó, e indica uno de los tres estados que los desarrolladores deben notificar a los usuarios de alguna manera:

No disponible : el mapa mundial aún no está construido.
Limitado : Algunos factores han impedido que se construya un mapa mundial adecuado, por lo que la funcionalidad y la precisión pueden ser limitadas.
Normal : el mapa del mundo está completo y se puede esperar un buen aumento.
Detección de plano
La detección de plano utiliza el mapa mundial para detectar superficies sobre las cuales se pueden colocar objetos de realidad aumentada. Cuando se lanzó ARKit con iOS 11, solo se detectaron y usaron planos horizontales, y variaciones como protuberancias y curvas podrían fácilmente perturbar los esfuerzos para ubicar objetos 3D precisos en la vista.

Con estas tres técnicas de seguimiento, los desarrolladores pueden pulsar ARKit para colocar fácilmente los objetos 3D que han modelado en un plano en la vista del usuario de la imagen de la cámara en la pantalla del dispositivo.

Funciones agregadas en iOS 11.3
Apple lanzó ARKit 1.5 con iOS 11.3 a principios de este año. La actualización hizo mejoras generales a la precisión y la calidad de las experiencias que se podrían construir con ARKit sin un esfuerzo de desarrollador agregado significativo. También aumentó la resolución de la vista de la cámara del usuario en su pantalla durante las experiencias de AR.

La versión inicial de ARKit solo podía detectar, rastrear y colocar objetos sobre superficies horizontales planas, por lo que ARKit 1.5 agregó la capacidad de hacer lo mismo con superficies verticales y (hasta cierto punto) superficies irregulares que no son completamente planas. Los desarrolladores podían colocar objetos en la pared, no solo en el piso, y hasta cierto punto, los baches reales en la carretera ya no eran protuberancias figurativas en la carretera.

Reconocimiento de imagen
ARKit 1.5 añadió el seguimiento básico de imágenes en 2D, lo que significa que las aplicaciones ARKit podrían reconocer algo así como una página en un libro, un póster de una película o una pintura en la pared. Los desarrolladores pueden hacer que sus aplicaciones introduzcan fácilmente objetos al entorno una vez que el dispositivo reconoce esas imágenes en 2D. Por ejemplo, un traje de Iron Man de tamaño natural podría colocarse en el entorno cuando el usuario apunte la cámara del dispositivo hacia un póster de película de Avengers .

Lo que Apple agregará en iOS 12
Eso nos lleva a la WWDC el 4 de junio de 2018, donde Apple anunció iOS 12 y algunas mejoras importantes y adiciones a ARKit que hacen que la plataforma sea capaz de una gama más amplia de aplicaciones y experiencias más realistas.

Los cambios permiten objetos virtuales que se adaptan al entorno de manera más convincente, experiencias de AR multiusuario y objetos que permanecen en la misma ubicación en el entorno en varias sesiones.

Guardar y cargar mapas
Anteriormente, los mapas mundiales AR no se guardaban en varias sesiones y no eran transferibles entre dispositivos. Eso significaba que si un objeto se colocaba en una escena en una ubicación particular, un usuario no podría volver a visitar esa ubicación y descubrir que la aplicación recordaba la escena anterior. También significaba que las experiencias de RA siempre eran solo en la mayoría de los aspectos que importaban.

En iOS 11.3, Apple introdujo la relocalización, que permite a los usuarios restaurar un estado después de una interrupción, como si la aplicación se suspendiera. Esta es una expansión significativa de eso. Una vez que se ha adquirido un mapa mundial en iOS 12, el usuario puede relocalizarse en una sesión posterior, o el mapa mundial se puede compartir con otro usuario o dispositivo utilizando el marco de trabajo MultipeerConnectivity . La compartición puede realizarse a través de AirDrop, Bluetooth, Wi-Fi o una serie de otros métodos.

ARKit comprende que el dispositivo está en la misma escena que en otra sesión, o el mismo que otro dispositivo, y puede determinar su posición en ese mapa mundial anterior.

Dos usuarios que experimentan el mismo entorno de AR, de los videos de desarrollador de Apple.
Enlarge / Dos usuarios que experimentan el mismo entorno de AR, de los videos de desarrollador de Apple.

Apple lo demostró construyendo un juego AR para que los desarrolladores lo estudien y lo emularan llamado Swiftshot , que tenía múltiples usuarios interactuando con los mismos objetos 3D en múltiples dispositivos a la vez.

Pero el juego multiusuario no es el único caso de uso posible. Entre otras cosas, guardar y cargar mapas podría permitir a los desarrolladores de aplicaciones crear objetos persistentes en una determinada ubicación, como una estatua virtual en una plaza de la ciudad, que todos los usuarios de dispositivos iOS verían en el mismo lugar cada vez que lo visitaran. Los usuarios incluso pueden agregar sus propios objetos al mundo para que otros usuarios los encuentren.

Todavía hay algunas limitaciones, sin embargo. Volviendo a una escena que ha cambiado significativamente en el mundo real desde la última visita, obviamente puede causar que la relocalización falle, pero incluso las condiciones de iluminación cambiadas (como el día y la noche) también podrían causar una falla. Esta es una nueva característica notable en ARKit, pero todavía queda trabajo por hacer para aprovechar plenamente su potencial.

https://arstechnica.com/gadgets/2018/06/arkit-2-why-apple-keeps-pushing-ar-and-how-it-works-in-ios-12/

0 comentarios :

Publicar un comentario