Apple ha presentado una patente en la que esboza sistemas de realidad aumentada para iOS, que permitiría ofrecer a los usuarios una capa superpuesta de realidad virtual de los alrededores, incluyendo una "visión de Rayos X" que eliminaría los muros.
Apple presentó dos solicitudes en la USPTO, llamadas "Posicionamiento combinado de dispositivos móviles" (Federated mobile device positioning) y "Registro entre la posición real del dispositivo móvil y el modelo del entorno" (Registration between actual mobile device position and environmental model), ambos describiendo una solución de realidad aumentada avanzada que aprovecha la cámara del iPhone, los sensores incorpoados y el conjunto de sistemas de comunicación para ofrecer una vista en tiempo real que tiene superpuesta una capa de datos de ubicaciones.
El sistema utiliza primero GPS, la potencia de la señal Wi-Fi, datos de sensores y otras fuentes de información para determinar la ubicación de un usuario. A partir de ahí, la app descarga un modelo tridimensional del área que rodea al usuario, completa con esquemas y datos de imágenes de edificios cercanos y puntos de interés. Sin embargo, corresponder esa representación digital con el mundo real es una tarea compleja usando solo sensores.
Para ubicar correctamente el modelo, Apple propone que el esquema se superponga a una fuente de vídeo en directo captada por la cámara del iPhone. Los usuarios podrían alinear el archivo 3D con la fuente de vídeo manipulándolo en la escena usando gestos como pellizco, tocar y arrastrar y otros gestos, ofreciend un nivel de fiabilidad impensable con el uso exclusivo del dispositivo.
Alternativamente, los usuarios pueden ejecutar órdenes por voz como "desplazarse a la izquierda" o "desplazarse a la derecha" para que las imágenes coincidan. El esquema de la escena puede entonces "bloquearse" cuando un punto o puntos están alineados correctamente, ayudando a calibrar la vista de realidad aumentada.
Por ejemplo, un usuario de iPhone que entra en un local nuevo puede desconocer los alrededores. Abriendo la app de realidad aumentada, los usuarios podrían leer nombres de edificios cercanos y de calles, obtener información de empresas y comercio y, en algunos casos, "eliminar" muros para ver el interior de estructuras determinadas.
La "visión de Rayos X" no se detalla en profundidad en los documentos más allá de una nota diciendo que los arrchivos de los interiores de edificios se almacenarían en servidores externos. Puede asumirse, sin embargo, que una amplia base de datos de este tipo de datos es necesaria para coordinar adecuadamente las fotos con sus correspondientes en la vida real.
Finalmente, Apple señala que los datos para calibración se mejorarían a través de las contribuciones de los usuarios así como un método de marcadores para alinear que utiliza capacidades exclusivas o patrones en el mundo real para alinear la matriz.
Otro punto más para acercarnos a Matrix, aunque nada garantiza que Apple vaya a utilizar estas ideas en un producto próximo o futuro.
jueves, 4 de septiembre de 2014
Suscribirse a:
Enviar comentarios
(
Atom
)
0 comentarios :
Publicar un comentario