Las gafas inteligentes no son solo una cosa de las películas que no puedes usar en el teatro, sino que en realidad existen. Google lanzó su programa Google Glass Explorer en 2012 como un producto experimental que tuvo que inscribirse para tener la oportunidad de comprar, y desde entonces hemos visto gafas inteligentes de compañías que van desde Panasonic hasta North y Snapchat. Pero a pesar de esa proliferación, parece que muy pocas personas los quieren o realmente se preocupan por ellos.
Entonces, ¿por qué, ocho años después de Google Glass, Apple lanza sus propias gafas inteligentes? Y sabemos que sí: el código del producto se incluyó accidentalmente en una versión oficial de herramientas para desarrolladores, y YouTuber John Prosser tiene una gran cantidad de detalles sobre exactamente qué esperar y cuándo. Apple realmente está haciendo esto.
Los mejores proveedores de VPN 2020: aprenda sobre ExpressVPN, NordVPN y más
Pero Apple lo está haciendo un poco diferente de lo que hemos visto antes. Ese es el beneficio de ver ocho años de evolución de gafas inteligentes. Según Prosser y su información, que admite libremente que se basa en un dispositivo prototipo, el precio comenzará en $ 499, no habrá cámara, todo el trabajo se realiza en el teléfono y Apple Glass no funcionará con lentes de gafas de sol . Aparte del precio, todas estas cosas se sienten como inconvenientes. Pero tal vez no.
Apple Glass ha sido el secreto peor guardado durante años, pero sabemos que prácticamente lo sabemos todo.
Apple no está volviendo a compartir Google Glass y las dos compañías tienen una visión muy diferente de lo que son las “gafas inteligentes”. Google quería entregar contenido contextual como notificaciones de llamadas entrantes, así como hacer cosas más ambiciosas como mostrar una vista en vivo de la navegación paso a paso mientras conducía. La pantalla era solo una pequeña lente de prisma, pero actuaba más como un teléfono inteligente Android que como un accesorio: Google Glass era en realidad un dispositivo inteligente por sí solo.
Básicamente, Apple está entregando una segunda pantalla que probablemente tendrá reglas muy restrictivas sobre lo que se puede mostrar en ella. Seguramente habrá notificaciones, y espero que pueda responder llamadas o que Siri envíe un mensaje de texto a través de Apple Glass. Pero no creo que vea un mapa en vivo cuando utilice Apple Maps, por ejemplo. Apple va todo con AR, y Apple Glass es una forma perfecta de hacerlo. La falta de una cámara será ser un factor limitante para las aplicaciones AR “divertidas”, pero recuerde que esta es la versión uno. Si tuviera que usar el iPhone original hoy, terminaría aplastándolo contra la pared.
Si bien Google Glass era una computadora contextual que usabas en la cara, Apple Glass será una forma increíble de entregar contenido AR. Es difícil comparar los dos.
Necesitamos comparar Apple Glass con Apple Watch, no Google Glass. Google Glass nunca fue un producto de consumo, todavía existe como una herramienta empresarial y fue una computadora portátil real que se ató a la cara. La idea era genial, pero la ejecución definitivamente no. El mayor obstáculo de Glass y lo que probablemente mostró que Google lo lanzó al público fue una mala idea, fue la falsa invasión de la privacidad que otras personas sentían si los usabas.
No importa que cada teléfono inteligente tenga una cámara. No importa que haya cámaras de seguridad con reconocimiento facial incorporado en todo el lugar. No importa que el prisma de Google Glass brillara como una linterna si usaras la cámara. La gente todavía se asustó porque Glass tenía una cámara. Apple está superando este obstáculo de privacidad al no poner una cámara en Apple Glass.
En cambio, hay un sensor LiDAR. El iPad Pro 2020 viene con un sensor LiDAR y las fugas sugieren que el iPhone 12 también albergará uno. LiDAR es muy útil para mapear lo que el sensor y su cámara complementaria pueden ver, pero no estoy exactamente seguro de cómo puede funcionar por sí solo. Pero no necesito saberlo, porque Apple Glass procesa todo en el iPhone, por lo que una aplicación como Apple Maps puede enviar datos sobre su ubicación a la pantalla inteligente y mostrarle algo útil, como información sobre una venta de ropa si está en Target, o algo genial, como reproducir un video mientras estás en el Lincoln Memorial.
Más: el iPad Pro ahora tiene LiDAR, pero Google podría hacerlo más grande y mejor
Lo LiDAR lata hacer es rastrear el movimiento, por lo que, en teoría, podrías controlar las cosas usando gestos. Cosas como descartar notificaciones o controles de audio estilo Pixel 4 son completamente posibles usando LiDAR. LiDAR es realmente genial, incluso si no es llamativo. Es una herramienta
Al principio, todos los wearables parecen decepcionarse y Apple Glass probablemente no será una excepción.
El primer Apple Watch se lanzó sin la capacidad de hacer nada por sí solo, y en su lugar se basó en un iPhone para cualquier procesamiento. Era una pantalla remota y había algunas críticas sobre lo útil que era. Desde entonces, Apple ha hecho un trabajo excepcional al crear una pequeña Mac en una caja para poner dentro del Apple Watch y las personas que la poseen la aman y la encuentran útil todos los días.
Eso es lo que se puede esperar de Apple Glass. La primera versión será un poco decepcionante y dependerá en gran medida del nombre de Apple para mantener el proyecto a flote mientras se realizan mejoras. Mientras la integración con las aplicaciones AR en el iPhone se realice correctamente, Apple no tendrá dificultades para evitarlo. AR puede ser divertido, pero también puede ser útil. Cuando se hace con un par de anteojos, podría ser más divertido y más útil.
0 comentarios :
Publicar un comentario