miércoles, 15 de julio de 2020

Google trabaja en gafas holográficas y relojes inteligentes híbridos

Un tatuaje temporal que, al aplicarse a tu piel, transforma tu cuerpo en un touchpad viviente. Un sencillo par de gafas que proyecta iconos holográficos. Un reloj inteligente que tiene una pantalla digital pero manecillas analógicas. Un control de realidad virtual que te permite recoger objetos en mundos digitales y sentir tu peso mientas los manipulas. Dentro de los laboratorios de investigación de Google, la gigante de búsquedas ha estado silenciosamente trabajando en estos proyectos en un intento por crear la próxima generación de wearables.
Algunos de estos prototipos provienen del Interaction Lab de Google, una iniciativa dirigida a entrelazar las experiencias digitales y físicas. Es parte de Google Research, una división de la gigante de búsquedas con raíces en el mundo académico que se enfoca en avances técnicos. El Interaction Lab  fue creado originalmente dentro de la división de hardware de Google en 2015, antes de que se uniera a la división de investigación de Google hace dos años, de acuerdo con el currículum de Alex Olwal, el director del laboratorio. Olwal, un investigador de alto mando en Google, había trabajado en X, la división de proyectos de vanguardia de Google, y ATAP, la división de hardware experimental de Google. 
La meta de Interaction Lab es expandir "las capacidades [de Google] de desarrollar rápidamente prototipos de hardware de conceptos de wearable y tecnología de interfaz", escribe Olwal. Sus iniciativas parecen ser más experimentos científicos que un bosquejo de un producto con la posible meta de comprobar ideas que competir con productos como Apple Watch o los Spectacles de Snapchat. Pero juntos, nos dan un vistazo a las ambiciones de Google dentro del segmento de wearables. 
Aunque algunos de estos proyectos se desarrollaron principalmente en Google, otros son resultado de la colaboración con investigadores de universidades de todo el mundo. Al menos dos de esos proyectos, el control VR y los tatuajes inteligentes, fueron parcialmente costeados a través de Google Faculty Research Awards, que apoya las labores académicas relacionadas a las ciencias computacionales y la ingeniería. Estos esfuerzos resaltan los estrechos lazos de Google con el sector académico.
Estos experimentos pueden jugar un papel clave en los próximos años a medida que las gigantes de tecnología se adentran a una nueva batalla en la tecnología de wearables. Muchos en la industria consideran que los wearables son la próxima gran plataforma de computación, después de los celulares. Google, Apple, Amazon, Samsung y Facebook (a través de su subsidiaria de realidad virtual Oculus) han lanzado wearables, que incluyen relojes, anillos, audífonos y chaquetas. Casi 370 millones de dispositivos wearables se distribuirán este año, según proyecciones de la firma de investigación IDC, y que crecerá a más de 525 millones en dos años.
Y no se trata solo de vender hardware. El llevar dispositivos repletos de sensores a los consumidores podría significar muchos más datos de lo que la gente ya provee desde sus teléfonos o sus computadoras de escritorio. Y esto es importante para Google, que obtiene más de US$160,000 millones en ingresos al año por anuncios dirigidos.
Google ha estado tratando de adentrarse en el segmento de wearable durante años pero no ha encontrado ni el momento ni el lugar propicio para hacerlos. En 2012, la empresa presentó las gafas inteligentes Google Glass. El dispositivo fue criticado desde sus inicios lo que llevó a su fracaso. Google también ha desarrollado un sistema operativo específico para los relojes inteligentes y otros dispositivos wearables, llamado Wear OS.
Recientemente, sin embargo, la empresa ha dado un impulso más contundente en el segmento. En junio, Google adquirió North, una empresa canadiense que fabrica gafas inteligentes llamadas Focals por US$180 millones. El año pasado Google anunció un acuerdo de US$2,100 millones para adquirir Fitbit. La adquisición ha despertado críticas sobre la capacidad de Google de adentrarse en nuevas industrias y comprar los datos de salud de millones de personas.
El realizar avances en el diseño de los wearables, como el uso de telas y tatuajes, es crucial, dice Tuong Nguyen, un analista de la firma de investigación Gartner. "Es para adelantarse de los demás", dice. "Al aprender de los consumidores de formas distintas que otras empresas ni siquiera están haciendo, aun cuando es un panorama incompleto".
Google ha confirmado su papel en estos proyectos. Olwal no ha contestado a múltiples solicitudes de comentario y Google se rehusó a facilitar una entrevista con Olwal.
Cada proyecto de Google está acompañado de un ensayo académico, fotos y videos de demostración, como se acostumbra con todos los trabajos realizados en Google Research. Los videos parecen estar dirigidos a mostrar los hallazgos a investigadores, y no los videos altamente producidos para mercadear un producto durante los eventos de presentación de Google. No está claro cuántos proyectos Interaction Lab está trabajando, o cuántos de ellos siguen activos. Olwal y Google están listados como colaboradores en todos estos proyectos, pero solo los proyectos de gafas y relojes híbridos especifican su afiliación con Interaction Lab.
La empresa ya a hechos un demostración pública de uno de los proyectos de Interaction Lab. La I/O Braid, que la empresa demostró en un evento de AI en San Francisco en enero, le permite a la gente controlar un dispositivo al interactuar con un cable. La Braid le permite a una persona, por ejemplo, empezar, parar y controlar el volumen de música en un teléfono al torcer o pellizcar el cable de tela de los audífonos. 
Pero los otros proyectos del laboratorio, así como también los otros proyectos de wearable en los que ha trabajado Olwal para Google, no han recibido tanto protagonismo. A continuación listamos algunos de estos proyectos:

 1D Eyewear

1D Eyewear, un proyecto de gafas inteligentes de Google, fue desarrollado por el Interaction Lab.
Captura de pantalla por CNET
Cuando Google presentó las Glass, creación de X, los críticos se burlaron de las gafas. A los consumidores no les gustó el diseño. Un bloque de vidrio se colocaba frente al ojo del usuario y los procesadores del dispositivos estaban albergados en el grueso marco de las gafas. Su diseño y las críticas sobre privacidad empujaron a Google a discontinuar la versión para consumidores de las gafas en 2015. Ahora, las Google Glass son mayormente una herramientas para los trabajadores de almacenes y otras industrias. 
El proyecto 1D Eyewear, de la Interaction Lab, parece estar diseñado para triunfar donde fracasaron las Glass: que la gente se las quiera poner. La meta es hacer del dispositivo lo suficientemente minimalista para que sea elegante. 
"El requisito de hacer que quepan todos los componentes electrónicos, ópticos y de generación de imágenes, además de baterías de suficiente capacidad, afecta grandemente las posibles opciones de diseño de la industria", escribieron Olwal y su equipo en un ensayo que describe el dispositivo. "Las variaciones de estilo que los usuarios pueden escoger están entonces limitadas por estas restricciones, con flexibilidad de uso y estética reducidas". Ver aquí el ensayo (en inglés) 
La solución que le da a ello el Interactive lab es un par de gafas que se sincroniza con un dispositivo Android y que proyecta iconos holográficos y luces de colores sobre los ojos del usuario. Por ejemplo, cuando se usa un app de navegación, una luz amarilla parpadeante aparece arriba del marco izquierdo para decirte que tienes que girar a la izquierda. Una luz que aparece arriba del marco derecho te dirige hacia esa dirección. Y otras notificaciones tienen código de color: una luz azul parpadeante significa que tienes un recordatorio de calendario. El amarillo es par Gmail, el verde es para notificaciones de chat o del teléfono. 
Una prueba del sistema holográfico del dispositivo.
Captura de pantalla por CNET
Las gafas también muestran 16 hologramas distintos que se proyectan con haces de láser. Las fotos son simples dibujos de "iconos comunes para dispositivos móviles", según el ensayo. Uno es de un teléfono, otro es de una bocina que se ve como una herramienta de control de volumen. No está claro cómo se pueden usar.
El desarrollo de este dispositivo parece estar en manos de otros equipos de Google. Después de que las Glass se eliminaran, la empresa dijo que iba a reimaginar el fallido producto bajo una nueva iniciativa llamada Aura. El proyecto fue puesto bajo la supervisión de ATAP. En el ensayo sobre las 1D Eyewear, los ingenieros listan a los equipos de Google Glass, Aura y X como "colaboradores". No está claro si 1D Eyewear se originó de uno de estos proyectos. Sin embargo, el currículum de Olwal dice que él había trabajado en el equipo de Google Glass Interaction Research y dice que el enfoque de la Interaction Lab desde 2015 hasta 2016 es trabajar en "Project Aura, Glass y más allá".

Grabity

Grabity, un control de realidad virtual, fue una colaboración con investigadores de Stanford.
Captura de pantalla por CNET

Grabity

Las plataformas de realidad virtual como Oculus de Facebook y Vive de HTC te pueden transportar a otros mundos digitales. Pero esos mundos no son tan inmersivos como la capacidad de explorar los ambientes que tú creas. Un dispositivo llamado Grabity, desarrollado junto con investigadores de la universidad de Stanford, está diseñado para emular el sentimiento de agarrar y recoger objetos en realidad virtual.
El prototipo no se coloca como un guante sino que se desliza entre tus dedos gordo e índice como un abultado control que se amarra a la mano. Coloca tus dedos como si tuvieras una lata de refresco en la mano. El dispositivo usa vibraciones leves, o hápticas, para reproducir la sensación de recoger pequeños objetos dentro de los juegos de realidad virtual. Las respuestas hápticas están diseñadas para reproducir el estiramiento de la piel en tus dedos cuando tomas algo. Para emitir esas vibraciones en tus manos, el dispositivo integra dos pequeños motores llamados actuadores de bobina de voz. La base del gadget tiene un brazo que oscila para adelante y atrás y da la sensación de inercia cuando lo mueves con el brazo.
"Tenemos que pensar en cómo percibimos el peso", dijo Inrak Choi, encargado del proyecto y estudiante del doctorado en el Shape Lab de Stanford, durante una presentación de Grabity en 2017. "Básicamente, es la combinación de varios sistemas sensoriales en el cuerpo humano". El proyecto fue financiado en parte por el premio Google Faculty Research Award, según un estudio publicado sobre Grabity.
Choi no respondió a una solicitud de comentario.
Google no se las ha visto fácil con la realidad virtual. Mientras que Facebook y otras empresas invirtieron en poderosas plataformas que requieren de equipos de computación de alta gama para impulsar sus productos de realidad virtual, Google se ha apoyado sobre todo en los teléfonos inteligentes. Mientras tanto, el sistema independiente Oculus Quest de Facebook ha tenido mucho éxito. En mayo, la empresa dijo que los consumidores han gastado más de US$100 millones en contenidos para el Quest.
Google entró al mundo de la realidad virtual en 2014 con Cardboard. Como sugiere el nombre, que significa "cartón", incluía un artilugio cuadrado de cartón donde se colocaba tu teléfono para convertirlo en unas gafas de realidad virtual. Dos años después, la empresa lanzó Daydream, una versión más sofisticada del concepto que requería de más procesamiento computacional pero que aún dependía del teléfono como cerebro de la operación. Google cerró la plataforma discretamente el año pasado.
Sin embargo, el trabajo de la empresa en Grabity sugiere que Google está interesada en experiencias de realidad virtual más complejas, que incluyan hardware experimental.

SkinMarks

Google desarrolló prototipos de tatuajes inteligentes con investigadores de la universidad de Saarland en Alemania.
Captura de pantalla por CNET
Un proyecto llamado SkinMarks usa tatuajes adheribles para convertir tu piel en una pantalla táctil.
Así es como funciona: Los tatuajes, que están repletos de sensores, se colocan en alguna parte del cuerpo, como los nudillos o el costado de un dedo. Los sensores se activan con movimientos tradicionales como gestos y toques, como cuando usas tu teléfono. Pero también hay gestos más específicos que se activan cuando tocas o mueves la superficie de tu piel donde está el tatuaje. Puedes, por ejemplo, apretar la zona donde está el tatuaje o doblar tus dedos para activar los sensores.
Según los investigadores, los beneficios de usar tu piel como interfaz es la de aprovechar las habilidades motoras naturales que el humano tiene de forma natural. Apretar y doblar es algo que se hace de forma instintiva, por lo que los movimientos hacen que sea más natural interactuar con la tecnología. Además, interactuar con tu propia piel y extremidades también significa que lo puedes hacer sin necesidad de ver. 
Los tatuajes están hechos imprimiendo tinta conductora sobre tatuajes de papel. Luego, el papel es curado con calor para que pueda colocarse sobre la piel. Algunos de los prototipos de tatuajes incluyen dibujos de caricaturas o despliegues que se iluminan. El experimento, financiado en parte por un premio del Google Faculty Research Award, es una colaboración entre Olwal y un grupo de investigadores de la universidad de Saarland en Alemania.
"A través de un tatuaje con grosor inmensamente reducido y mayor capacidad de estiramiento, un SkinMark es suficientemente delgado y flexible para acomodarse a geometría irregular, como las líneas de flexión o los huesos protuberantes", dicen los investigadores.
Los tatuajes se pueden aplicar a superficies no planas.
Captura de pantalla por CNET
Google no ha sido la única gigante de la tecnología en experimentar con proyectos relacionados a la piel. En 2017, Facebook presentó un proyecto que permite a la gente "escuchar" y descifrar palabras a través de las vibraciones en su piel. El concepto es similar a la escritura braille, donde las letras y otros elementos del lenguaje están representadas por pequeñas protuberancias sobre una superficie como el papel. Pero en lugar de pasar la mano sobre las protuberancias, sientes los diferentes patrones de frecuencias sobre tu antebrazo a través de una funda que te colocas en la muñeca.
La iniciativa fue uno de los proyectos estrella de Building 8, el laboratorio de hardware experimental de Facebook que cerró un año después de su apertura tras tener varios problemas. 

SmartSleeve y StretchEBand

SmartSleeve es un proyecto textil de alta tecnología.
Captura de pantalla por CNET
Otros dos proyectos, llamados SmartSleeve y StretchEBand, están enfocados en entretejer sensores en telas. 
El prototipo SmartSleeve parece una manga de tirador, como las que usan los jugadores de baloncesto. Los sensores son sensibles a la presión y se entretejen en el materia. La manga puede leer 22 diferentes tipos de gestos, incluyendo pellizcar, estirar y doblar la tela. Asimismo, puede interpretar cuando los usuarios doblan los brazos o empujan la tel hacia los codos.
En un video demostración, los investigadores dieron el ejemplo de uso de la tecnología para controlar la reproducción de video. Al doblar el brazo empieza a reproducirse y se pausa. Si pasas el dedo hacia arriba y hacia abajo de la manga puedes regresar o adelantar el video. Pellizcando la tela se sube o baja el volumen. 
El objetivo del proyecto parece ser similar a la iniciativa Jacquard de Google, que también apunta a crear ropa y accesorios inteligentes. Jacquard, que se anunció en 2015, ha desarrollado varios productos con telas conectadas a Internet, incluida una chaqueta de mezclilla hecha en colaboración con Levi's. La prenda permite a las personas controlar la música u obtener actualizaciones de tráfico al deslizar el puño de la chaqueta. Una mochila de lujo, presentada el año pasado con Yves Saint Laurent, tiene una correa habilitada para que con un toque funcione. Más recientemente, Google se asoció con Adidas y Electronic Arts para hacer una suela de zapato inteligente.
Otro proyecto del Interaction Lab, llamado StretchEBand, también entreteje sensores en las telas, como la correa de un reloj, el estuche de un teléfono celular, un muñeco de peluche o en el acabado interior de un automóvil. En un ejemplo mostrado en el video de demostración, al tirar de la correa de la manija de un asiento de automóvil se puede reclinar o ajustar el asiento. En otro, las correas unidas a la parte superior e inferior de un estuche de teléfono se utilizan para desplazarse hacia arriba o hacia abajo.
El proyecto SmartSleeve fue desarrollado con investigadores de la Universidad de Ciencias Aplicadas de Alta Austria y de la Universidad de Saarland. El StretchEBand fue desarrollado solo con investigadores de la escuela de Austria. 

Hybrid Watch User Interface

Interaction Lab desarrolló un reloj con una cara digital y manecillas analógicas.
Captura de pantalla por CNET
Otro proyecto del Interaction Lab combina los mundos de los relojes analógicos e inteligentes. El proyecto, al que el laboratorio solo se refiere como "interfaz de usuario de reloj híbrido", utiliza las manecillas de los relojes tradicionales, y las reutiliza como cursores para señalar diferentes comandos.
Detrás de las manecillas del reloj hay una pantalla digital que muestra tinta electrónica, como en los libros digitales. Las manecillas electromagnéticas se mueven presionando los botones en el costado del dispositivo, los que normalmente se usan para configurar la hora en un reloj analógico.
"Juntos, estos componentes permiten un paquete único de técnicas de interacción e interfaz de usuario más allá de sus capacidades individuales", explica el documento técnico del proyecto, escrito por Olwal.
Un uso para la interfaz podría ser responder un texto. En un video de demostración, el usuario recibe un mensaje que dice: "¡Hey! ¡Envíame fotos de tus nuevos prototipos!". Debajo del texto hay tres opciones: archivar, responder o eliminar. Al presionar un botón en el costado del reloj, la manecilla del reloj apunta a alguna de las opciones.
La idea ha sido probada antes. Hace dos años, LG anunció el Watch W7, un dispositivo que funciona con Wear OS y tiene manecillas de reloj físicas ubicadas en una pantalla digital. El dispositivo recibió una recepción más bien tibia.
El mediocre lanzamiento de LG puede servir de aviso para Google. No está claro si el gigante de las búsquedas alguna vez intentará de comercializar algo del Interaction Lab, como los tatuajes inteligentes o las gafas minimalistas, pero cualquier cosa que haga Google tendrá que ser lo suficientemente convincente como para destacar en un mercado abarrotado. A pesar de todos sus defectos, Google Glass hizo algo bien: llamó la atención de todos.

0 comentarios :

Publicar un comentario