lunes, 29 de junio de 2020

LA REALIDAD VIRTUAL INMERSIVA FAVORECE LA REHABILITACIÓN DE LOS PACIENTES CON PARKINSON

Mejora la fuerza, la destreza y la coordinación de las extremidades superiores son las conclusiones que refleja un estudio elaborado por profesores e investigadores de la URJC, con la participación de la Asociación Parkinson Aparkam.
Germán Cardenete
La aplicación de las nuevas tecnologías no conoce límites. Recientemente, un estudio de la Universidad Rey Juan Carlos, con la colaboración de la Asociación Parkinson Aparkam, establecida en Alcorcón, Leganés y otros municipios del sureste madrileño, revelan que la realidad virtual inmersiva, a través de los juegos serios o formativos (serious games), favorece la rehabilitación en las extremidades superiores de los pacientes con Parkinson. En concreto, mejora las capacidades motrices, la fuerza y la coordinación.
La enfermedad de Parkinson es un trastorno neurodegenerativo que provoca, entre otros síntomas, la alteración de las funciones motoras, provocando el temblor o la rigidez muscular en las extremidades. Ahora, bajo el título “The Impact of a Novel Immersive Virtual Reality Technology Associated with Serious Games in Parkinson’s Disease Patients on Upper Limb Rehabilitation: A Mixed Methods Intervention Study”, el estudio que aparece publicado en la prestigiosa revista científica “Sensors” plantea un nueva aplicación que favorezca la rehabilitación de los pacientes con Parkinson.
La investigación ha sido realizada por Roberto Cano de la Cuerda, Patricia Sánchez Herrera Baeza y Alicia Cuesta Gómez, todos ellos del Departamento de Fisioterapia, Terapia Ocupacional, Rehabilitación y Medicina Física de la Universidad Rey Juan Carlos. También han participado Domingo Palacios, Jorge Pérez y Javier Güeita, del Grupo de Investigación en Humanidades e Investigación Cualitativa en Ciencias de la Salud, del mismo Departamento; Carlos Balaguer, Edwin Oña y Alberto Jardón del Laboratorio de Robótica de la Universidad Carlos III, y Juan Nicolás Cuenca, del Departamento de Fisioterapia de la Universidad Francisco de Vitoria.
Videojuegos con objetivos terapéuticos
La realización del estudio cuenta con una metodología mixta (cuantitativa y cualitativa) en la que se combinaron escalas, test e instrumentos validados, junto con las percepciones de los pacientes con Parkinson a través de las entrevistas. “Para su análisis, nos centramos en los efectos sobre la fuerza muscular, coordinación, velocidad de movimientos, motricidad fina y gruesa” señala el Dr. Roberto Cano de la Cuerda, Director del Departamento de Fisioterapia, Terapia Ocupacional, Rehabilitación y Medicina Física de la URJC.

Image003 120x90 Image003 120x90 Image003 120x90 Image003 120x90
Imágenes cedidas por los investigadores de la URJC.
En la realización del estudio, el Dr. Roberto Cano de la Cuerda explica que se llevaron a cabo una serie de sesiones individuales de 30 minutos, tres veces por semana, durante seis semanas. Cada paciente, a través de unas gafas Oculus Rift 2 y un sistema de control gestual Leap Motion System, entrenaba el control de las extremidades superiores a través del uso de juegos serios o terapéuticos (serious games) específicamente diseñados, como complemento a la rehabilitación habitual.
“En total, fueron cuatro los juegos creados, y cada uno de ellos buscaba entrenar aspectos específicos, (alcanzar objetos, agarrarlos o voltearlos, entre otros)”, indica Cano de la Cuerda. Estos videojuegos han sido diseñados por bioingenieros, bajo la guía de un grupo de profesionales con una gran experiencia en el campo de la neurorehabilitación.
Líneas de futuro
Sin ningún efecto adverso, y con un alto nivel de satisfacción entre los pacientes, la aplicación de la realidad virtual muestra unos excelentes resultados en la rehabilitación de las extremidades superiores.
El Director del Departamento de Fisioterapia, Terapia Ocupacional, Rehabilitación y Medicina Física de la URJC plantea que futuras investigaciones deberían corroborar estos hallazgos en estudios controlados aleatorizados, así como en un contexto domiciliario, con el fin de comprobar los efectos de dichos sistemas como medidas de telerrehabilitación. “Además, es de interés el explorar su viabilidad mediante estudios de coste-efectividad”, recalca el Dr. Cano de la Cuerda.

Tiendas virtuales que integran Inteligencia Artificial, Realidad Aumentada, filtros Try-on y Realidad Virtual


Tiendas virtuales que integran Inteligencia Artificial, Realidad Aumentada, filtros Try-on y Realidad Virtual
Tiendas virtuales que integran Inteligencia Artificial, Realidad Aumentada, filtros Try-on y Realidad Virtual
Mc Luhan Consulting, firma especializada en desarrollo e implementación de soluciones de Inteligencia Artificial, presentó soluciones para las ventas online y en tiendas de forma virtual que integran Inteligencia ArtificialRealidad Aumentada, filtros Try-on y Realidad Virtual para mejorar la experiencia de compra en tiempos de pandemia y a la vez proteger la salud de clientes y empleados.
En palabras de Andrea Mandelbaum, CEO de Mc Luhan Consulting:
“El modelo de compra de retail ya cambió, pero el contexto actual, signado por la pandemia, ha acelerado este proceso. De acuerdo con la cuarta ola del Barómetro COVID-19 de Kantar, el comercio digital crecerá más que el tradicional minorista el próximo año (…) Muchos consumidores se han volcado más al eCommerce o mCommerce (mobile commerce) y, mientras que una parte de los que lo probaron adoptarán definitivamente esta modalidad de compra, otros volverán a las tiendas pero de una forma diferente, tomando mayores recaudos y buscando opciones que les permitan probar los productos sin necesidad de tocarlos, como una experiencia integral omnicanal”. 
De acuerdo con una encuesta de USA Retail:
72% de los clientes compraron artículos que no planearon comprar debido a la Realidad Aumentada. Por otra parte, 71% compró más cuando usó AR,  61% prefirió tiendas con ese tipo de experiencias. Además, 55% de los consultados dice que AR hace que las compras sean más divertidas e incluso 40% está listo para pagar más si prueban productos con esta tecnología. 
Mc Luhan Consulting se encuentra trabajando con Try-on que permite ver, por ejemplo, cómo queda en la cara del cliente el make up o accesorios, la ropa en su cuerpo, coloración en su cabello, relojes y joyas en sus manos y muñecas,  describió  Mandelbaum. 
Para el caso de muebles, bazar, electrónica y electrodomésticos:
La experiencia se da en los hogares y permite la posibilidad de colocar el objeto en su propia casa. Por ejemplo, un sillón en la sala de estar y moverlo para ver dónde queda mejor. 
Para ayudar a los restaurantes, uno de los rubros más golpeados por efecto de la pandemia:
Mc Luhan trabaja con menús virtuales que permiten ver la imagen de cada uno de los platos en la mesa del cliente en su propia casa, con descripción para hacer delivery o take away, o bien dentro del propio restaurante. “Trabajamos en entornos de App, Web, Instagram y con experiencias dentro de la tienda física”, destacó Mandelbaum. 
Se desarrollaron acciones de gamificación dentro de la tienda, recorrido con geolocalización y descuentos, juegos o promociones con Realidad Aumentada. Dentro de la experiencia de tienda virtual, se da apoyo a la venta con las soluciones de Inteligencia Artificial conversacional multicanal para solucionar dudas, estimular la venta, resolver reclamos, entre otros. 
En ese sentido, otra de las opciones que ofrece la tecnología de Mc Luhan Consulting es desarrollar experiencias omnicanales en una tienda virtual para que el cliente pueda recorrerla y ver los beneficios de los productos exhibidos, precios y promociones, y luego probárselos o cambiar colores, entre otras posibilidades.

domingo, 28 de junio de 2020

Kia incluye un manual de usuario en realidad aumentada en sus próximos coches

Kia Owner's Manual App

Gracias a Kia Owner's Manual App, los usuarios con los nuevos modelos de la marca surcoreana podrán utilizar la cámara de su dispositivo móvil para identificar de manera instantánea y visual el concepto de todos los símbolos del interior de su vehículo.

Para facilitar que el cliente entienda todos los entresijos y características de su nuevo vehículo Kia, los próximos lanzamientos de la marca incluirán un manual de usuario en realidad aumentada compatible con nuestro teléfono móvil o tableta.

Para ofrecer este manual de usuario basado en inteligencia artificial, Kia Motors se ha asociado con Google Cloud para sacar partido del escáner de símbolos y el índice de símbolos dispersos por el vehículo, lo que permitirá a simple vista poder conocer todas las características del coche dejando de lado los a veces molestos manuales impresos.

De nombre Kia Owner's Manual App, se trata de un manual de usuario basado en inteligencia artificial y que ha sido desarrollado en asociación con Google Cloud y Megazone. Gracias a esta aplicación se nos va a explicar de una manera directa y sencilla el nombre y las funciones de todos los elementos que estén en el interior de los próximos modelos Kia y esto se hace gracias a la cámara de nuestro teléfono móvil.

Kia Owner's Manual App
De esta manera el usuario lo único que requerirá será contar con esta aplicación de Kia Motors, y a través de la misma utilizar la cámara de su dispositivo móvil para ir identificando todos los conceptos, elementos y símbolos dispersos por el interior del vehículo.

Todo esto ha sido posible gracias a la tecnología de aprendizaje de imágenes basado en la plataforma de inteligencia artificial de Google Cloud permitiendo así a la función de escáner de símbolos de esta aplicación identificar, desde cualquier ángulo, cada control e interruptor del vehículo.

La empresa pone como ejemplo que si el usuario con su teléfono móvil escanea el símbolo del control de crucero en el volante, la aplicación reconocerá la imagen a través de la comunicación con el servidor y entonces mostrará un vídeo que presentará todas las funciones detalladas de este sistema.

Además de todo lo anterior, esta aplicación de manual de usuario de Kia también tiene una función de búsqueda, y proporciona índices de símbolos y de testigos de aviso, todo bien ilustrado y explicado.

Esta aplicación de manual de usuario de Kia se lanzará en la segunda mitad de 2020 y se implementará de manera progresiva, comenzando primero por los nuevos modelos que tienen ya programado su lanzamiento para esta segunda parte del año.

[Fuente: Kia Motors]

lunes, 22 de junio de 2020

Google Maps prueba burbujas informativas con Realidad Aumentada para Street View

Los marcadores de lugares en Realidad Aumentada hacen que Street View de Maps sea una herramienta más divertida, mejorando la interfaz y evitando que el usuario tenga que cambiar al mapa.
Google Maps agregó una nueva función para Street View, que consiste en marcadores informativos sobre los establecimientos y sitios que se encuentran en la ruta, pero con tecnología de Realidad Aumentada, una característica que también se encuentra en modo prueba dentro de la plataforma.
Street View es una herramienta de Google Maps que permite ver la calle real de una ruta, en lugar de un mapa.
En la vista de mapa, Street View proporciona información mediante iconos y distintos colores, señalando si en la ruta se encuentra un restaurante, un hotel, un centro educativo o un sitio turístico importante. Cuando los usuarios entran en el icono se despliegan reseñas, horarios de servicio y datos adicionales que la misma comunidad va aportando.
Ahora, Google Maps ha trasladado los marcadores de Street View a la función de Realidad Aumentada, mostrándose como unas pequeñas burbujas con el icono del tipo de lugar. Al pasar el cursor sobre la burbuja, aparece un cuadro flotante que proporciona el nombre, la descripción, la calificación, el recuento de opiniones y el indicador de precio.
Estos marcadores en Realidad Aumentada hacen que Street View sea mucho más potente y útil para navegar, ya que no se necesita volver al mapa completo para obtener más detalles. Por el momento, esta nueva función sólo ha sido probada en ciudades de Estados Unidos como Nueva York y Boston, según informó 9to5Google.

Los usuarios de gafas de Apple no podrán distinguir entre realidad y ficción

(Image credit: iDropNews/Martin Hayek)
Una nueva supuesta filtración dice que uno de los modelos de gafas de Apple es tan avanzado que hará “casi imposible que un usuario pueda diferenciar entre el mundo virtual y el mundo real”. Vamos, que el mundo de Ready Player One está a la vuelta de la esquina, justo antes de que la singularidad ocurra, las máquinas se rebelen y nos conecten los cerebros directamente a The Matrix.
Por lo menos eso es lo que afirma un nuevo artículo de Bloomberg, que confirma algo que ya sabíamos pero añade nueva información muy interesante.
Para empezar, el artículo asegura que el orden de salida de los dos modelos de gafas de Apple no será el que esperábamos sino el contrario. Habrá una gafas ligeras de realidad aumentada que saldrán en 2022 y luego otras que mezclan realidad virtual y realidad aumentada — técnicamente, mixed reality — que saldrán en 2023 y tendrán una resolución altísima.

N301: hacia el mundo de Ready Player One

Tanta resolución que, combinado con un sistema de altavoces “cinemáticos”, hacen “casi imposible que un usuario pueda diferenciar entre el mundo virtual y el mundo real“. El código de estas gafas de realidad mixta, dicen sus fuentes, es N301. Estas gafas serán el proyecto más ambicioso de la compañía, afirma el plumilla de Bloomberg, y tendrán su propia sección en la App Store para descargar aplicaciones y juegos.
Desarrolladas por más de mil ingenieros en Apple, el artículo afirma que el diseño estas gafas son de Jony Ive, el ex-jefe de diseño de Apple, y que utilizan telas como el Oculus Quest. No requerirán que las conectes a un Mac o PC y serán totalmente autónomas, también como las Quest. 
Según la descripción, parece que las capacidades de estas gafas de realidad virtual las acercarían más al mundo de Ready Player One que lo que pueden hacer las Quest. Está claro que Facebook tendrá una versión de las Oculus Quest más avanzada para 2023, así que habrá que esperar cuál de los dos dispositivos nos acercan más a ese santo grial en el que la realidad virtual es indistinguible de la realidad física.
Pero hay una cosa que las N301 tienen que las gafas de Oculus no tienen por el momento: la mezcla de realidad virtual y realidad aumentada. Esto significa que las N301 de Apple tendrán cámaras que permitirán al usuario moverse por el mundo real mientras objetos virtuales se mezclan con los físicos de manera convincente para el cerebro humano. 
El artículo asegura que las gafas N301 están orientadas a usuarios más “hardcore” — pero a mí me suena más a que Apple quiere crear una nueva categoría de dispositivo. Uno que ofrezca, por una parte, la evasión a mundos virtuales alternativos al físico para juegos y otras cosas. Y que también permita que la gente pueda percibir el mundo físico de manera diferente, sin cerrarse a otros seres humanos.
Esta última aplicación también permitiría aplicaciones como un nuevo Facetime que hiciera creer a tu cerebro que otra persona está contigo en una habitación — algo que, es estos tiempos de pandemia y en el futuro — será clave para nuestro trabajo y vida personal.

N421: las gafas ligeras para llevar todo el día

Esto es también lo que buscarían las gafas de realidad aumentada ligeras— que supuestamente se llamarán Apple Glass — y tienen el código N421. 
En teoría, estas gafas serán como unas gafas normales tipo Ray-Ban. Y en vez de llevar un procesador independiente, actuarían como los AirPods — conectándose a tu iPhone y usando su procesador para poder analizar el mundo a tu alrededor y añadir gráficos en tu campo de visión.
Lo que no sabemos es cómo narices Apple va a realizar la proyección de realidad aumentada de forma convincente en un formato tan ligero. La parte del proceso en el iPhone está clara y es una solución elegante para reducir el tamaño de las gafas.
 Pero la parte de la proyección parece imposible de conseguir a no ser que hayan encontrado algún truco óptico desconocido. Sólo hay que ver las Hololens 2 de Microsoft, una compañía que lleva en esto de la AR mucho más tiempo que Apple y tiene algunas de las mejores mentes en este campo. La razón por la que la Hololense son tan grandes no es tanto el procesador y la memoria sino la distancia que se requiere para que la proyección de imágenes sea convincente. 
De hecho, Hololense no termina de convencer porque su ángulo de visión es más reducido que el del ojo humano. Eso resulta en un “efecto ventana”: al no ser capaz de cubrir todo tu campo de visión, los objetos se cortan al acercarte a ellos. De lejos, un coche 3D es creíble. Pero al acercarte, verías cómo se corta por todos us lados.
El santo grial de la proyección de realidad aumentada es que cubra todo tu campo de visión para que realmente tu cerebro no pueda distinguir dónde termina la realidad física y dónde empiezan los gráficos generados por tu iPhone.
El artículo de Bloomberg no tiene detalles técnicos sobre este punto, así que habrá que esperar a ver qué anuncia Apple. No sabemos si quizás Apple mostrará sus prototipos en la conferencia de desarrolladores WWDC 2020. Probablemente no mostrarán las gafas en sí — pero quizás sí podamos conocer las especificaciones técnicas. Al fin y al cabo, Apple necesita que los desarrolladores de Apple empiecen a trabajar ya en aplicaciones para estos dos dispositivos. Y un plazo de dos o tres años sería lo mínimo para tener aplicaciones y juegos de calidad.
Para eso, necesitarán parámetros sobre los que poder diseñar — aunque no tengan el hardware para probarlo por ahora.

Mo-sys propone un sistema para incorporar público virtual en las gradas

El sistema de tracking de cámaras de Mo-Sys se conecta directamente a Unreal Engine o a cualquier motor de renderización broadcast, permitiendo a las compañías de producción añadir multitudes virtuales a las gradas.

Mo-Sys tracking virtual
Mo-Sys Engineering pretende revolucionar la atmósfera en la retransmisión de deportes en directo en mitad de las restricciones impuestas por la pandemia de COVID-19. Proporcionando precisión, seguimiento de latencia cero para cualquier cámara (incluyendo lentes ultra-long box), el kit de tracking de cámaras de Mo-Sys se conecta directamente a Unreal Engine o a cualquier motor de renderización broadcast, permitiendo a las compañías de producción añadir multitudes virtuales a las gradas.
Michael Geissler, CEO de Mo-Sys, destaca que «después de tantas semanas, los aficionados al deporte están desesperados por cualquier acción. Pero la frustración se convertirá en decepción si la atmósfera del juego se desploma debido a las gradas vacías. Hemos desarrollado un kit de tracking de cámaras que cualquier emisión exterior puede implementar de forma rápida y sencilla, siendo capaz de llenar las gradas con una multitud virtual».
Los codificadores del tracking de Mo-Sys se montan rápidamente en los cabezales Vinten Vector estándar de emisión, sin que ello afecte al perfecto equilibrio de la cámara y sin que se produzca un retroceso al realizar la panorámica y la inclinación. Los datos de zoom se recogen mediante codificadores gears o mediante un enlace de datos en serie con lentes digitales. Los datos de seguimiento combinados se envían por Ethernet a la estación de trabajo que alberga el software de realidad aumentada.
«Somos conocidos por la absoluta precisión y estabilidad del tracking de nuestras cámaras, por eso Hollywood confía en nuestra tecnología. En esta aplicación, entregamos un rastreo preciso, incluyendo la compensación por la distorsión de la lente, incluso cuando una lente de 100:1 se amplía completamente», añade Geissler.
Mo-Sys ha trabajado con Epic Games para desarrollar un interfaz ajustado al Unreal Engine, incluyendo soporte para la última versión 4.25 del software. El resultado es que la realidad aumentada altamente foto-realista con multitudes que llenan las gradas que puede ser integrada en la producción en vivo sin limitaciones y con una latencia insignificante. El kit incluye el kit de codificación para los cabezales Vinten y las herramientas de calibración de lentes.

Lecciones: Cinco claves digitales en la nueva normalidad

Durante el COVID se ha asistido a la virtualización de todos los museos y de sus colecciones. En este contexto, ¿van las visitas virtuales a sustituir a las presenciales?

Realidad virtual y realidad aumentada. En las empresas todos los procesos y los archivos de trabajo están virtualizados. Todo lo digitalizable ya está camino de la nube. ¿Las experiencias físicas como probarse la ropa pueden llegar a desaparecer? La realidad virtual y la realidad aumentada están transformando definitivamente la experiencia de compra de las personas. (Foto:iStock)

Que la pandemia ha acelerado virtualmente la vida de las personas en la dimensión profesional y personal nadie puede tener ninguna duda. Y según el Innova Institute de La Salle-URL esta digitalización ha llegado para quedarse y lo hará en base a cinco leyes digitales que no debemos perder de vista en los negocios.

Realidad virtual y realidad aumentada
En las empresas todos los procesos y los archivos de trabajo están virtualizados. Todo lo digitalizable ya está camino de la nube. ¿Las experiencias físicas como probarse la ropa pueden llegar a desaparecer? La realidad virtual y la realidad aumentada están transformando definitivamente la experiencia de compra de las personas. La excusa de no comprar ropa en internet por la imposibilidad de probársela empieza a quedar obsoleta. Ahora, el concepto es distinto: ir a la tienda, probarse la ropa y, si convence, comprarla en internet para evitar colas. Y la evolución sigue su curso: probarse esa prenda por internet gracias a un simulador de imagen, y adquirirla de manera electrónica. De este modo, los hábitos de compra también se están transformando.

En la misma línea, y como se ha podido ver durante el confinamiento, visitar un museo, realizar un tour o visitar una exposición en vivo ya no es exclusiva del mundo presencial. Durante el COVID se ha asistido a la virtualización de todos los museos y de sus colecciones. En este contexto, ¿van las visitas virtuales a sustituir a las presenciales?

Ahora toca reflexionar sobre qué otros elementos físicos pueden desaparecer presencialmente de las vidas de las personas mediante su digitalización.

Digitalización de las relaciones
Las relaciones personales ya están en el móvil: las familias están más unidas que nunca gracias a los chats y los servicios de mensajería y, en la misma línea, el contacto digital con las amistades es continuo. Además, el comercio electrónico está totalmente implantado y, en consecuencia, el comercio tradicional se ve en la obligación de formalizar la relación con sus clientes tradicionales de forma virtual. El marketing directo a través de WhatsApp Business o de otras aplicaciones de mensajería va a ser la “nueva normalidad”. 

Plataformas de videoconferencia como Webex o Zoom se han establecido como medio para todo tipo de relaciones, reduciendo la necesidad del desplazamiento físico. El teletrabajo se abre camino y modifica la forma en que las empresas se organizan.

En la dimensión personal, las redes sociales expresan aquello que cada uno quiere proyectar. En esta línea, la virtualización de las relaciones también lleva a la necesidad de la gestión de las marcas personales a través de internet, en canales como Facebook o Instagram.

Hay que tener en cuenta también el síndrome de la desinhibición online. La virtualización de las relaciones permite que estas sean mucho más fluidas y frescas, lo que lleva a que el uso de los portales de citas se generalice entre dos generaciones: la de los Millennials y la Generación Z o Centennials.

En este sentido, es momento de reflexionar sobre cómo van a ser las relaciones en el new normal.

Un mundo conectado
Pese a la creciente generalización de la digitalización, aún existen activos y elementos que se seguirán disfrutando físicamente. En la vida personal, elementos como casas conectadas, coches conectados, ciudades conectadas. Incluso los cuerpos estarán conectados. Si no existe una conexión con los elementos físicos no habrá manera de acceder a ellos, no se podrán compartir ni monitorizar. Todo será 4.0 en el PostCOVID-19.

En este sentido, conexión es la palabra clave: 

En las casas. Para comenzar a enlazar sus smart things sin cables y hacerlas trabajar juntas, las casas necesitan un cerebro como Google Assistant, Amazon Alexa o alguna otra aplicación de similares características. Es la premisa imprescindible para lograr sinergias entre los objetos inteligentes del hogar, poderlos monitorizar y recibir alertas cuando hay actividades inesperadas. Para automatizar dispositivos, logrando que se enciendan o apaguen en circunstancias determinadas, hacen falta asistentes de voz por seguridad que active funciones, iluminación guiada por sensores que registren la claridad exterior natural, termostatos para aclimatar ambientes, cerraduras de puertas y neveras que avisen cuando escasea la comida, entre otros. Del mismo modo, los vehículos lograrán ser almacenes móviles de energía que se podrán utilizar por las noches al llegar a casa, cuando las fuentes de suministro renovables sean necesarias.

En las empresas. Tecnologías como la robótica, la inteligencia artificial, el machine learning y el internet de las cosas (IoT), entre otros, permiten acceder en tiempo real a los datos y a la inteligencia del negocio, revolucionando los productos, las cadenas de suministro y la experiencia del cliente. Hoy por hoy, se encuentra Big Data en el área de Supply Chain, para reducir los riesgos en la entrega de materias primas. Se utiliza esta herramienta para analizar estadísticas climáticas de tornados, terremotos y huracanes, que posibilita a las empresas calcular las probabilidades de retrasos. Y al detectar una posibilidad alta de demora, se utilizan los resultados analíticos para identificar proveedores de respaldo y desarrollar planes de contingencia para asegurarse de que la producción no se vea interrumpida por un desastre natural.

También se utiliza el análisis combinado de Big Data con IoT para mejorar la seguridad general de los trabajadores en la planta. Al monitorear los indicadores clave de rendimiento (KPI) de salud y seguridad —como la cantidad de lesiones y tasas de enfermedades, incidentes cercanos, faltas a corto y largo plazo, incidentes de vehículos y daños o pérdidas de propiedad durante las operaciones diarias— se puede trabajar con anticipación para mejorar la seguridad y la calidad de vida laboral.

En las ciudades. En este caso, hay que considerar la presencia de cámaras que detectan la afluencia de personas en rutas expresas y permiten así establecer frecuencias de transportes óptimas. También parques que determinan cuándo activar sus sistemas de riego verificando, a través de sensores de la sequedad del suelo, y la recolección de residuos con sensores en los contenedores para determinar un recorrido más eficiente para la recogida. Incluso ver las conductas de reciclado de las personas. Además, la presencia de drones será habitual, accediendo de forma rápida a zonas donde se produzcan accidentes, con conexión directa al profesional médico o con kit de RCP para atender emergencias en forma inmediata, saltando las barreras del tránsito terrestre.

Cerca o lejos, pero en contacto. Es necesario reflexionar sobre cómo se va sacar provecho a esta capacidad de estar en contacto permanente.

De la nube a la tierra
Las personas esperan tener aquello que necesitan de forma inmediata. Si es un producto virtualizable, ya se recibe o se utiliza por el canal digital. Si es un producto físico, Amazon o Glovo se encargan de entregarlo de forma rápida. En el PostCOVID-19, cambiará el concepto de producción de bienes desde la fábrica hasta las personas, y será desde la nube a la tierra. Es decir, los productos serán digitales y, cuando se necesiten en su versión física, se podrán imprimir con impresoras 3D desde casa. 

Para aquellos productos que no pueden ser digitalizados (alimentos, por ejemplo), la tecnología hará posible el acceso a ellos. Ya no hará falta pensar en cómo llevar las bolsas del supermercado a casa, pues empresas logísticas lo hacen de manera automática al acabar la compra. Además, se prescindirá de esfuerzos humanos como medios de transporte, ya que estos serán realizados por drones y de manera completamente autónoma. 

Por otro lado, se migrarán desde procesos de aprendizaje presenciales, con el contacto alumno/profesor en un lugar y hora específica, a procesos de aprendizaje completamente digitales, donde los estudiantes accederán al contenido que deseen, en el momento y lugar que lo deseen, solo con conexión a internet.         

La pandemia ha acelerado ciertos procesos de transformación digital, en los cuales el estado “natural” de todo será digital (online) para traerlo a nuestro mundo físico (offline) cuando lo necesitemos. ¿Cómo transformará la vida de las personas el tener todo a un clic en nuestra pantalla de móvil?

Ningún virus sin bit
El COVID-19 está exigiendo una prevención activa de la propagación del contagio. Esto requerirá que en espacios físicos se impongan medidas de limpieza e higiene sistematizados. También serán necesarias distancias sociales, mascarillas y protectores. Otro elemento clave serán los test generalizados de comunidades en convivencia y detectores de temperatura con el fin de monitorizar espacios sin virus. 

El virus ha impulsado a utilizar la tecnología para controlar y generar sistemas de autocontrol de la salud de los individuos. Por ejemplo, los ya conocidos diagnósticos y tratamientos autónomos que controlan señales y variables vitales a través de pulseras (ritmo cardiaco) o sensores adheridos al abdomen (para controlar la glucosa). En China, para controlar nuevos brotes del virus, una vez finalizado el confinamiento, empresas como Huawei y Deloitte utilizan la tecnología 5G para el monitoreo de temperatura con imagen térmica de las personas en lugares públicos, pudiendo identificar de manera masiva aquellos potenciales casos de fiebre en la población. 

En Brasil, empresas como PalmaIoT integran conceptos del IoT a dispensadores de alcohol en gel, con lo cual se puede controlar a través de credenciales quién se ha limpiado las manos con alcohol en gel, generando mayor conciencia sobre la higiene de las manos. Por otra parte, la empresa danesa UVD Robots Apps ha desarrollado un robot con luz ultravioleta para la desinfección de centros médicos contra virus, bacterias y microbios. El robot tiene ocho luces que emiten radiación UV capaces de limpiar y desinfectar espacios de una manera más eficiente, y así se evita la exposición de las personas al virus.  

La tecnología jugará un rol clave para evitar la propagación de virus. Por un lado, reemplazando a los humanos por robots en lugares potencialmente infecciosos y, por otro, con mecanismos automáticos de detección y control de señales vitales de manera temprana.

¿Estarán las personas dispuestas a ceder sus datos médicos individuales por el bien de la salud comunitaria?

domingo, 21 de junio de 2020

Snapchat: ahora puedes usar la cámara de realidad aumentada para identificar razas de perros y especies de plantas

Ahora puedes usar la cámara de realidad aumentada de Snapchat para identificar razas de perros y especies de plantas.

Snapchat ha reforzado su cámara con una serie de características de realidad aumentada en los últimos años que permiten a los usuarios aplicar filtros faciales y jugar con lentes interactivas.

En el Snap Partner Summit, celebrado la semana pasada, la compañía presentó a nuevos socios en su función Escanear, una característica que da a los usuarios más información cuando apuntan con su cámara a varios objetos y entornos.

Además de resolver problemas matemáticos y encontrar enlaces en línea para productos de la vida real, los usuarios pueden ahora utilizar Escanear para identificar razas de perros, especies de plantas e información nutricional de alimentos.

Descubre más historias en Business Insider España.

Si el popular filtro para perros no te ha dado suficiente contenido relacionado con los cachorros en Snapchat, pronto podrás usar la aplicación para identificar las razas de perros que encuentres fuera de línea.

Snap ha estrenado nuevos socios para Escanear, su función que permite a los usuarios obtener más información sobre objetos de la vida real con solo apuntar con la cámara de la aplicación hacia ellos. Ahora, los usuarios de Snapchat podrán utilizar la función para identificar las razas de perros, las especies de plantas y árboles, y los datos nutricionales de los alimentos envasados.

Snapchat ha invertido mucho en realidad aumentada, incluyendo la tecnología de reconocimiento de objetos. The Information reveló en 2017 que Snapchat estaba trabajando en una forma de escanear objetos en el mundo real. Desde entonces, la capacidad de escaneo de la cámara de Snap ha crecido y ha pasado de lo tonto a lo práctico.

Los usuarios pueden acceder a figuras bailables y animaciones cuando apuntan con su teléfono a una superficie plana o a un trozo de pizza y también aprovechar la tecnología para tareas más útiles, como identificar una canción que suena usando Shazam, reconocer artículos de la vida real para comprar en Amazon e incluso resolver ecuaciones matemáticas en los deberes.

La función de reconocimiento de objetos de Snapchat debutó en 2019 en el Snap Partner Summit, el evento por invitación que la compañía lanzó el año pasado para competir con las conferencias anuales de desarrolladores de gigantes de la tecnología como Facebook, Apple y Google. El Snap Partner Summit de este año, que tuvo lugar el 11 de junio, pasó a ser virtual debido a la pandemia del coronavirus.

Snap dice que las incorporaciones a Escanear —incluyendo el escáner para perros, PlantSnap, el escáner de nutrición y varias experiencias de marca— se pondrán a disposición de los usuarios a finales de este año.

En el Partner Summit, Snap también presentó una nueva barra de acción para navegar por Snapchat, novedades en su pizarra de contenidos, juegos originales y Minis de conversación para que los amigos coordinen y planifiquen actividades juntos —un conjunto de pequeñas aplicaciones desarrolladas por terceros que buscan mejorar la experiencia social con funciones concretas como comprar entradas de cines u organizar la asistencia a un festival—.

10 herramientas para crear realidad aumentada

En esta cuarentena es importante mantener sus herramientas para clases online actualizadas, de esta forma sus alumnos siempre verpan algo nuevo y entretenido mientras cumplen con el proceso de aprendizaje.
Aunque la virtualidad de por sí es un recurso muy completo para enseñar contenido, imagine tener la oportunidad de hacerlo aún mejor.
Con esta infografía puede descubrir 10 herramientas que le ayudarán a hacer multimedia, encuestas, búsquedas del tesoro, guías interactivas, posters, botones personalizados, PDFs.

Apple Glass, quizá más pronto de lo esperado

Apple Glass es, seguramente, el proyecto «secreto» de Apple más esperado. Y es que, aunque no lo parezca, ya llevamos algunos años hablando de este hipotético wearable de los de Cupertino. Y es curioso porque en su momento, cuando Google Glass era todavía un proyecto, Tim Cook no veía le veía «color» a este tipo de dispositivos. Pero bueno, todo el mundo tiene derecho a cambiar de opinión, como ya demostró la misma Apple al lanzar el iPad Mini unos años después de que Steve Jobs dijera que la compañía de la manzana mordida nunca haría tablets en el segmento de las siete pulgadas, que era un mercado muerto antes incluso de nacer.
Ya en 2017, cuatro años después de las afirmaciones de Cook, supimos por primera vez que la compañía podría estar trabajando, de la mano de Carl Zeiss, en sus propias gafas inteligentesCuriosamente, cuando parecía que Google Glass no tenía ningún futuro y que el directivo de Apple llevaba razón en sus afirmaciones, ¡sorpresa! Apple Glass podría ser una realidad. No a corto plazo, claro, pero la realidad aumentada sí que habría entrado en la agenda de la compañía, y dada la supuesta colaboración con Carl Zeiss, ya sería una idea con la suficiente entidad como para empezar a trabajar en ella con algún partner.
Desde entonces, salvo por algún movimiento por parte de Apple, la conversación sobre Apple Glass ha permanecido prácticamente en silencio hasta que, en noviembre del año pasado y tras un inusual encuentro para empleados de la compañía, se supo que la compañía seguía avanzando en la senda de la realidad aumentada y la realidad mixta, no solo con fechas para las gafas, sino también para un headset: 2023 y 2022 respectivamente. Un horizonte a medio plazo que, teniendo en cuenta los dilatados plazos para un proyecto de este tipo, señalaría que ya se encuentra razonablemente avanzado.

Apple Glass, ¿cuándo?

Y hoy, según publica Slash Gear, descubrimos que aquellos plazos anunciado podrían verse bastante recortados. Y no lo dice una voz cualquiera, sino Jon Prosser, filtrador con un alto índice de aciertos en su marcador¿Y qué plazo da Prosser para Apple Glass? Uno sorprendentemente corto, puesto que data su presentación en algún momento entre marzo y junio de 2021. Sí, un plazo máximo de un año desde el momento actual. Y claro, eso nos hace pensar, indudablemente y a solo un día de que empiece el WWDC 2020, en la edición del encuentro de Apple para desarrolladores de 2021. Dicho de otra manera, esta filtración nos hace mirar hacia el WWDC 2021 cuando todavía no se ha celebrado el WWDC2020.
Una visión todavía más optimista plantea la posibilidad de que las Apple Glass sean presentadas este mismo año, en la keynote de septiembre junto al iPhone 12, si bien en tal caso (poco probable, no nos engañemos), su llegada al mercado no se produciría hasta algún momento del año que viene. Y en cuanto a la versión más conservadora (entendiendo que, aún así, hablamos de un adelanto), señalaría a la keynote de septiembre de 2021, de la mano del iPhone 13 (madre mía, aún faltan meses para que veamos el 12 y ya estamos pensando en el siguiente).
Un punto de la predicción de Prosser que tengo que reconocer que me ha tocado la fibra sensible es que el anuncio de Apple Glass se produciría, sea en el WWCD o en keynote de septiembre, mediante una fórmula que sin duda dispara muchos recuerdos. Me refiero, claro, a la fórmula «One More Thing» que nos llevará a todas aquellas ocasiones en las que Steve Jobs se guardaba lo mejor para el final. Y no fue una ni dos veces, aquí tienes un recopilatorio para ver la cantidad de ocasiones en las que se tomó literalmente el Save The Best For Last de Vanessa Williams de manera literal: