jueves, 28 de mayo de 2020

Realidad aumentada para el abordaje con distanciamiento

La distancia social y el tiempo de embarque conjugadas en el sistema Alfombra Azul


Azul inicia un nuevo sistema de abordaje con distanciamiento social llamado Alfombra Azul, que usa la realidad aumentada para indicar a cada pasajero cuándo abordar el avión de acuerdo a su número de asiento. La nueva funcionalidad organiza la cola de acceso de la aeronave de una manera rápida y práctica, afirman desde la aerolínea brasileña.
Azul desarrolla nueva forma de procesar los embarques
Azul desarrolla nueva forma de procesar los embarques
“El proceso de embarque de la aeronave tiene reglas y la necesidad de identificar a los clientes. Esta tecnología nos está ayudando a hacer esto con mucha más agilidad y seguridad, especialmente en este período en que las personas necesitan mantenerse alejadas entre sí. Esto se debe a que el sistema llama a nuestros pasajeros alternativamente para que aborden, lo que hace que el proceso sea más fluido para aquellos que viajan", explica el vicepresidente Jason Ward.
La Alfombra Azul consiste en un conjunto de proyectores y monitores que, a través de la realidad aumentada, le indican al cliente el momento adecuado para embarcarse.
En el piso, los proyectores forman una alfombra virtual colorida y móvil, que invita a la persona a posicionarse en la cola de acuerdo con el número de su asiento.
La Alfombra Azul con realidad aumentada de la aerolínea brasileña.
La Alfombra Azul con realidad aumentada de la aerolínea brasileña.
La innovación, según las estimaciones de la compañía, ha estado proporcionando una disminución de aproximadamente el 25% en el tiempo que una persona tarda entre abordar y sentarse dentro del avión, una reducción que puede extenderse durante todo el desarrollo del producto.

El Tomato Vision de Syngenta, un centro de I+D para el tomate del futuro

Gracias a este nuevo centro de investigación en Países Bajos, la casa de semillas acelerará la introducción de variedades de alta calidad en el mercado.
Isabel Fernandez

Tomato Vision
¿Cómo serán los tomates del futuro? La respuesta a esta pregunta está ahora más cerca, gracias a la inauguración ayer, aunque de forma online, del nuevo centro de investigación de Syngenta en Maasland (Países Bajos). Y es que el Tomato Vision llega para romper esquemas desde su puesta en marcha.
Es la primera vez que una casa de semillas organiza una inauguración online, en este caso, debido a la crisis sanitaria provocada por el COVID-19. Sin embargo, en Syngenta son conscientes de la importancia que la digitalización tiene para el futuro del negocio, y prueba de ello es su nuevo centro de investigación.
Tomato Vision es un espacio dedicado, en un 90%, al desarrollo de nuevas variedades de tomate y, en un 10%, al marketing, porque tan importante es contar con el material genético como asegurarse de que este tiene cabida en un mercado tan competitivo como el de este producto.
Guiados por Ruud Kaagman, Global Tomato Crop Unit Head, recorremos las instalaciones del nuevo TomatoVision: 14.000 metros cuadrados de invernadero de alta tecnología donde se prueban y seleccionan 800 nuevos híbridos con el objetivo de cubrir las necesidades específicas del mercado. “Queremos desarrollar variedades que realmente cumplan las exigencias de productores y consumidores”, afirma Kaagman, para quien esto solo es posible, creando una “conexión entre nuestros productores y el mercado”.
Este invernadero cuenta con la última tecnología, de modo que se pueden simular las condiciones de cultivo de las distintas zonas productoras, no solo en Europa, sino en todo el mundo. Dispone de cultivos con luz, sin luz y con un potente sistema de control de climatización.
Los breeders de Syngenta trabajan, además, con gafas de realidad aumentada que les permiten identificar cada una de las 120 variedades que actualmente ensayan en el invernadero, aportándoles, además, todos los detalles del cultivo.
El primer resultado de todo este trabajo es un tomate cherry amarillo que, según avanzaron ayer Kaagman y Haoyang Duo, breeder de la empresa, será comercial en breve. “Es un tomate con un alto nivel de Brix, textura crunchy y que aporta sensación de frescura”, explicó la breeder.
En contacto con el consumidor
Pero este Tomato Vision no es un centro de investigación al uso. Conscientes de la importancia de satisfacer las exigencias de los consumidores, en Syngenta han ido un paso más allá y han habilitado un espacio de 1.500 metros cuadrados donde recibir a visitantes, consumidores y retailers, y darles la oportunidad de tener un primer contacto con sus próximos lanzamientos.
Entre los objetivos de Syngenta en el medio plazo, está la búsqueda de resistencias al virus rugoso del tomate (ToBRFV); mientras tanto, su Portfolio Manager EMEA, Rik Lootens, afirma queda la mejor fórmula para controlar el virus es la higiene, evitando su transmisión por contacto.
Gracias a las nuevas tecnologías de la información y la comunicación, “este increíble logro llegará a nuestros clientes y socios de todo el mundo”, afirma Kaagman, que, en cualquier caso, emplaza a todos a una visita física. Eso sí, cuando el virus lo permita.

Un algoritmo en tu clase

Seúl/San Francisco, 28 may (EFE).- "Buenos días a todos. ¿Qué tal el fin de semana?". Son las 10.30 de un lunes y en el despacho vacío resuenan las palabras del profesor, que mira fijamente a la cámara de su portátil mientras hace un esfuerzo extra por proyectar la voz para que todos le escuchen bien.
"Vamos a pasar lista", dice el académico, que imparte Literatura en una de la principales universidades de Corea del Sur. "Recuerden: activen el micro para decir 'presente' o simplemente escríbanlo en el chat. Empezamos: ¿Lee So-young?...", "Presente", exclama la alumna desde su casa. "¿Soh Su-min?..."
Esta facultad, como tantas otras en el país asiático, ha optado por emplear la plataforma creada por la empresa estadounidense Blackboard para impartir clase desde que el pasado 16 de marzo comenzó el año académico para los universitarios surcoreanos de manera completamente online debido al coronavirus.
Este software permite adjuntar todo el material académico necesario, incluido el audiovisual; crear tablones, repartir deberes y, sobre todo, impartir las lecciones conectando al profesor y a los alumnos entre sí a través de vídeo, audio y una sala de chat. Todo en un mismo programa.
LECCIONES QUE SE "CUELGAN"
Desde hace unos días, esta universidad ya permite dar clase de modo presencial, pero hay que cumplir varios requisitos: "llevar todos mascarilla, encontrar un aula lo suficientemente grande para poder distanciarnos y, ante todo, todos los alumnos deben querer de manera unánime retomar las clases", cuenta el profesor de Literatura, que pide mantener el anonimato para hablar de lo que considera un tema "muy sensible, en un momento de mucha incertidumbre".
"Basta con que un alumno diga que no para que sigamos trabajando online. En todo caso, en mis clases creo que apenas un 25 % de los alumnos ha dicho que quiere volver al aula", añade.
El docente les ha pedido a sus alumnos que apaguen las cámaras de sus ordenadores para evitar que el programa "se cuelgue", algo que sucede incluso en un país como Corea del Sur, con una de las redes de internet más rápidas y fiables del mundo.
Las limitaciones técnicas son un problema que va a surgir aquí y en el resto del mundo cuando empiecen a impartirse clases de este modo, opina este profesor poco antes de que uno de sus 20 alumnos abandone repentinamente el aula virtual por lo que parece ser un problema de conexión.
SISTEMAS INMERSIVOS
Más allá de los problemas técnicos, la enseñanza a través de Internet permite explorar nuevos horizontes en el mundo educativo empleando herramientas como la inteligencia artificial (IA), lo que difumina la frontera entre la escuela y la empresa, puesto que las primeras rara vez disponen de los recursos o la capacidad técnica para desarrollar esta tecnología.
Ello abre de par en par las puertas de los colegios a grandes firmas tecnológicas como Google, puntal de la industria en el desarrollo de IA y que apuesta con fuerza por la realidad aumentada y el reconocimiento de imágenes como métodos de enseñanza.
"Para los humanos, poder ver conceptos es una manera muy básica y natural de comprenderlos. Si lo veo, lo entiendo", explica la directora de gestión de producto en el departamento de realidad aumentada y Lens de Google, Jennifer Liu.
El equipo que lidera Liu se ha apresurado desde el comienzo de los confinamientos a raíz de la pandemia a ofrecer alternativas digitales a las actividades que, en condiciones normales, se estarían llevando a cabo en las escuelas.
La semana pasada, Google reveló una nueva herramienta de Biología que muestra los diferentes sistemas del cuerpo humano como el circulatorio, el respiratorio o el muscular con las partes etiquetadas, en tres dimensiones y que, mediante realidad aumentada, pueden encajarse sobre cualquier superficie física de la habitación en que se encuentre el alumno.
"Con los museos y las clases cerradas, creemos que la realidad aumentada puede ser una herramienta muy poderosa para llevar esas experiencias al hogar", explica Liu.
DE TU LIBRETA A LA PANTALLA
Otra de las novedades de la empresa del buscador online para estos tiempos de enseñanza remota es la conversión de texto escrito a mano a formato digital. Supongamos que el alumno está siguiendo una lección por Zoom y tomando apuntes a mano como si estuviese en clase.
Una vez terminada la sesión, sin embargo, se da cuenta de que esos apuntes le vendrían de maravilla para escribir un ensayo que le han pedido como deberes. En lugar de reescribirlos manualmente en el ordenador, bastará con que dirija sobre los apuntes físicos la cámara de su móvil y, si tiene una caligrafía medianamente inteligible, la inteligencia artificial lo hará por él.
Pese al potencial de herramientas que ofrece la IA, algunos docentes en Corea del Sur consideran que por el momento, el marco tecnológico está ofreciendo una experiencia limitada en algunos aspectos.
"Imagínese explicar a través de Zoom la diferencia entre el acento agudo y el acento grave a niños de 14 años que apenas están empezando con el idioma", cuenta un profesor de Francés que imparte clase en un colegio del norte de Seúl.
Este docente, que también pide anonimato, siente que sin el contacto directo, se pierden matices como el énfasis o la gestualidad que imprime cada maestro y eso hace que el temario se acabe cubriendo de manera más lenta.
EXÁMENES ONLINE, TRAMPAS DIGITALES
El traslado de la educación del aula al hogar plantea un serio problema a la hora de llevar a cabo las evaluaciones, especialmente si se sigue confiando para ellas en el sistema tradicional de exámenes y test: ¿cómo asegurarse de que los alumnos no copian o hacen otro tipo de trampas?
"El colegio aún no sabe qué va a hacer con los exámenes", explica el profesor de Francés de Seúl, que dice que de momento está optando por evaluar la participación y los resultados de los ejercicios en clase mientras el centro decide qué hacer con la prueba final del semestre, inicialmente prevista para junio.
Durante los últimos años, han surgido compañías especializadas como la estadounidense Proctorio, que ha desarrollado un sistema de grabación de vídeo e IA para garantizar que los estudiantes cumplen las normas.
"No tenemos un algoritmo que diga éste es un tramposo y éste, no. Lo que hacemos es pedirle al centro que nos diga qué es lo que consideran actitudes sospechosas y nosotros se las mostraremos cuando ocurran", explica el fundador de la empresa, Mike Olsen.
El sistema es relativamente sencillo: mientras el alumno se esté examinando, Proctorio lo grabará desde la webcam del ordenador o tableta y esa grabación será enviada al maestro para que la revise y tome una decisión.
Las actitudes sospechosas que puede identificar la IA van desde detectar la presencia de una segunda persona en la habitación hasta dirigir la mirada más abajo de lo que sería habitual por si se está consultando una segunda pantalla.
Preguntado acerca de las quejas por falta de respeto a la privacidad expresadas por algunos alumnos, Olsen aseguró que los vídeos de Proctorio únicamente los puede ver el maestro y en ningún caso nadie dentro de la empresa.
"No vamos a meter a un extraño en tu habitación", garantizó.
La COVID-19 ha disparado la demanda de Proctorio, que ha visto cómo en los últimos meses las ventas de su servicio (a un precio de entre 10 y 25 dólares anuales por alumno) subían hasta cifras nueve veces superiores a las del año pasado.
SOFTWARE QUE LEE TU ESTADO ANÍMICO
Uno de los mayores consensos dentro del mundo educativo es que la enseñanza personalizada es una de las mejores estrategias para promover el éxito de todos los alumnos: que plantee retos adaptados al nivel tanto de los más aventajados como de los que necesitan más refuerzo.
Sin embargo, en el día a día de la clase, ésta es una tarea de lo más complicada, que requiere una cantidad de tiempo y de personal de los que la mayoría de colegios no disponen. De nuevo, ¿podría la IA ser la respuesta al problema?
"Es una de las áreas en las que vemos mayor potencial: ajustar los contenidos para asegurar que cada estudiante puede demostrar sus conocimientos y avanzar al ritmo que más le conviene", explica el maestro y experto en educación y tecnología Mark Sparvell.
Pone como ejemplos tanto la adaptación constante del currículo para alumnos con discapacidades mediante aprendizaje automatizado como el desarrollo de software que lee el estado anímico del estudiante y recomienda cuál es el mejor momento para que haga una tarea, es decir, aquél en el que estará más motivado y aprenderá más.
Aunque su penetración se ha dado en los últimos años a un ritmo muy lento -algo que está cambiado por completo la COVID-19-, la IA ya se usa en varias escuelas de EE.UU., que, por ejemplo, la emplean para enseñar Matemáticas y otras materias en que las respuestas son a menudo binarias (correcta o incorrecta).
"Los mejores programas de IA que existen en la actualidad son en todos los aspectos más eficientes para enseñar Matemáticas que cualquier maestro y lo digo como alguien absolutamente concienciada de la importancia del elemento humano en la educación", asegura Jennifer Jones, fundadora de la red de escuelas privadas Green Ivy de Nueva York.
CONCILIACIÓN, PRESENCIA, ÉLITE
La generalización de la teleducación, sin embargo, plantea riesgos: según indican algunos expertos y se está viendo en la experiencia en Corea del Sur, el primer lugar donde se han impuesto las clases online a todo un país, el modelo puede ahondar en desigualdades ya existentes.
Lee So-ra, de 36 años y residente en la provincia de Gyeonggi (colindante a Seúl), tiene dos niños de 5 y 8, y este último comenzó a cursar tercero de primaria el pasado 20 de abril desde casa de su tía.
"Mi marido y yo trabajamos, así que cada mañana me toca llevar a los niños a casa de mi hermana", detalla Lee, que explica cómo el colegio de su hijo está admitiendo a unos pocos niños que no tienen padres, familiares o vecinos que puedan cuidarles durante el horario lectivo y los están sentando en aulas con sus ordenadores y muy distanciados entre sí.
"Me pregunto si todos los colegios del mundo van a poder permitir la entrada de estudiantes en esta situación y si esto no va a obligar a muchos progenitores a tener que dejar sus empleos para que sus hijos puedan ir a la escuela", añade.
El segundo hijo de Lee entrará el año que viene en edad escolar y ella ya anda pensando en el importante gasto extra que podría suponer para una familia de clase media como la suya el que las clases se sigan impartiendo online.
"Vamos a tener que comprar otro ordenador o tablet y necesitaremos un cuarto o espacio separado para cada niño. Créame, mi hermana está haciendo malabares para que el pequeño no moleste al otro y lo distraiga", precisa Lee.
"Existe la posibilidad de que la educación online pueda acabar imponiéndose como un modelo low cost", opina, por su parte, el profesor universitario de Literatura, que cree que algunas instituciones pequeñas pueden verse pronto abocadas a recortar gastos, empezando por la venta de activos inmobiliarios.
Cree que hay que estar atentos a la posibilidad de que el coronavirus acabe sirviendo para ampliar la brecha educativa y económica y depare un mundo en que solo las élites puedan optar por una "educación presencial con instalaciones de calidad" y el resto, por un formato de mínimos "en el que las clases acaben consistiendo en escuchar un podcast grabado por algún profesor". EFE

Cómo utilizar los nuevos filtros que reaccionan a la música en Instagram

Vamos a explicarte cómo utilizar los nuevos filtro que reaccionan a la música y el sonido en Instagram. Se trata de un nuevo tipo de filtro que la herramienta Spark AR ha empezado a permitir crear, por lo que algunos diseñadores ya se han puesto manos a la obra. Son filtros de realidad aumentada que se mueven junto al sonido que haya a tu alrededor, como puede ser tu voz o la música que está sonando de fondo.
Lo que pasa es que este tipo de filtros no está organizado en ninguna categoría, y tienes que buscarlos a mano. Eso hace que todo el proceso sea un poco más engorroso. De todas formas, tienes hasta tres maneras diferentes de poder obtenerlos, y vamos a intentar explicarte las tres paso a paso.

Busca el filtro en el catálogo de Instagram

Nueva Historia
El primer método es el de encontrar el filtro directamente en el catálogo de Instagram. Para ello, el primer paso es el de entrar en la app y pulsar en el botón de crear una nueva historia. Se trata del icono de la cámara que tienes en la esquina superior derecha.
Nombre Filtro
Se abrirá la cámara para fotografiar o grabar un vídeo para las historias, y en la parte inferior tendrás los filtros de realidad aumentada que puedes elegir antes de sacar la foto o grabar el vídeo. Selecciona uno de los filtros y pulsa en su nombre, que aparecerá debajo de su icono en la parte inferior del todo.
Explora Efectos
Se abrirá una pequeña ventana en la que se muestra el filtro en grande, y debajo aparecen varias opciones. En esta nueva fila de opciones, pulsa en el botón de Explorar efectos que aparece con el icono de una lupa.
Busca Filtro
Aquí, vas a tener dos opciones, como por ejemplo buscar estos filtros en algunas de las categorías. Sin embargo, no hay categorías concretas para los que reaccionan a la música, por lo que lo mejor es utilizar el buscador para encontrar filtros concretos que ya conozcas. Por ejemplo, EQlassesInstabeardAudioledThemachromic o Kandinsky in Concert. Una vez lo encuentres, pulsa sobre el filtro para entrar en su ficha.
Probar
Se abrirá una ventana en grande en la que podrás ver una foto de previsualización del filtro. En ella, pulsa en el botón Probar para empezar a utilizarlo. A la derecha tienes un icono de una caja con una flecha hacia abajo que sirve para descargarlo simplemente y probarlo después.
Obtén el filtro del perfil del creador
Usa El Buscador
El segundo método es el de encontrar el filtro directamente en el perfil de Instagram de su creador. Para ello, entra en la app y pulsa en el botón de buscar cuyo icono es una lupa y aparece en las pestañas de la barra inferior.
Creador Filtros
Ahora, tienes que buscar el nombre del creador del filtro. Alguno de los primeros que se han atrevido con ellos son jerzy.pilchpositlabsvi.de.or.bitmalf.visuals o rosterizer, o sea que puedes optar por buscar estos nombres para empezar a probar sus filtros.
Elige Filtro
Una vez entres en el perfil del creador, pulsa en la pestaña de efectos que sólo los creadores que tienen alguno subido tienen en el perfil. En esta pestaña, ahora pulsa sobre el filtro creado por él que quieras probar dentro del catálogo que verás.
Probar
Se abrirá una ventana en grande en la que podrás ver una foto de previsualización del filtro. En ella, pulsa en el botón Probar para empezar a utilizarlo. A la derecha tienes un icono de una caja con una flecha hacia abajo que sirve para descargarlo simplemente y probarlo después.




Encuentra el filtro cuando lo usen tus amigos
Beard
Y el tercer método es el más simple de ellos, y es el de esperar que alguno de tus contactos de Instagram encuentre uno de estos filtros, mirar su historia y descargarlo. Cuando estés en la historia del amigo, debajo de su nombre de perfil podrás pulsar en el nombre del filtro que está utilizando en la historia.
Pulsa Probar
Se abrirá una ventana en la parte inferior en la que puedes ver el acceso a todas las historias con ese filtro, y debajo tienes una fila con opciones. Pulsa en el botón Probar para empezar a utilizarlo. A la derecha tienes la opción de Guardar efecto para descargarlo simplemente y probarlo después.

miércoles, 27 de mayo de 2020

Apple Glass es más Apple Watch que Google Glass, y es por eso que tendrá éxito



Las gafas inteligentes no son solo una cosa de las películas que no puedes usar en el teatro, sino que en realidad existen. Google lanzó su programa Google Glass Explorer en 2012 como un producto experimental que tuvo que inscribirse para tener la oportunidad de comprar, y desde entonces hemos visto gafas inteligentes de compañías que van desde Panasonic hasta North y Snapchat. Pero a pesar de esa proliferación, parece que muy pocas personas los quieren o realmente se preocupan por ellos.

Entonces, ¿por qué, ocho años después de Google Glass, Apple lanza sus propias gafas inteligentes? Y sabemos que sí: el código del producto se incluyó accidentalmente en una versión oficial de herramientas para desarrolladores, y YouTuber John Prosser tiene una gran cantidad de detalles sobre exactamente qué esperar y cuándo. Apple realmente está haciendo esto.

Los mejores proveedores de VPN 2020: aprenda sobre ExpressVPN, NordVPN y más

Pero Apple lo está haciendo un poco diferente de lo que hemos visto antes. Ese es el beneficio de ver ocho años de evolución de gafas inteligentes. Según Prosser y su información, que admite libremente que se basa en un dispositivo prototipo, el precio comenzará en $ 499, no habrá cámara, todo el trabajo se realiza en el teléfono y Apple Glass no funcionará con lentes de gafas de sol . Aparte del precio, todas estas cosas se sienten como inconvenientes. Pero tal vez no.


Apple Glass ha sido el secreto peor guardado durante años, pero sabemos que prácticamente lo sabemos todo.

Apple no está volviendo a compartir Google Glass y las dos compañías tienen una visión muy diferente de lo que son las “gafas inteligentes”. Google quería entregar contenido contextual como notificaciones de llamadas entrantes, así como hacer cosas más ambiciosas como mostrar una vista en vivo de la navegación paso a paso mientras conducía. La pantalla era solo una pequeña lente de prisma, pero actuaba más como un teléfono inteligente Android que como un accesorio: Google Glass era en realidad un dispositivo inteligente por sí solo.

Básicamente, Apple está entregando una segunda pantalla que probablemente tendrá reglas muy restrictivas sobre lo que se puede mostrar en ella. Seguramente habrá notificaciones, y espero que pueda responder llamadas o que Siri envíe un mensaje de texto a través de Apple Glass. Pero no creo que vea un mapa en vivo cuando utilice Apple Maps, por ejemplo. Apple va todo con AR, y Apple Glass es una forma perfecta de hacerlo. La falta de una cámara será ser un factor limitante para las aplicaciones AR “divertidas”, pero recuerde que esta es la versión uno. Si tuviera que usar el iPhone original hoy, terminaría aplastándolo contra la pared.


Si bien Google Glass era una computadora contextual que usabas en la cara, Apple Glass será una forma increíble de entregar contenido AR. Es difícil comparar los dos.

Necesitamos comparar Apple Glass con Apple Watch, no Google Glass. Google Glass nunca fue un producto de consumo, todavía existe como una herramienta empresarial y fue una computadora portátil real que se ató a la cara. La idea era genial, pero la ejecución definitivamente no. El mayor obstáculo de Glass y lo que probablemente mostró que Google lo lanzó al público fue una mala idea, fue la falsa invasión de la privacidad que otras personas sentían si los usabas.

No importa que cada teléfono inteligente tenga una cámara. No importa que haya cámaras de seguridad con reconocimiento facial incorporado en todo el lugar. No importa que el prisma de Google Glass brillara como una linterna si usaras la cámara. La gente todavía se asustó porque Glass tenía una cámara. Apple está superando este obstáculo de privacidad al no poner una cámara en Apple Glass.


En cambio, hay un sensor LiDAR. El iPad Pro 2020 viene con un sensor LiDAR y las fugas sugieren que el iPhone 12 también albergará uno. LiDAR es muy útil para mapear lo que el sensor y su cámara complementaria pueden ver, pero no estoy exactamente seguro de cómo puede funcionar por sí solo. Pero no necesito saberlo, porque Apple Glass procesa todo en el iPhone, por lo que una aplicación como Apple Maps puede enviar datos sobre su ubicación a la pantalla inteligente y mostrarle algo útil, como información sobre una venta de ropa si está en Target, o algo genial, como reproducir un video mientras estás en el Lincoln Memorial.

Más: el iPad Pro ahora tiene LiDAR, pero Google podría hacerlo más grande y mejor

Lo LiDAR lata hacer es rastrear el movimiento, por lo que, en teoría, podrías controlar las cosas usando gestos. Cosas como descartar notificaciones o controles de audio estilo Pixel 4 son completamente posibles usando LiDAR. LiDAR es realmente genial, incluso si no es llamativo. Es una herramienta


Al principio, todos los wearables parecen decepcionarse y Apple Glass probablemente no será una excepción.

El primer Apple Watch se lanzó sin la capacidad de hacer nada por sí solo, y en su lugar se basó en un iPhone para cualquier procesamiento. Era una pantalla remota y había algunas críticas sobre lo útil que era. Desde entonces, Apple ha hecho un trabajo excepcional al crear una pequeña Mac en una caja para poner dentro del Apple Watch y las personas que la poseen la aman y la encuentran útil todos los días.

Eso es lo que se puede esperar de Apple Glass. La primera versión será un poco decepcionante y dependerá en gran medida del nombre de Apple para mantener el proyecto a flote mientras se realizan mejoras. Mientras la integración con las aplicaciones AR en el iPhone se realice correctamente, Apple no tendrá dificultades para evitarlo. AR puede ser divertido, pero también puede ser útil. Cuando se hace con un par de anteojos, podría ser más divertido y más útil.

Apple prepara un accesorio para el Apple Pencil que permitirá dibujar con realidad virtual





Apple tiene una gran fijación con la realidad aumentada. Desde el gran éxito que tuvo Pokémon GO en la App Store, generando millones y millones de ingresos, la compañía ha centrado todos sus esfuerzos en mejorar la tecnología y el software en relación a la realidad aumentada. De hecho, crearon una plataforma para desarrolladores conocida como ARKit para que estos pudieran crear aplicaciones de realidad aumentada para iPhone y iPad.

Por otro lado, llevamos años viendo toda clase de rumores circulando por la red sobre el desarrollo de unas gafas de realidad aumentada de Apple. Unas gafas que podrían llegar al mercado a partir de 2021.


Y no solo eso, sino que además Apple sigue buscando nuevas formas de mejorar la realidad aumentada en sus dispositivos móviles. Hace unos días la firma de Cupertino registró una patente con la idea de que el Apple Ring podría usarse con las gafas de realidad aumentada. Recientemente, la compañía del logo de la manzana mordida ha registrado otra patente relacionada con la realidad aumentada, sigue leyendo para descubrir más detalles.

Te puede interesar | Para Apple el futuro de las videollamadas pasa por los Memojis y la realidad aumentada
La nueva patente de Apple



La Oficina de Marcas y de Patentes de Estados Unidos ha publicado oficialmente una serie de 64 nuevas patentes para Apple. En este artículo destacaremos una de ellas, que está relacionada con la realidad aumentada. La patente describe un accesorio para Apple Pencil que permitiría detectar el movimiento de un usuario en un espacio tridimensional como un entorno de realidad aumentada o de realidad virtual al usar un dispositivo como unas gafas de realidad aumentada.

Según la patente, el Apple Pencil se podría usar en un entorno real para influir en un sistema de realidad mixta. Un dispositivo que utilice una pantalla visual u otra salida podría aplicar entradas de un stylus a un sistema de realidad mixta.


“LAS ENTRADAS SE PUEDEN APLICAR A UN SISTEMA DE REALIDAD AUMENTADA, UN SISTEMA DE REALIDAD VIRTUAL O UN ENTORNO VIRTUAL.”

Como ejemplo, Apple propone que el stylus o Apple Pencil pueda usarse para añadir marcas o anotaciones en un entorno real y/o en un entorno virtual.

Los componentes del Apple Pencil se podrían configurar para recibir entradas directamente desde el usuario para indicar cuando se toman las medidas de posición. Por ejemplo, a través de un botón.

Este botón podría ser un dispositivo capaz de recibir entradas. Incluiría un interruptor, una perilla, una palanca, un sensor de fuerza y otro dispositivo de entrada. Además, se podrían incluir botones adicionales para recibir las entradas del usuario. El usuario podría operar el botón para iniciar una sesión de uso, finalizar una sesión de uso u ordenar al Apple Pencil que realice otro tipo de tareas.

De esta manera, el Apple Pencil sería capaz de realizar “dibujos” en el aire, en un “espacio tridimensional”. Las ilustraciones se crearían en cualquier espacio libre mediante el movimiento del stylus por parte del usuario. La patente también describe que durante una sesión de dibujo se podrían calibrar diferentes aspectos de la detección del movimiento de los sensores.



El Apple Pencil tendría una sincronización total con las gafas de realidad aumentada

Mientras el usuario mueve el stylus, este proporciona salidas indicando sus ubicaciones en el espacio virtual durante la sesión de dibujo. Las ubicaciones en el espacio físico corresponderían a una localización física del Apple Pencil durante esta sesión de dibujo.

A lo largo del trayecto que recorren los movimientos del Apple Pencil en el aire, se irían generando una serie de marcas definidas por las ubicaciones de las que hablábamos en el anterior párrafo. Cuando un usuario proporciona una indicación, presionando o soltando el botón del Apple Pencil, las marcas dejarían de ser generadas y el usuario podría seguir moviendo el stylus por el aire sin generar marcas adicionales.

Tal y como detalla Apple en su patente, el stylus se comunicaría con un dispositivo con una pantalla visual para que el usuario pueda ver cómo se desarrollan sus entradas en tiempo real.

Viene una nueva era en realidad aumentada para el turismo

Todo apunta a que iniciamos una nueva inmersión en la realidad aumentada y que nuestro turismo deberá adaptarse a ello. Pero antes me gustaría aclarar qué es la Realidad Aumentada (AR) y sus diferencias con la Realidad Virtual (VR) y la Realidad Mixta (MR). Si ya lo sabes, puedes saltarte el siguiente párrafo.
La Realidad Aumentada es una combinación entre la realidad y la superposición sobre ella de elementos digitales. La Realidad Virtual es la inmersión al 100% en un mundo virtual. La Realidad Mixta es que combina las dos anteriores.

¿Por qué ahora?

Todo se basa en una lectura personal y lógica. Durante este último año ha habido un repunte en la apuesta de las grandes tecnologías en la inversión de esta tecnología. Por supuesto, que no es la primera intentona. Ya ha habido anteriores fracasos como las Google Glasses. Pero esta vez es diferente.
Si bien hace 8 años nadie estaba dispuesto a pagar 3.000€ por unas google glasses, hoy día ya tenemos un dispositivo en nuestro bolsillo, o nuestras manos, con capacidad de interpretar la realidad aumentada en mayor o menor medida: nuestro dispositivo móvil. Los grandes fabricantes nos han dotado de esta tecnología preparándonos así ante una nueva y futura oleada de contenidos en realidad aumentada. Aunque esto no es todo.
Apple, ha desarrollado una nueva tecnología avanzada llamada LIDAR. Un escáner con capacidad de leer el entorno de una forma precisa y superponer en él cualquier objeto tridimensional. Haciendo muy difícil diferenciar lo que es real de lo que es virtual. Este tipo de tecnología ya la incorpora hoy día sus dispositivos iPad Pro. Aunque ya han habido filtraciones sobre la incorporación de la misma en los futuros iPhone 12.
Aquí no acaba la cosa. Permitidme que hoy sea persistente con Apple, pero todos sabemos que suelen haber cambios en el futuro de nuestra tecnología cada vez que la compañía nos presenta un dispositivo totalmente diferente. Apple Glasses. O al menos así creemos que se llamarán. Unas gafas dotadas de realidad aumentada que presentarán a finales de este año en su Keynote bajo el lema “One More Thing”. Una filtración de fuente fiable que ya ha hecho visualizar a todos los tecnólogos del mundo, cuáles serán los próximos pasos de la tecnología incorporada en nuestras vidas.
Otra de las filtraciones ha sido la de la capacidad de lectura que tendrán las propias gafas, mediante una serie de códigos patentados por la propia marca, con funcionalidad similar a los actuales códigos QR. Al detectar un código delante de nuestro campo de visión, podremos acceder a la información que ocultará este, en formato realidad aumentada. Cartas para restaurante con plantos calientes en 3 dimensiones delante de nosotros, recepcionista virtual tras el mostrador informándonos de los servicios del hotel, una ciudad llena de puntos información sobre sus monumentos y todo lo que puedas/quieras imaginar.
Por supuesto, que faltarán años de desarrollo e implementación para llegar a ver lo anteriormente descrito. Pero créeme cuando te diga que quizás estamos más cerca de lo que pensamos. No es cuestión de poseer la tecnología, puesto que esta ya está. Es cuestión de conseguir que todos llevemos unas gafas puestas. Y aquí vengo al siguiente punto.
Innovar y disrupción no sólo significa crear un producto novedoso sino hacerlo también accesible a la mayoría de la sociedad. Una nuevas gafas de Apple a $499 en 2021/22 añadido a la oleada posterior de tecnología china más barata y de bastante buena calidad, hará que en poco más de 3 años todos llevemos unas aunque carezcamos de problemas de visión. Todo ello a cambio de entrar en nuevo mundo mezclado entre lo físico y lo digital.
Y si esto sucede, que lo hará, deberemos ser de los primeros en desarrollar contenido disponible a los usuarios. Recuerda que nuestro sector turístico requiere de una actualización constante a las nuevas tecnologías y que todo esto por lo que estamos pasando, solo ha hecho que acelerar nuestra transformación.
Hasta entonces, un buen punto de partida es acceder al curso de preparación sobre estratégicas tecnolúdicas que impartirá nuestra profesora, la Doctora Eurídice Cabañas, en Growtur. Puedes acceder a toda la información aquí.

Niantic está trabajando en mejorar la Realidad Aumentada de Pokémon GO





Niantic ha anunciado hoy dos funciones para Pokémon GO en las que se encuentra actualmente trabajando.

La primera se llama Integrar realidad, consiste en hacer que los compañeros y otros Pokémon se vean de forma más realista al utilizar realidad aumentada, como por ejemplo los Pokémon podrán aparecer detrás de objetos y ocultarse.

Esta función la recibirán algunos usuarios que jueguen en Android y cuenten con dispositivos Samsung Galaxy S9, Samsung Galaxy S10, Google Pixel 3 y Google Pixel 4.

La segunda función es un mapa del mundo en RA, se trata un mapa 3D dinámico de las Poképaradas y los Gimnasios. Los usuarios de nivel 40, recibirán a principios de junio una función llamada Escaneo de Poképaradas.

Con esto, Niantic podrá generar mapas dinámicos en 3D de algunas ubicaciones en las que se encuentran las Poképaradas o Gimnasios. En esas zonas la realidad aumentada estará muy mejorada para poder jugar y visualizar Poképaradas, gimnasios, Pokémon y otros.

martes, 26 de mayo de 2020

TRIMBLE SITEVISION "SISTEMA DE REALIDAD AUMENTADA PARA EXTERIORES

Trimble SiteVision | Realidad aumentada para exteriores

PERMITE SUPERPONER COMPLEJOS MODELOS 3D SOBRE LA REALIDAD DE MANERA PRECISA Y SIMPLIFICADA. 

 

Trimble Sitevision Características

 


IMPORTACIÓN DE DISTINTOS FORMATOS 

Sus modelos pueden provenir de distintas fuentes de software, principalmente proyectos de Trimble Business Center y Trimble Tekla transformados a formato TrimBIM (.TRB), superficies Trimble Ter ain Model (.TTM) o modelos de Trimble Sketchup (.SKP). 
Importación de distintos formatos Trimble SiteVision
Con Trimble SiteVision podrá incorporar formatos estandarizados sus flujos de trabajo en ambientes BIM (Industry Fundation Class .IFC) y de diseño ingenieril (LandXML .XML). Como también formatos de terceros: .DWG Autodesk y .SHP de Esri. 

MODOS DE VISUALIZACIÓN

Aplique una vista de corte transversal y/o modifique el nivel de trasparencia del modelo respecto al terreno real. Utilice la vista de pozo para observar modelos cuya ubicación está por debajo de la superficie real del terreno y cambie al modo de vista 2D para revisar el modelo en planta. 
Modos de visualización | Trimble SiteVision
Modos de visualización | Trimble SiteVision
Modos de visualización | Trimble SiteVision
El administrador de capas le ayudará organizar la visualización, sobre todo cuanto su modelo cuente con mucha información, y si se trata de un modelo BIM, podrá también seleccionar cualquier elemento en la pantalla y ver sus atributos.

Funcionalidades Trimble SiteVisionTrimble SiteVision

MODOS DE MEDICIÓN

Podrá combinar los modos de captura GNSS, EDM y de Realidad Aumentada para medir puntos, distancias inclinadas, horizontales, verticales, pendientes y valores de corte-relleno. 
Modos de medición Trimble SiteVision
Modos de medición Trimble SiteVision

Modos de medición Trimble SiteVision

ASIGNACIÓN DE TAREAS (TO-DO’S)

Si cree que alguien más debería ver lo que usted está viendo con SiteVision en terreno, genere una captura de pantalla y compártala con más gente dentro de su organización, podrá asignar tareas, añadir comentarios, indicar algún problema, etc. Dentro de un marco colaborativo y con una interfaz sencilla e intuitiva. 
Visualización Trimble SiteVision

 APLICACIONES 

ARQUITECTURA 

Visualice sus diseños en terreno desde diferentes perspectivas: planta 2D, vista 3D, inclusive desde el interior del mismo modelo. Haga medidas entre el diseño y el mismo sitio. Capture vistas y compártalas con sus clientes. 

EDIFICACIÓN

Revise en detalle su proyecto aplicando transparencias y vistas de corte sobre sus modelos BIM, detecte inconsistencias, interferencias u omisiones en su diseño. Organice la visualización elementos del modelo con el administrador de capas de SiteVision, también podrá revisar los atributos de cada uno de ellos. 

OBRAS CIVILES

Planifique, emplace modelos de ingeniería conceptual, mida con precisión centimétrica y comparta sus datos en un contexto colaborativo, calcule valores de corte-relleno y pendientes sobre superficies u otros diseños de ingeniería. Asigne tareas a usuarios dentro de su organización. Detecte interferencias con el mundo real y compare visualmente el modelo con sus avances de obra. 

SERVICIOS BÁSICOS

Ubique sus proyectos de líneas de energía, comunicación, agua potable o saneamiento de manera rápida e intuitiva, visualice modelos que se emplazan bajo la superficie del terreno con la vista de pozo y capture información geoespacial para complementar sus levantamientos topográficos. 

 INFORMACIÓN ESPECÍFICA 

Especificaciones Trimble SiteVision