sábado, 21 de septiembre de 2019

7 cosas que debes saber sobre el paisaje de realidad aumentada

Paisaje AR en septiembre de 2019.



A medida que la sociedad recurre a la inteligencia artificial para resolver problemas en cada vez más dominios, estamos viendo una carrera armamentista para crear hardware especializado que pueda ejecutar modelos de aprendizaje profundo a velocidades más altas y menor consumo de energía.

Algunos avances recientes en esta carrera incluyen nuevas arquitecturas de chips que realizan cálculos de formas que son fundamentalmente diferentes de lo que hemos visto antes. Observar sus capacidades nos da una idea de los tipos de aplicaciones de IA que podríamos ver surgir en los próximos años.

AI h

Chips neuromórficos
Las redes neuronales , compuestas por miles y millones de pequeños programas que realizan cálculos simples para realizar tareas complicadas, como detectar objetos en imágenes o convertir el habla en texto, son clave para el aprendizaje profundo.

Pero las computadoras tradicionales no están optimizadas para operaciones de redes neuronales. En su lugar, están compuestos por una o varias potentes unidades centrales de procesamiento (CPU). Las computadoras neuromórficas utilizan una arquitectura de chip alternativa para representar físicamente las redes neuronales. Los chips neuromórficos están compuestos por muchas neuronas físicas físicas que se corresponden directamente con sus contrapartes de software. Esto los hace especialmente rápidos para entrenar y ejecutar redes neuronales.

El concepto detrás de la computación neuromórfica ha existido desde la década de 1980, pero no recibió mucha atención porque las redes neuronales fueron descartadas como demasiado ineficientes. Con un renovado interés en el aprendizaje profundo y las redes neuronales en los últimos años, la investigación sobre chips neuromórficos también ha recibido nueva atención.

En julio, un grupo de investigadores chinos presentó Tianjic, un solo chip neuromórfico que podría resolver una multitud de problemas, incluida la detección de objetos, la navegación y el reconocimiento de voz. Los investigadores mostraron la funcionalidad del chip al incorporarlo en una bicicleta autónoma que respondía a los comandos de voz. "Se espera que nuestro estudio estimule el desarrollo de AGI [inteligencia general artificial] allanando el camino hacia plataformas de hardware más generalizadas", observaron los investigadores en un artículo publicado en Nature .



Si bien no hay evidencia directa de que los chips neuromórficos sean el camino correcto para crear inteligencia general artificial, ciertamente ayudarán a crear un hardware de IA más eficiente.

La informática neuromórfica también ha llamado la atención de las grandes empresas tecnológicas. A principios de este año, Intel presentó Pohoiki Beach, una computadora repleta de 64 chips neuromórficos Intel Loihi , capaces de simular un total de 8 millones de neuronas artificiales. Loihi procesa información hasta 1,000 veces más rápido y 10,000 más eficientemente que los procesadores tradicionales, según Intel.

Informática óptica
Las redes neuronales y los cálculos de aprendizaje profundo requieren enormes cantidades de recursos informáticos y electricidad. La huella de carbono de la IA se ha convertido en una preocupación ambiental . El consumo de energía de las redes neuronales también limita su despliegue en entornos donde hay energía limitada, como los dispositivos alimentados por batería.

Y a medida que la Ley de Moore continúa desacelerándose , los chips electrónicos tradicionales están luchando para mantenerse al día con las crecientes demandas de la industria de IA.

Varias compañías y laboratorios de investigación han recurrido a la informática óptica para encontrar soluciones a los desafíos de velocidad y electricidad de la industria de IA. La computación óptica reemplaza los electrones con fotones, y usa señales ópticas en lugar de electrónica digital para realizar la computación.

Los dispositivos informáticos ópticos no generan calor como los cables de cobre, lo que reduce considerablemente su consumo de energía. Las computadoras ópticas también son especialmente adecuadas para la multiplicación rápida de matrices, una de las operaciones clave en las redes neuronales.

En los últimos meses hemos visto la aparición de varios prototipos funcionales de chips ópticos de IA. Lightelligence, con sede en Boston, ha desarrollado un acelerador óptico de IA que es compatible con el hardware electrónico actual y puede mejorar el rendimiento de los modelos de IA en uno o dos órdenes de magnitud al optimizar algunos de los cálculos de redes neuronales pesadas. Los ingenieros de Lightelligence dicen que los avances en computación óptica también reducirán los costos de fabricación de chips AI.

Más recientemente, un grupo de investigadores de la Universidad de Ciencia y Tecnología de Hong Kong desarrolló una red neuronal totalmente óptica . Por el momento, los investigadores han desarrollado un modelo de prueba de concepto que simula una red neuronal de dos capas totalmente conectada con 16 entradas y dos salidas. Las redes neuronales ópticas a gran escala pueden ejecutar aplicaciones de computación intensiva que van desde el reconocimiento de imágenes hasta la investigación científica a la velocidad de la luz y con un menor consumo de energía.

Enormes chips
A veces, la solución es escalar más grande. En agosto, Cerebras Systems, una startup de Silicon Valley que salió del sigilo en mayo, presentó un enorme chip de inteligencia artificial que contiene 1,2 billones de transistores. Con 42,225 milímetros cuadrados, el chip Cerebras es más de 50 veces más grande que el procesador gráfico Nvidia más grande y contiene 50 veces más transistores.

Los chips grandes aceleran el procesamiento de datos y pueden entrenar modelos de IA a velocidades más rápidas. La arquitectura única de Cerebras también reduce el consumo de energía en comparación con las GPU y las CPU tradicionales.


Arriba: chip masivo de Cerebras

El tamaño del chip limitará su uso en entornos con espacio limitado, por supuesto, aunque los fabricantes lo han diseñado principalmente para la investigación y otros dominios donde los bienes raíces no son un problema grave.

Cerebras recientemente consiguió su primer contrato con el Departamento de Energía de los Estados Unidos. El DoE utilizará el chip para acelerar la investigación de aprendizaje profundo en ciencias, ingeniería y salud.

Dada la variedad de industrias y dominios que están encontrando aplicaciones para el aprendizaje profundo, hay pocas posibilidades de que una sola arquitectura domine el mercado. Pero lo que es seguro es que los chips de IA del futuro probablemente serán muy diferentes de las CPU clásicas que han estado en nuestras computadoras y servidores durante décadas.

Ben Dickson es ingeniero de software y fundador de  TechTalks , un blog que explora las formas en que la tecnología está resolviendo y creando problemas.

0 comentarios :

Publicar un comentario