¿Qué es la computación neuromórfica? Guía explicativa

Hemos visto el impacto positivo de la IA en varias industrias que incluyen una mayor productividad, procesos mejorados, conocimientos más profundos, menos tareas que requieren mucha mano de obra y menos errores que, en general, contribuyen al crecimiento.

La IA ha progresado significativamente debido a los avances logrados en el aprendizaje profundo, las redes neuronales artificiales y los macrodatos. Sin embargo, todavía tiene áreas para mejorar. Uno de esos desafíos es la necesidad de desarrollar hardware de IA que pueda manejar cálculos complejos que los sistemas tradicionales no pueden.

En la actualidad, muchos sistemas de inteligencia artificial todavía requieren algún tipo de intervención humana para etiquetar los datos de entrenamiento correctamente.

Otro problema es la falta de tácticas de entrenamiento generalizadas que permitan a los sistemas de IA aplicar su entrenamiento o aprendizaje de una circunstancia a otra. Los expertos creen que la respuesta está en la computación neuromórfica. En este post analizamos en qué consiste la computación neuromórfica, cómo funciona, sus desafíos y casos de uso.

¿Qué es la computación neuromórfica?

La computación neuromórfica es un método de ingeniería informática en el que los elementos de una computadora se modelan a partir de los sistemas del cerebro y el sistema nervioso humanos. El término se refiere al diseño de elementos informáticos de hardware y software.

Los ingenieros neuromórficos se basan en varias disciplinas, incluidas la informática, la biología, las matemáticas, la ingeniería electrónica y la física, para crear sistemas neuronales artificiales inspirados en estructuras biológicas.

Hay dos objetivos generales de la computación neuromórfica (a veces denominada ingeniería neuromórfica). El primero es crear un dispositivo que pueda aprender, retener información e incluso hacer deducciones lógicas de la forma en que lo hace un cerebro humano: una máquina cognitiva. El segundo objetivo es adquirir nueva información, y quizás probar una teoría racional, sobre cómo funciona el cerebro humano.

La computación neuromórfica tiene como objetivo desarrollar máquinas que puedan aprender a reconocer patrones de forma independiente y realizar análisis con menos entradas de datos mientras usan menos memoria en comparación con una red neuronal digital. Eso requiere el uso de chips o neuronas artificiales que funcionan como sinapsis o neuronas biológicas. Esa estructura revisada los hará más eficientes que las redes neuronales.

Historia

El predecesor de las neuronas artificiales utilizadas en las redes neuronales de hoy se remonta a 1958 con la invención del perceptrón. El perceptrón fue un intento burdo de imitar elementos de las redes neuronales biológicas utilizando el conocimiento limitado del funcionamiento interno del cerebro disponible en ese momento.

El perceptrón estaba destinado a ser un hardware mecánico personalizado utilizado para tareas de reconocimiento de imágenes por la Marina de los EE. UU. La tecnología recibió un gran revuelo antes de que se diera cuenta de que no podía lograr la función necesaria.

La computación neuromórfica fue propuesta por primera vez por el profesor de Caltech Carver Mead en la década de 1980. Mead describió la primera retina de silicio analógica, que presagiaba un nuevo tipo de cálculos físicos inspirados en el paradigma neuronal.

Mead también es citado en una publicación sobre computación neuronal en VLSI analógico diciendo que creía que el sistema nervioso humano no podía hacer nada que las computadoras no pudieran hacer si existía una comprensión completa de cómo funcionaba el sistema nervioso.

Sin embargo, la reciente inversión y la exageración en torno a la investigación neuromórfica pueden atribuirse en parte al uso generalizado y creciente de la inteligencia artificial, el aprendizaje automático y las redes neuronales en la tecnología empresarial y de consumo.

También se puede atribuir en gran medida al fin percibido de la ley de Moore entre muchos expertos en TI. La Ley de Moore establece que la cantidad de microcomponentes que se pueden colocar en un chip se duplicará cada año, y el coste seguirá siendo el mismo.

Debido a que la computación neuromórfica promete eludir las arquitecturas tradicionales y lograr nuevos niveles dramáticos de eficiencia, ha ganado mucha atención de los principales fabricantes de chips como IBM e Intel con el fin de la Ley de Moore inminente.

Mead, quien destiló las ideas de Gordon Moore y acuñó la Ley de Moore, también se cita en 2013 diciendo: «Ir a chips multinúcleo ayudó, pero ahora tenemos ocho núcleos y no parece que podamos ir mucho más allá. Gente tienen que chocar contra la pared antes de que presten atención «. Esta creencia refuerza el hecho de que el discurso popular y la exageración en torno a la IA pasan por reflujos y flujos, y los períodos de calma en el interés a menudo se denominan inviernos de IA , y los períodos de mayor interés a menudo surgen como resultado de un problema inmediato que debe resolverse, en este sentido. caso el fin de la Ley de Moore.

¿Cómo funciona?

La red neuronal tradicional y la computación de aprendizaje automático se adaptan bien a los algoritmos existentes. Por lo general, se enfoca en proporcionar computación rápida o baja potencia, a menudo logrando uno a expensas del otro.

Los sistemas neuromórficos, por otro lado, logran un cálculo rápido y un bajo consumo de energía. Las características de estos sistemas son:

  • masivamente paralelos, lo que significa que pueden manejar muchas tareas a la vez;
  • impulsados ​​por eventos, lo que significa que responden a eventos basados ​​en condiciones ambientales
  • variables y solo las partes de la computadora en uso requieren energía;
  • alto en adaptabilidad y plasticidad, lo que significa que son muy flexibles;
  • capaz de generalizar; y
  • fuerte y tolerante a fallos, lo que significa que aún puede producir resultados después de que los componentes hayan fallado.

La alta eficiencia energética, la tolerancia a fallos y las poderosas capacidades de resolución de problemas son también características que posee el cerebro.

Por ejemplo, el cerebro usa unos 20 vatios de energía de media, que es aproximadamente la mitad que una computadora portátil estándar. También es extremadamente tolerante a los fallos: la información se almacena de forma redundante (en varios lugares) e incluso los fallos relativamente graves de ciertas áreas del cerebro no impiden el funcionamiento general. También puede resolver problemas novedosos y adaptarse a nuevos entornos muy rápidamente.

La computación neuromórfica logra esta función y eficiencia similar a la del cerebro mediante la construcción de sistemas neuronales artificiales que implementan «neuronas» (los nodos reales que procesan información) y «sinapsis» (las conexiones entre esos nodos) para transferir señales eléctricas utilizando circuitos analógicos. Esto les permite modular la cantidad de electricidad que fluye entre esos nodos para imitar los diversos grados de fuerza que tienen las señales cerebrales naturales.

El sistema de neuronas y sinapsis que transmiten estos pulsos eléctricos se conoce como red neuronal de picos (SNN), que puede medir estos cambios discretos de señal analógica y no están presentes en las redes neuronales tradicionales que utilizan señales digitales con menos matices.

Los sistemas neuromórficos también introducen una nueva arquitectura de chip que coloca la memoria y el procesamiento juntos en cada neurona individual en lugar de tener áreas designadas separadas para cada una.

Una arquitectura de chip de computadora tradicional (conocida como arquitectura von Neumann) generalmente tiene una unidad de memoria (MU), una unidad central de procesamiento (CPU) y rutas de datos independientes. Esto significa que la información debe ir y venir repetidamente entre estos diferentes componentes a medida que la computadora completa una tarea determinada. Esto crea un cuello de botella para la eficiencia energética y de tiempo, conocido como el cuello de botella de von Neumann.

Al colocar la memoria, un chip neuromórfico puede procesar información de una manera mucho más eficiente y permite que los chips sean simultáneamente muy potentes y muy eficientes. Cada neurona individual puede realizar procesamiento o memoria, dependiendo de la tarea en cuestión.

Cómo funcionan las redes neuronales profundas

En el corazón de los avances recientes en inteligencia artificial se encuentran las redes neuronales artificiales (ANN), software de inteligencia artificial que sigue aproximadamente la estructura del cerebro humano. Las redes neuronales están compuestas por neuronas artificiales, pequeñas unidades de cálculo que realizan funciones matemáticas simples.

Las neuronas artificiales no son de mucha utilidad por sí solas. Pero cuando se apilan en capas, pueden realizar tareas notables, como detectar objetos en imágenes y transformar el audio de la voz en texto. Las redes neuronales profundas pueden contener cientos de millones de neuronas, distribuidas en docenas de capas.

Al entrenar un algoritmo de aprendizaje profundo, los desarrolladores ejecutan muchos ejemplos a través de la red neuronal junto con el resultado esperado. El modelo de IA ajusta cada una de las neuronas artificiales a medida que revisa más y más datos. Gradualmente, se vuelve más preciso en las tareas específicas para las que ha sido diseñado, como detectar el cáncer en diapositivas o marcar transacciones bancarias fraudulentas.

Desafíos de la computación neuromórfica

La computación neuromórfica es un campo de tecnología emergente que en su mayoría aún se está investigando. Sólo recientemente ha habido intentos de uso práctico de arquitecturas informáticas neuromórficas. Los desarrollos más recientes en hardware neuromórfico tienen el potencial de mejorar la eficiencia de las redes neuronales actuales, que actualmente se ejecutan en unidades de procesamiento gráfico (GPU) algo ineficientes. Sin embargo, un chip cerebral humano funcional aún está muy lejos.

Uno de los principales desafíos que enfrenta el campo de las neurocomputadoras es que está dominado por desarrolladores de hardware, neurocientíficos e investigadores de aprendizaje automático. Carece de desarrolladores e ingenieros de software.

Para poner en producción sistemas neuromórficos, se requiere un cambio de pensamiento. Los desarrolladores, investigadores e ingenieros deben estar dispuestos a ir más allá del modo actual de pensar sobre la arquitectura de la computadora y comenzar a pensar fuera del marco tradicional de von Neumann.

Finalmente, para popularizar la computación neuromórfica, los desarrolladores de software necesitarán crear un conjunto de API, modelos de programación y lenguajes para hacer que las computadoras neuromórficas sean accesibles para los no expertos.

Los investigadores deberán desarrollar nuevas formas de medir y evaluar el rendimiento de estas nuevas arquitecturas para poder mejorarlas. También deberán fusionar la investigación con otros campos emergentes, como la computación probabilística, que tiene como objetivo ayudar a la IA a gestionar la incertidumbre y el ruido.

A pesar de estos desafíos, existe una inversión significativa en el campo. Aunque hay escépticos, muchos expertos creen que la computación neuromórfica tiene el potencial de revolucionar el poder algorítmico, la eficiencia y las capacidades generales de la IA, además de revelar nuevos conocimientos sobre la cognición.

Desafíos de ejecutar redes neuronales en hardware tradicional

Las computadoras tradicionales se basan en una o varias unidades centrales de procesamiento (CPU). Las CPU tienen mucha potencia y pueden realizar operaciones complejas a altas velocidades. Dada la naturaleza distribuida de las redes neuronales, ejecutarlas en computadoras clásicas es engorroso. Sus CPU deben emular millones de neuronas artificiales a través de registros y ubicaciones de memoria, y calcular cada una de ellas por turno.

Las unidades de procesamiento de gráficos (GPU), el hardware utilizado para los juegos y el software 3D, pueden realizar una gran cantidad de procesamiento en paralelo y son especialmente buenas para realizar la multiplicación de matrices, la operación principal de las redes neuronales. Los arreglos de GPU han demostrado ser muy útiles en operaciones de redes neuronales.

El aumento de la popularidad de las redes neuronales y el aprendizaje profundo ha sido una bendición para los fabricantes de GPU. La empresa de hardware de gráficos Nvidia ha visto aumentar varias veces el valor de sus acciones en los últimos años.

Sin embargo, las GPU también carecen de la estructura física de las redes neuronales y aún deben emular las neuronas en el software, aunque a una velocidad vertiginosa. Las diferencias entre las GPU y las redes neuronales provocan muchas ineficiencias, como un consumo excesivo de energía.

Chips neuromórficos

A diferencia de los procesadores de propósito general, los chips neuromórficos se estructuran físicamente como redes neuronales artificiales. Cada chip neuromórfico se compone de muchas pequeñas unidades informáticas que corresponden a una neurona artificial.

A diferencia de las CPU, las unidades informáticas de los chips neuromórficos no pueden realizar muchas operaciones diferentes. Tienen la potencia suficiente para realizar la función matemática de una sola neurona.

Otra característica esencial de los chips neuromórficos son las conexiones físicas entre neuronas artificiales. Estas conexiones hacen que los chips neuromórficos se parezcan más a los cerebros orgánicos, que consisten en neuronas biológicas y sus conexiones, llamadas sinapsis. La creación de una serie de neuronas artificiales conectadas físicamente es lo que da a las computadoras neuromórficas su fuerza real.

La estructura de las computadoras neuromórficas las hace mucho más eficientes para entrenar y ejecutar redes neuronales. Pueden ejecutar modelos de IA a una velocidad más rápida que las CPU y GPU equivalentes mientras consumen menos energía. Esto es importante porque el consumo de energía ya es uno de los desafíos esenciales de la IA .

El tamaño más pequeño y el bajo consumo de energía de las computadoras neuromórficas las hacen adecuadas para casos de uso que requieren ejecutar algoritmos de IA en el borde en lugar de en la nube.

Los chips neuromórficos se caracterizan por la cantidad de neuronas que contienen.

Ejemplos

El chip Tianjic, el chip neuromórfico utilizado en la bicicleta autónoma, contenía unas 40.000 neuronas artificiales y 10 millones de sinapsis en un área de 3,8 milímetros cuadrados. En comparación con una GPU que ejecuta un número igual de neuronas, Tianjic se desempeñó 1.6-100 veces más rápido y consumió 12-10,000 veces menos energía.

Pero 40.000 es un número limitado de neuronas, tanto como el cerebro de un pez. El cerebro humano contiene aproximadamente 100 mil millones de neuronas.

AlexNet, una popular red de clasificación de imágenes utilizada en muchas aplicaciones, tiene más de 62 millones de parámetros. El modelo de lenguaje GPT-2 de OpenAI contiene más de mil millones de parámetros.

Pero el chip Tianjic fue más una prueba de concepto que una computadora neuromórfica diseñada para usos comerciales. Otras empresas ya han estado desarrollando chips neuromórficos listos para usarse en diferentes aplicaciones de IA.

Un ejemplo son los chips Loihi de Intel y las computadoras Pohoiki Beach. Cada chip Loihi contiene 131.000 neuronas y 130 millones de sinapsis. La computadora Pohoiki, presentada en julio, contiene 8,3 millones de neuronas. El Pohoiki ofrece un rendimiento 1000 veces mejor y es 10,000 veces más eficiente en energía que las GPU equivalentes.

Otro ejemplo es el chip TrueNorth de IBM. Tiene más de 1 millón de neuronas y más de 268 millones de sinapsis. Es 10,000 veces más eficiente en energía que los microprocesadores convencionales y solo usa energía cuando es necesario.

Casos de uso

Los expertos predicen que cuando las computadoras neuromórficas se hagan realidad, funcionarán bien para ejecutar algoritmos de IA en el borde en lugar de en la nube debido a su tamaño más pequeño y bajo consumo de energía.

Al igual que un humano, serían capaces de adaptarse a su entorno, recordando lo que es necesario y accediendo a una fuente externa (la nube en este caso) para obtener más información cuando sea necesario.

Otras aplicaciones potenciales de esta tecnología tanto en tecnología empresarial como de consumo incluyen:

  • coches sin conductor
  • dispositivos domésticos inteligentes
  • comprensión del lenguaje natural
  • analítica de datos
  • optimización de procesos
  • procesamiento de imágenes en tiempo real para su uso en cámaras de policía, por ejemplo.

Computación neuromórfica e inteligencia artificial general (AGI)

El término inteligencia artificial general (AGI) se refiere a la IA que exhibe una inteligencia igual a la de los humanos. Se podría decir que es el santo grial de toda la IA. Las máquinas aún no han alcanzado ese nivel de inteligencia y tal vez nunca lo alcanzarán. Sin embargo, la computación neuromórfica ofrece nuevas vías emergentes para avanzar hacia ella.

Por ejemplo, Human Brain Project, que cuenta con la supercomputadora neuromórfica SpiNNaker, tiene como objetivo producir una simulación del funcionamiento del cerebro humano y es uno de los muchos proyectos de investigación activos interesados ​​en AGI.

Se debaten los criterios para determinar si una máquina ha alcanzado el AGI, pero algunos de los que se incluyen comúnmente en la discusión son que la máquina pueda:

  • razonar y emitir juicios en condiciones de incertidumbre,
  • planificar,
  • aprender,
  • comunicarse usando lenguaje natural,
  • representar conocimiento, incluido el conocimiento de sentido común e
  • integrar estas habilidades en la búsqueda de un objetivo común.

A veces se incluye la capacidad de imaginación, experiencia subjetiva y autoconciencia. Otros métodos propuestos para confirmar el AGI son la famosa Prueba de Turing y la Prueba para estudiantes de Robot College, en la que una máquina se inscribe en clases y obtiene un título como lo haría un humano.

Si alguna vez una máquina alcanza la inteligencia humana, también hay debates sobre cómo debe manejarse de manera ética y legal. Algunos argumentan que debería ser tratado como un animal no humano a los ojos de la ley. Estos argumentos se han producido durante décadas en parte porque la conciencia en general todavía no se comprende por completo.

Ajustes de computación neuromórfica para beneficiar a la IA

Los sistemas de IA son actualmente limitados en cuanto a los problemas que pueden resolver. Las soluciones dependen de los datos que reciben. No pueden generalizar el conocimiento y contextualizar la información como lo hacen los humanos. Eso les impide aplicar un proceso de resolución para un problema en una circunstancia similar.

Si bien se han dado pasos hacia la dirección correcta, la computación neuromórfica todavía tiene un largo camino por recorrer.

Para maximizar su potencial, los expertos creen que la tecnología debe cumplir requisitos adicionales, que incluyen:

  • Computación en memoria: obtener datos de lugares remotos requiere muchos recursos. Las computadoras neuromórficas necesitan almacenar información en el mismo lugar donde ocurre el análisis. El uso de semiconductores de procesamiento electrónico que combinan transistores (procesadores de memoria) con almacenamiento puede ayudar con esto.
  • Paralelismo: las computadoras suelen funcionar de forma lineal. Pero para que la computación neuromórfica beneficie a la IA, los sistemas deben estar diseñados para funcionar como el cerebro humano. Deben poder realizar numerosas operaciones simultáneamente. Eso se traduce en ampliar las capacidades de las unidades de procesamiento gráfico (GPU) que crean gráficos a gran escala mediante cálculos simultáneos llamados «multiplicaciones de matrices».
  • Computación probabilística: en lugar de realizar cálculos precisos, puede ser más útil que los sistemas presenten ciertos grados de probabilidad como el cerebro humano, que requiere menos información.

Por lo que hemos leído, la computación neuromórfica parece ser algo más que otra palabra de moda relacionada con la IA. Los estudios y experimentos actuales muestran que, de hecho, puede beneficiar a la IA. Puede permitir que los sistemas de inteligencia artificial funcionen más como el cerebro humano que deben imitar.

Pero como también hemos visto, la tecnología aún necesita mucha exploración antes de que pueda revolucionar los sistemas de IA actuales.