Replicar el cerebro humano en el cerebro digital de un procesador. Dicho de forma muy básica, esta frase condensa el objetivo de la ingeniería o la computación neuromórfica, menos conocida y financiada que la computación cuántica pero con una candidatura firme a cambiar el paradigma informático actual por otro no solo mucho más capaz sino además sostenible.
Hablamos de una disciplina tecnológica inspirada por el diseño natural afinado durante millones de años. Por lo tanto, un laboratorio neuromórfico es multidisciplinar, reúne a físicos, químicos, biólogos, matemáticos y expertos en informática o microelectrónica con el objetivo de entender y reproducir cómo funciona la unidad nerviosa básica, la neurona, y a partir de ella cómo se comunica y comparte el cálculo con el resto de la estructura neuronal para solucionar problemas complejos.
¿Por qué el cambio de paradigma? La computación convencional procesa información en línea, o en serie, pero la neuromórfica lo hace en red. Descompone un problema en otros más pequeños y los analiza simultáneamente desde distintos grupos neuronales, como tener varios ordenadores coordinados para resolver una tarea desde varios focos. Así toma decisiones como un mamífero, prácticamente en tiempo real, con una operativa adaptada a sus necesidades y muy eficiente en consumo energético porque minimiza la cantidad de impulsos eléctricos necesarios. Una de las habilidades cerebrales que trata de imitar la computación es la inmediatez al conectar la memoria con el área analítica que llega a conclusiones. De hecho, esta es una de las tareas que consume más energía en la computación convencional.
Pero el reto de replicar esa arquitectura biológica en un procesador es de tal calibre que algunos autores lo consideran virtualmente inalcanzable. Podemos fabricar un avión, dicen, pero no un pájaro. La buena noticia es que la evolución tecnológica acelera. En 2005, un proyecto científico simuló la complejidad de un cerebro de ratón a costa de conectar 16.000 procesadores. Cuatro años después, reproducir el funcionamiento del 1% de la corteza cerebral humana consumió un millón de vatios de electricidad en un superordenador refrigerado por 76.500 metros cúbicos de aire helado por minuto. Sin embargo, en el último lustro hemos pasado de miles de neuronas artificiales a cientos de miles en un chip, y de ahí a sistemas complejos con cientos de millones de neuronas en red. Calculan que podrían resolver problemas hasta 1.000 veces más rápido que un microprocesador digital y con un consumo energético varios miles de veces más eficiente.
Este aspecto es crucial por una cuestión básica de coste en un contexto de precios disparados, pero sobre todo porque ese avance rompería uno de los cuellos de botella de tecnologías como las analíticas avanzadas, la inteligencia artificial (IA), la minería de criptomonedas o la computación cuántica: su voraz apetito de megavatios, hoy por hoy solo suministrable desde fuentes no renovables.
Ahora bien, si la computación neuromórfica imita el cerebro, también replica sus limitaciones cognitivas. Es útil para algunas tareas, pero no tanto para otras. De hecho el escenario futuro más plausible es que todos los modelos computacionales (convencional, cuántica, neuromórfica y otras que puedan sumarse) convivan en modo híbrido. Los expertos sostienen que microprocesadores y algoritmos neuromórficos son particularmente eficientes en procesar a toda velocidad datos sin estructura y con altos niveles de ruido, o explorar soluciones paralelas en entornos de datos cambiantes. Dicho de otra forma, prometen un salto cualitativo en la solución de problemas científicos complejos, por ejemplo en ingeniería. También en IA, aprendizaje automático y reconocimiento de patrones, en aplicaciones como planificación de rutas logísticas, herramientas machine learning, motores de búsqueda o programas predictivos desde los económico-financieros a los meteorológicos.
Estados Unidos también ensaya aplicaciones en IA, robótica y dispositivos inteligentes para usos militares. Se ha hecho célebre el chip Loihi que, conectado con sensores químicos, identifica el olor de varias sustancias predeterminadas. Puede ser útil en seguridad laboral, detección de explosivos, drogas o sustancias tóxicas —la NASA tiene otro que detecta fugas de amoniaco en naves espaciales—, en el sector del perfume o en la futurista industria de los sentidos. También avanzan aportes españoles como el desarrollo de materiales para fabricar a gran escala los nuevos procesadores o en control de anomalías y mantenimiento predictivo de procesos industriales.