
Ingeniería neuromórfica: cómo la electrónica aprende del cerebro
“Como ingenieros, sería una tontería ignorar las lecciones de mil millones de años de evolución”-Carver Mead, traducido del inglés
Durante siglos, la ciencia ha estado buscando una inteligencia artificial que compita con lo que el cerebro humano puede hacer. El cerebro es sobresaliente en algunos aspectos que son similares a los de una computadora; procesa múltiples tareas complejas en paralelo con alta eficiencia y tiene un consumo de energía excepcionalmente bajo. Por ejemplo, el cerebro humano opera alrededor de 12 vatios, mientras que una bombilla necesita 60 vatios y una computadora de escritorio estándar requiere alrededor de 200 vatios para permanecer encendida. Los cerebros también pueden adaptarse y aprender con una facilidad con la cual no son capaces las computadoras. La ingeniería neuromórfica opera bajo la creencia de que podemos aplicar ingeniería inversa para descifrar la forma en que el cerebro humano puede representar de manera eficiente la información sobre el mundo, y luego explotar esa eficiencia en sistemas artificiales. Estas creaciones electrónicas de los modelos biológicos de los sistemas neuronales se realizan in silico, refiriéndose al silicio en los chips de computadora. Se implementan en chips que utilizan miles de transistores; esto se conoce como tecnología de integración a gran escala (VLSI, por sus siglas en inglés).
La ingeniería neuromórfica es útil para realizar tareas similares a las realizadas por humanos. En la actualidad, ya existen muchos ejemplos de estos dispositivos, como quimiosensores (narices electrónicas) [1], rastreadores visuales dinámicos [2], y sistemas de audición con implantes cocleares [3]. Además de implementar sistemas de procesamiento neuronal en el hardware para aplicaciones prácticas, los chips neuromórficos se pueden utilizar como una herramienta para estudiar la neurociencia básica, permitiendo que los científicos creen y modifiquen cerebros artificiales, como hicieron con la primera neurona de silicio biológicamente realista [4] y modelos realistas de la retina de los mamíferos [5].
¿Cómo supera el cerebro a nuestras mejores computadoras?
Estudiar cómo funciona el cerebro es útil para los ingenieros. El cerebro no solo resuelve sin esfuerzo los problemas que queremos que las computadoras resuelvan también, como, por ejemplo, la comprensión del habla, el aprendizaje, etc., sino que la neurobiología también ofrece muchas lecciones de ingeniería. El cerebro no es como cualquier máquina construida por humanos: es autoconfigurable, fiable a pesar de tener componentes inexactos/ ruidosos (es decir, neuronas y glía), y resuelve problemas complejos simultáneamente (fenómeno conocido como procesamiento paralelo). Como dispositivo computacional, el cerebro es bastante sobresaliente. Aunque los elementos informáticos del cerebro son lentos y poco fiables, el sistema nervioso supera fácilmente a las computadoras más potentes de la actualidad en muchas tareas computacionales como la visión, la audición y el control motor, incluso a pesar de la gran cantidad de recursos dedicados a la investigación y el desarrollo de la información, la comunicación, y otras tecnologías.

recientes, y la solidez del cerebro en los cálculos para tareas reales, aún no son completamente comprendidas. Muchos campos de la neurociencia todavía están trabajando para comprender “el código neuronal”: cómo el cerebro representa la información del mundo externo. A medida que los neurocientíficos se acercan a la comprensión de los algoritmos que implementa el cerebro, los ingenieros pueden trabajar para implementar estos algoritmos a través de modelos y chips, in silico.
Está claro que el estilo de cálculo realizado por una computadora es fundamentalmente diferente al de un cerebro. Por ejemplo, las computadoras usan operaciones digitales precisas, lógica booleana (verdadero/falso) y operaciones sincronizadas que hacen referencia a la escala de tiempo del mundo exterior [6]. El sistema nervioso realiza cálculos robustos y fiables utilizando un híbrido de componentes no fiables analógicos y digitales, y opera en su propia escala de tiempo, lo que significa que no tiene reloj. Las neuronas aprovechan los mecanismos distribuidos, impulsados por eventos, colectivos y masivamente paralelos [6]. El cerebro se adapta, se autoorganiza y aprende, algo que las computadoras no pueden hacer. Además, las neuronas de la corteza están organizadas de una manera especial. Se piensa que las poblaciones de neuronas realizan cálculos colectivos en grupos individuales, transmiten los resultados de este cálculo a los grupos vecinos y envían la señal relevante a través de conexiones de retroalimentación hacia y desde otras áreas de la corteza [6]. La estructura representada en las neuronas se parece más a una inferencia estadística que a una lógica booleana, en un tipo de modelo de arquitectura gráfica.
¿Cómo podemos construir un cerebro con electrónica?
Con el tiempo, nuestra capacidad para fabricar productos electrónicos se verá limitada por el desarrollo de los semiconductores, mucho antes de que podamos tener computadoras robustas parecidas a un cerebro [6]. ¿Cómo puede la biología mostrarnos cómo construir computadoras mejores y más escalables? Si bien los cerebros se construyen a partir de hidrocarburos y soluciones acuosas y las computadoras digitales se construyen a partir de silicio y metal, ambos representan información utilizando cantidades físicas. Las computadoras digitales transmiten señales eléctricas como lo hacen los cerebros. Ambos sistemas requieren soluciones para la comunicación, la cual es inherentemente ruidosa. Tanto los cerebros como las computadoras “computan” seleccionando un resultado basado en el estado actual y la entrada aplicada. Sin embargo, superar las diferencias fundamentales entre los dos no es tan simple. Los multiplicadores y sumadores son fundamentales para la electrónica en las matemáticas [6], pero el cerebro utiliza los fenómenos físicos, como las ondas de luz y sonido como fundamentos, y puede adaptarse y aprender. Ninguno de los dos es adecuado para el otro dominio: las neuronas son malas en las matemáticas que hacen las computadoras, por lo tanto, para aprender y adaptar su funcionamiento, el uso de multiplicadores y sumadores es una mala elección. La forma fundamental en que se representa la información en los dos significa que cada uno es mejor en sus respectivos dominios, pero si queremos construir más computadoras similares al cerebro, tendremos que aprender el código detrás de las neuronas y comprender su estructura. La estructura de las neuronas permite la señalización de picos paralelos que es asincrónica en todas las regiones del cerebro. Las neuronas también permiten la adaptación (por ejemplo, una región del cerebro puede ser cooptada para una nueva función si es necesario).

Para emular un cerebro, la computación neuromórfica tiene como objetivo reproducir los principios de la computación neuronal. La electrónica puede usar transistores de manera más eficiente en un chip basado en la arquitectura del cerebro o puede crear circuitos más robustos y flexibles. Otra implementación de los chips neuromórficos está utilizando señales de picos como lo haría un cerebro para representar y procesar señales. Una red neuronal de picos (spiking) se parece a la arquitectura de una red neuronal artificial, pero en lugar de tomar cantidades digitales como entrada, toma un tren de picos que representa una serie de potenciales de acción que utiliza una neurona para representar información. Las redes neuronales spiking son un paradigma útil para resolver tareas complejas de reconocimiento de patrones y procesamiento sensorial que de otra manera serían difíciles de abordar utilizando técnicas estándar de visión artificial y aprendizaje automático [7]. A medida que los neurocientíficos comprendan mejor el código neuronal de los picos, la electrónica neuromórfica también podrá progresar. Sin embargo, aumentar las redes neuronales no es un fin en sí mismo; Los chips neuromórficos todavía utilizan de 100 a un millón de veces la cantidad de energía de una neurona [7]. Para poner esto en contexto, los chips neuromórficos actuales son mil millones de veces más eficientes que los microprocesadores estándar [8], por lo que se han logrado avances significativos en los últimos años.
Una breve historia de la ingeniería neuromórfica

La ingeniería neuromórfica se encuentra en la frontera de muchos campos de investigación que se unen desde la ingeniería electrónica, la neurociencia, la química, la física, las matemáticas y la informática. Aunque todavía es un campo relativamente incipiente, las primeras ideas datan de la década de 1950 con la construcción del algoritmo de inspiración biológica, el perceptrón. No fue hasta la década de 1980 que se acuñó el término neuromórfico y el campo comenzó a despegar. Dr. Carver Mead se inspiró en la transmisión sináptica graduada, es decir, analógica, en la retina y buscó usar la misma propiedad en los transistores, en lugar de usarlos como interruptores de encendido y apagado (digitalmente). Luego desarrolló circuitos que él acuñó neuromórficos que emulaban sistemas neuronales y requerían muchos menos transistores que los enfoques digitales necesarios para emular sistemas neuronales [11]. A partir de ahí, nació realmente la ingeniería neuromórfica y se desarrollaron los circuitos VLSI analógicos masivamente paralelos que operan con la misma física de computación en el cerebro. Hoy en día es posible diseñar e implementar sistemas neuronales artificiales complejos a gran escala que tienen una plasticidad similar a las neuronas o incluso sistemas sensoriales-motores artificiales que son capaces de procesar señales en tiempo real utilizando tecnología VLSI neuromórfica.
La investigación ha repuntado rápidamente en las últimas dos décadas con avances significativos cada año. En 1991 se fabricó la primera neurona biorealista [4]. En 2006, los investigadores de Georgia Tech crearon una de las primeras de neuronas programables de silicio [9]. En junio de 2012, investigadores de la Universidad de Purdue presentaron un artículo sobre el diseño de un chip neuromórfico que, según afirmaron, funcionaba de manera similar a una neurona y podría usarse para examinar métodos de reproducción del procesamiento del cerebro [10]. Recientemente, la ingeniería neuromórfica ha comenzado a recibir una gran cantidad de dólares de investigación. El Human Brain Project financió recientemente un proyecto con implicaciones para la ingeniería neuromórfica que intenta simular un cerebro humano completo en una supercomputadora utilizando datos biológicos. Los tres objetivos principales del proyecto son comprender mejor cómo las piezas del cerebro encajan y funcionan juntas, comprender cómo diagnosticar y tratar objetivamente las enfermedades cerebrales, y utilizar la comprensión del cerebro humano para desarrollar computadoras neuromórficas.
La industria también está haciendo uso del desarrollo tecnológico actual. En 2017, IBM creó un chip neuromórfico llamado TrueNorth [11] e Intel presentó su chip de investigación neuromórfica, llamado “Loihi” [12]. El primer chip neuromórfico de autoaprendizaje se publicó en octubre de 2019 por una empresa IMEC con sede en Bélgica. Este tiene la capacidad de componer música, particularmente al estilo de la música antigua de flauta belga y francesa, ya que esa fue la música de la que el chip aprendió las reglas de composición musical [13].
Futuro de la ingeniería neuromórfica
Actualmente, los investigadores están aprovechando la tecnología VLSI y utilizando las propiedades de corriente no lineal de los transistores para emular las no linealidades de la computación cerebral. Un gran esfuerzo está en marcha para comprender cómo los modelos neuromórficos se pueden representar en chips, es decir, los modelos in silico de lo que está haciendo el cerebro. Con nuevas nanotecnologías y mejores procesos VLSI, nuestra capacidad para abordar los problemas de las computadoras con el uso elevado energía y falta de fiabilidad del dispositivo, solo puede mejorar. El uso de modelos neuromórficos nos muestra que no estamos cerca del potencial computacional de la computación en silicio [6], pero aun así,no podemos construir sistemas inspirados biológicamente cuando todavía no entendemos la biología detrás de la representación de la información. El futuro de la ingeniería neuromórfica todavía debe basarse en los descubrimientos de la neurociencia. Cuando seamos capaces de comprender cuáles son los principios computacionales utilizados por la corteza cerebral y cómo estos algoritmos procesan información, entonces podremos aprender a implementarlos en el hardware. Esto permitirá a los investigadores desarrollar paradigmas radicalmente nuevos y construir una nueva generación de tecnología que sinergiza las capacidades del cerebro con las fortalezas de la tecnología del silicio.
Referencias
[1] N. Katta et al., “Analysis of biological and artificial chemical sensor responses to odor mixtures,” SENSORS, 2013 IEEE, Baltimore, MD, USA, 2013, pp. 1-4, doi: 10.1109/ICSENS.2013.6688196.
[2] R. Jacob Vogelstein, Udayan Mallik, Eugenio Culurciello, Gert Cauwenberghs, Ralph Etienne-Cummings; A Multichip Neuromorphic System for Spike-Based Visual Information Processing. Neural Comput 2007; 19 (9): 2281–2300. doi: https://doi.org/10.1162/neco.2007.19.9.2281
[3] R. Sarpeshkar: Brain power – borrowing from biology makes for low power computing – bionic ear, IEEE Spectrum 43(5), 24–29 (2006)
[4] M. Mahowald, R.J. Douglas: A silicon neuron, Nature. 354, 515–518 (1991)
[5] M. Mahowald: The silicon retina, Sci. Am. 264, 76–82 (1991)
[6] Diario, C. Why Neuromorphic Engineering? https://homes.cs.washington.edu/~diorio/Talks/InvitedTalks/Telluride99/sld001.htm. Accessed 15 Apr. 2021.
[7] Indiveri, Giacomo. “Neuromorphic Engineering.” Springer Handbook of Computational
Intelligence, edited by Janusz Kacprzyk and Witold Pedrycz, Springer Berlin Heidelberg,
2015, pp. 715–25, doi:10.1007/978-3-662-43505-2_38.
[8] “Silicon Chips as Artificial Neurons |.” Medgadget, 5 Dec. 2019, https://www.medgadget.com/2019/12/silicon-chips-as-artificial-neurons.html.
[9] Farquhar, Ethan; Hasler, Paul. (May 2006). A field programmable neural array. IEEE International Symposium on Circuits and Systems. pp. 4114–4117. doi:10.1109/ISCAS.2006.1693534. ISBN 978-0-7803-9389-9. S2CID 206966013.
[10] Sharad, Mrigank; Augustine, Charles; Panagopoulos, Georgios; Roy, Kaushik (2012). “Proposal For Neuromorphic Hardware Using Spin Devices”. arXiv:1206.3227 [cond-mat.dis-nn]
[11] Modha, Dharmendra (August 2014). “A million spiking-neuron integrated circuit with a scalable communication network and interface”. Science. 345 (6197): 668–673. Bibcode:2014Sci…345..668M. doi:10.1126/science.1254642. PMID 25104385. S2CID 12706847.
[12] Davies, Mike; et al. (January 16, 2018). “Loihi: A Neuromorphic Manycore Processor with On-Chip Learning”. IEEE Micro. 38 (1): 82–99. doi:10.1109/MM.2018.112130359. S2CID 3608458.
[13] Bourzac, Katherine. “A Neuromorphic Chip That Makes Music”. IEEE Spectrum. October 1,2019.
You must be logged in to post a comment.