
¿Estamos listos para chips en nuestros cerebros?
por JC Gorman
Anna es una veterana del ejército que sirvió a su país y recientemente perdió su brazo debido a una explosión de un explosivo improvisado. Si bien esta es una desgracia que le cambiaría la vida, la tecnología actual en los EE. UU. le permite obtener un brazo robótico controlado por un chip de computadora implantado en su cerebro. El chip usa electrodos para analizar las señales eléctricas emitidas por las células cerebrales llamadas neuronas y usa inteligencia artificial (IA) para descifrar las señales en los movimientos previstos de Anna para mover el brazo robótico como ella quiere. Este dispositivo es un ejemplo de una interfaz de computación cerebral (ICC). Con el transcurrir del tiempo Anna se acostumbra a la prótesis al punto que esta llega a sentirse como cualquier otra extremidad. Un día, mientras Anna conduce, su brazo protésico se sacude de repente. Esto hace que el automóvil se desvíe y se estrelle contra un automóvil estacionado. ¿Quién tiene la culpa? ¿El software en el chip? ¿El hardware en su cuerpo? ¿Cómo podemos saber si esto fue un error entre las verdaderas intenciones de Anna y la inteligencia artificial del dispositivo o si fue culpa de Anna? ¿Pueden los abogados analizar sus datos neuronales para determinar quién tiene la culpa? ¿Tiene derecho a la privacidad personal de sus propios pensamientos?
Si bien esta es una situación hipotética, el dilema de Ana es algo que puede ocurrir, y uno en el que no tenemos un precedente actual con el cual guiar nuestra respuesta. A medida que la tecnología avanza rápidamente, para evitar problemas en el futuro como éste y muchos otros, es necesario entablar las bases éticas. No hay duda que las ICC tienen un enorme potencial para mejorar la vida de las personas, pero también debemos ser cuidadosos al adentrarnos en los pensamientos y las intenciones que toman las decisiones de las personas.
¿Qué son las interfaces de computación cerebral (ICC)?
Una interfaz de computación cerebral es una red de comunicación directa entre un dispositivo externo, como un electrodo o un chip de computadora, y el cerebro. Las neuronas son células cerebrales que se comunican de forma natural entre sí mediante la electricidad. Las ICC descifran esas señales para las intenciones del usuario, como en el ejemplo anterior, donde Anna puede pensar en mover su brazo y el brazo se mueve según su pensamiento. Como resultado de la mejora en la tecnología de los chips informáticos las ICC se desarrollan rápidamente; sin embargo, no son tecnología nueva. La investigación sobre las ICC comenzó en la década de 1970 en UCLA [1] y el primer neuroprotésico, un dispositivo que utiliza la señalización del cerebro para moverse en consecuencia, fue aprobado a mediados de la década de 1990.
Figura 1: diferentes tipos de tecnologías utilizadas para registrar señales neuronales
Actualmente, existen muchos obstáculos para crear ICC invasivas (que requieren cirugía) y no invasivas que realmente puedan hacer lo que la ciencia ficción usualmente proyecta. Los dispositivos deben ser tan pequeños y flexibles como sea posible, además también deben de ser compatibles con la diversidad natural dentro del cerebro de las personas. Esta ya es una tarea insuperable con la IA actual y la tecnología de hardware, ya que hay más de 80 mil millones de neuronas y 100 billones de conexiones entre ellas. Tan sólo imagina, hay más neuronas y conexiones entre ellas que la cantidad de estrellas en el universo. Es extremadamente difícil crear un dispositivo inalámbrico capaz de manejar esta cantidad de datos. Sin embargo, en los últimos años se ha visto una suma de trabajo en todos los aspectos de la neurotecnología, desde la neurociencia, la neurocirugía, la construcción de algoritmos y la microelectrónica. Mientras tanto, las computadoras se han vuelto lo suficientemente rápidas para procesar esa información e interpretarla en un una orden útil para un brazo robótico o un cursor de computadora.
¿Qué pueden hacer las ICC?
La tecnología ICC puede cambiar la vida de las personas. Aparte de ser usado actualmente para amputados, los ICC también se estan utilizando para rehabilitación después de accidentes cerebrovasculares, prevención de la epilepsia, prótesis de voz (ver publicación anterior de Neuwrite), trastornos cerebrales y del sueño, y finalmente para detectar tumores. En los últimos años, sin embargo, se ha prestado atención a la interacción con el cerebro fuera de la necesidad terapéutica. Hoy en día hay al menos cinco empresas trabajando en ICC, incluidas Facebook y Neuralink de Elon Musk. Estas empresas han comenzado a considerar el uso de chips para cualquiera que desee tener su propia ICC. Estas interfaces permitirían a los usuarios hacer dibujos, tomar fotografías, escribir mensajes de texto, todo con solo sus pensamientos. La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) también ha financiado a varios grupos, principalmente en el mundo académico, para desarrollar dispositivos capaces de detectar y estimular el cerebro casi al instante.
Echando un vistazo a lo que potencialmente se puede hacer en el futuro comparado a lo que la investigación actual ofrece se proyecta el día en el que un dispositivo pueda comprender y transmitir pensamientos como una interfaz neuronal universal que puede interactuar con todo en el entorno. Si bien esta tecnología está actualmente muy lejos, la ciencia avanza. Como afirma Jack Gallant, profesor de psicología en la Universidad de California, Berkeley y un destacado experto en neurociencia cognitiva, “No hay ninguna razón física fundamental por la que algún día no vamos a tener una interfaz cerebro-máquina no invasiva. Es solo cuestión de tiempo. Y tenemos que manejar esa eventualidad ”. [2]
Como ocurre con todo desarrollo de tecnologías, hay un lado bueno y uno malo. Por ejemplo, en los primeros días del Internet, todo el mundo podía convertirse en un editor tan potencialmente influyente como las organizaciones de noticias establecidas, amplificando las voces de los marginados. Sin embargo, se pensó poco en la posibilidad de que algunos de los marginados fueran racistas y extremistas religiosos que utilizarían nuevas plataformas web para reclutar seguidores, difundir desinformación, acosar a las mujeres o evangelizar el terrorismo.
Mientras tanto la academia como la industria avanzan para desarrollar mejores implantes ICC, el aspecto ético y legal se ha quedado atrás. Las ICC son solo otro ejemplo de tecnología que se ha desarrollado más rápido de lo que la sociedad puede mantener el ritmo y estar actualizada. Si bien las ICC tienen un potencial increíble para mejorar la calidad de vida de muchas personas, aún quedan preocupaciones éticas por abordar. Las interfaces de computación cerebral pueden brindar a las personas con discapacidad una mayor autonomía, pero ¿cuáles son algunas de las posibles consecuencias y cómo podemos mitigarlas?
¿Cómo podemos proteger la privacidad de las personas?
Una de las principales preocupaciones de las ICC es la privacidad. Dado que estos chips están implantados en el cerebro, están leyendo información valiosa. Actualmente, la tecnología de electrodos no permite la grabación de todo el cerebro, pero los dispositivos que pueden medir neuronas en un cerebro podrían crear problemas de privacidad que hacen que los problemas de privacidad actuales de Facebook parezcan triviales. Piense en la seguridad de los datos: “Siempre que haya algo en una computadora, puede ser hackeado; una ICC es, por definición, a riesgo de ser hackeado”, dijo Marcello Ienca, investigador principal del Laboratorio de Política y Ética de la Salud del Instituto Federal Suizo de Tecnología en Zúrich [ 2]. “Eso puede revelar información muy sensible de las señales cerebrales incluso si [el dispositivo] no puede leer pensamientos [sofisticados]”. Luego están las preguntas legales: ¿Puede la policía obligarte a usar uno? ¿Qué pasa si tienen una orden judicial para conectar su cerebro a una computadora? ¿Qué tal un juez? ¿Su jefe? ¿Cómo evita que su Amazon Alexa envíe anuncios de pasta de dientes cada vez que piensa en cepillarse los dientes?
Al igual que la situación hipotética de Anna con la que comenzamos, a medida que avanzan estas interfaces, surgirán una serie de cuestiones éticas, legales y sociales. ¿Puede eliminar sus pensamientos de la computadora una vez que la interfaz los haya recolectado? Además, el Dr. Gallant de UCB afirma: “Tienes estos deseos latentes en los que quizás ni siquiera hayas pensado todavía, todos tenemos problemas con el racismo o malas actitudes hacia otros humanos que preferimos no revelar porque no creemos realmente en ellos o no creemos que se deba hablar de ellos. Pero están ahí “. [2] No es difícil imaginar que los hackeadores obtengan acceso a los pensamientos de alguien y los aprovechen para la humillación pública o el chantaje.
Equidad de tecnología, histórica y presente.
Además de los problemas de privacidad, es imperativo considerar también el tipo de brecha de accesibilidad que surgirá a medida que esta tecnología esté disponible al público en general. Sin duda, esta tecnología será costosa. Los padres adinerados ya pagan para mejorar cognitivamente a sus hijos a través de tutorías, preparación privada para exámenes y educación superior, sin un hardware real para hacerlo. Por lo tanto, a medida que surge esta tecnología, debemos encontrar formas de combatir el entorno de pago por juego que normalmente viene con desarrollos novedosos y abordar la equidad a medida que avanza la tecnología.
Además de la accesibilidad, ¿qué tipo de sesgos nos encontraremos con la IA que gobierna la decodificación de las señales neuronales? La IA no es un sistema imparcial y está sujeto a sesgos algorítmicos, un sesgo creado por humanos que ocurre cuando las máquinas y los modelos reciben datos sesgados y luego toman decisiones sesgadas e injustas como resultado. Los sesgos implícitos en la decodificación de señales neuronales pueden tener efectos devastadores. ¿Qué pasa si la IA está entrenada en una población homogénea y no tiene suficiente responsabilidad sobre la variación natural? ¿Qué significa tener un cerebro en el que no funciona una interfaz de computación cerebral? Los escenarios en los que esto sucede abundan, como por ejemplo los dispensadores de jabón que no pueden reconocer la piel más oscura como puede la piel más clara [3], el infame error de Google Photos cuando una pareja negra fue etiquetada por la aplicación como ‘gorilas [4]’, y el falso arresto y encarcelamiento de un hombre debido a una falsa coincidencia de reconocimiento facial [5].
A medida que la neurociencia y la neurotecnología avanzan rápidamente, dentro de nuestros algoritmos de inteligencia artificial, debemos codificar la equidad, la responsabilidad y la ética en nuestro proceso de adquisición de datos. Podemos aprender de las consecuencias de la tecnología no equitativa como en los ejemplos anteriores y encontrar formas de garantizar que tengamos datos representables de experiencias, ideas, antecedentes e identidades.
La intersección entre humanidad y tecnología
Finalmente, ¿qué significa para la humanidad existir en un mundo con tal tecnología? El neuroeticista de la Universidad de Washington, el Dr. Tim Brown, hace preguntas importantes en su investigación con pacientes con prótesis que revelan cómo nos relacionamos con la tecnología y aclaramos nuestros confusos límites entre los humanos y la tecnología. Por ejemplo, el Dr. Brown pregunta si el estado de ánimo, la personalidad, los pensamientos o los comportamientos de los pacientes han cambiado desde que recibieron el dispositivo protésico, si los pacientes sintieron que hubo momentos en que sus acciones no eran las suyas y si sienten un estigma asociado con tener un dispositivo [6]. A menudo, los pacientes responden que sí a todo, pidiendo una pregunta adicional sobre ¿qué hacemos nosotros?
Además, es importante ver quién está financiando la tecnología y cómo esto afectará nuestro futuro. Por ejemplo, DARPA es uno de los mayores financiadores de ICC en el mundo. Hacer que sea fácil volar un avión militar no tripulado sólo a través del pensamiento podría ser un desarrollo mal acogido en áreas del mundo que han experimentado aviones no tripulados militares estadounidenses volados a mano. Se supone que las ICC son para mejorar la vida humana, hacer avances neurocientíficos y crear neurotecnología novedosa. ¿Por qué deberían distribuirse esos fondos a través de las fuerzas armadas? Otro gran financiador de esta investigación es Facebook, que ha contratado a más de 100 neurocientíficos e ingenieros para sus esfuerzos, pero no ha comunicado estos esfuerzos al público. Lo que se está haciendo ahora en el campo ICC nos impacta a todos; por lo tanto, ¿deberianlas empresas que pueden crear tecnología que impacta a la sociedad también deben rendir cuentas?
Hoy en día, muchos especialistas en ética están pensando en estos problemas. Se ha formado un grupo de trabajo de varios consejos bajo la Iniciativa Cerebral de los Institutos Nacionales de Salud, un esfuerzo de investigación centrado en la tecnología iniciado por la Administración Obama, para abordar estos problemas. La Real Sociedad de Londres, la academia científica independiente del Reino Unido, publicó un artículo de 106 páginas [2] en 2019 sobre interfaces cerebro-computadora, parte del cual aborda cuestiones éticas. Las revistas científicas influyentes como Nature también han intervenido. La creación de una legislación eficaz requerirá el apoyo no solo del Congreso, sino de toda la sociedad.
Los lectores con un interés continuo en la neuroética deben leer el blog semanal en theneuroethicsblog.com alojado por Emory Neuroethics [7]
Referencias
[1] “The Brief History of Brain Computer Interfaces.” Brain Vision UK, 30 Apr. 2014, http://www.brainvision.co.uk/blog/2014/04/the-brief-history-of-brain-computer-interfaces/.
[2] “The Brain-Computer Interface Is Coming, and We Are so Not Ready for It.” Bulletin of the Atomic Scientists, 15 Sept. 2020, https://thebulletin.org/2020/09/the-brain-computer-interface-is-coming-and-we-are-so-not-ready-for-it/.
[3] https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931773
[4] “Google Apologises for Photos App’s Racist Blunder.” BBC News, 1 July 2015. http://www.bbc.com, https://www.bbc.com/news/technology-33347866.
[5] Hill, Kashmir. “Another Arrest, and Jail Time, Due to a Bad Facial Recognition Match.” The New York Times, 29 Dec. 2020. NYTimes.com, https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentify-jail.html.
[6] “Between Humanity and Technology | Be Boundless.” University of Washington Boundless Campaign, https://www.washington.edu/boundless/neuroethics/. Accessed 3 Nov. 2021.
[7] The Neuroethics Blog. http://www.theneuroethicsblog.com/. Accessed 3 Nov. 2021. “Why Can’t This Soap Dispenser Identify Dark Skin?” Gizmodo, https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931773. Accessed 3 Nov. 2021.
You must be logged in to post a comment.