Visión general de la neurotecnología: Conectando los cerebros humanos directamente a las computadoras

Por qué necesitamos un tratado para regular las armas controladas por… El pensamiento

by Filippa Lentzos and Isobel Butorac

La nueva iniciativa de Elon Musk, Neuralink, intenta conectar los cerebros directamente a las computadoras. La visión de la puesta en marcha es insertar miles de pequeños hilos en las neuronas de su cerebro. Los otros extremos de los hilos están unidos a chips, incrustados bajo la piel de su cabeza y conectados de forma inalámbrica a una «cápsula» Bluetooth desmontable detrás de su oreja, lo que le permite controlar un teléfono u otro dispositivo con sus pensamientos. ¿Suena descabellado? La compañía ya ha probado con éxito la tecnología en monos y pretende empezar a probarla en humanos a finales de este año.

.

La interfaz cerebro-máquina de Neuralink podría potencialmente ayudar a las personas con lesiones cerebrales y de la médula espinal que han perdido la capacidad de moverse o de sentir, como destacó Musk en el evento de lanzamiento de la compañía en vivo. Aún más ambicioso, Musk dijo que su objetivo a largo plazo es «lograr una especie de simbiosis con [la inteligencia artificial]». Quiere construir lo que llama una capa de superinteligencia digital para complementar las partes del cerebro responsables del pensamiento y la planificación (la corteza cerebral) y de las emociones y la memoria (el sistema límbico). De hecho, dijo, «ya tienes esta capa». Es tu teléfono y tu portátil. Pero estás limitado por la rapidez con la que puedes procesar lo que ves, y la rapidez con la que puedes escribir una respuesta. La respuesta, dice Musk, es aumentar el ancho de banda de la interfaz cerebro-máquina.

Neuralink es sólo una de las organizaciones que están desarrollando una neurotecnología de vanguardia, aunque otras, como los equipos de Carnegie Mellon, la Universidad Rice y Battelle, no proponen perforar los cráneos de las personas e insertar hilos microscópicos en sus cerebros, sino que optan por la electromagnetización, los haces de luz y las ondas acústicas.

Tampoco es difícil imaginar que la neurotecnología se utilice para fines más oscuros, sin relación con los objetivos de los investigadores que la desarrollan. Una interfaz cerebro-máquina podría, por ejemplo, ser hackeada y utilizada para espiar o invadir deliberadamente los pensamientos más íntimos de alguien. Podría utilizarse para implantar nuevos recuerdos, o para extinguir los existentes. Incluso podría utilizarse para dirigir a los soldados biónicos, pilotar a distancia aviones, operar robots en el campo, o controlar telepáticamente enjambres de aviones teledirigidos habilitados para la inteligencia artificial.

Un mono ya ha controlado un ordenador con sus pensamientos, según Elon Musk. Su empresa de arranque, Neuralink, pretende empezar a probar su neurotecnología en personas este año. Crédito: Steve Jurvetson. CC POR 2.0.

En el caso de las tecnologías biológicas, químicas y nucleares, existen normas internacionales para garantizar que no se utilicen para desarrollar armas. También hay controles para asegurar que cosas como ciertos aparatos electrónicos, computadoras, software, sensores o tecnología de telecomunicaciones no se utilicen en armas convencionales. En todos los casos, las tecnologías subyacentes en cuestión tienen propósitos útiles y beneficiosos. Pero estas regulaciones no se aplican directamente a las neurotecnologías. De mayor relevancia son los debates que tienen lugar en las Naciones Unidas sobre los sistemas de armas autónomas letales, en particular en torno a los aspectos relacionados con las interacciones entre el hombre y la máquina, la pérdida del control humano y la rendición de cuentas. Aunque se limitan a las armas, en los debates oficiosos de las Naciones Unidas también se están examinando cuestiones más amplias en torno a la inteligencia artificial y la militarización, incluida la adopción de decisiones militares, la recopilación de información de inteligencia y los sistemas de mando y control.

Sin embargo, ninguno de los regímenes internacionales ni los debates actuales ofrecen orientación sobre la forma en que las personas deben considerar el potencial beneficioso y perjudicial que encierra la neurotecnología, un área de investigación cada vez más importante entre los estudiosos a medida que los ejércitos comienzan a desarrollar la tecnología.

Basándonos en el trabajo formativo de investigadores como Jonathan Moreno, Malcolm Dando, James Giordano y Diane DiEuliis, hablamos con ocho neurotecnólogos de alto nivel de laboratorios de universidades establecidas en los Estados Unidos, el Reino Unido y Australia sobre los riesgos que vieron con la nueva tecnología y sobre quién tiene la responsabilidad de desarrollarla de forma segura. Las entrevistas formaban parte de un proyecto piloto, en el que la participación era confidencial y la información de identificación se eliminaba de los datos, como es práctica habitual en la investigación en ciencias sociales.

Además de las interfaces cerebro-computadora, los tecnólogos trabajaban en tecnologías de vanguardia como la computación neuromórfica, un campo con el objetivo de diseñar sistemas informáticos que imiten la forma del cerebro humano, y la robótica cognitiva, una empresa que se ocupa de diseñar robots que puedan interactuar con las personas de manera más fluida y empática. Los tecnólogos con los que hablamos no vieron el potencial de sus tecnologías particulares para ser usadas como armas o para plantear problemas de seguridad. Se veían a sí mismos como «alejados de la línea del frente». Sin embargo, al mismo tiempo, seis de los técnicos del estudio con los que hablamos, de cada uno de los tres países, habían recibido anteriormente financiación directa o indirecta del Pentágono.

Algunos dijeron también que la tecnología que habían creado en el pasado había pasado a utilizarse para fines totalmente inesperados que habrían sido imposibles de predecir. Uno de ellos, por ejemplo, diseñó un componente para los airbags que finalmente se introdujo en productos tecnológicos como los teléfonos inteligentes.

A medida que la neurotecnología avance y se desarrollen aplicaciones con posibles usos militares y civiles, se agudizarán los debates sobre los llamados riesgos de doble uso que plantea.

La neurotecnología militar y la definición de uso dual. Una forma común de pensar sobre el concepto de uso dual se refiere a las transferencias de tecnología entre organizaciones civiles y militares. Se considera que la investigación y el desarrollo civil y militar van de la mano, y que las innovaciones, como Internet y el GPS, pueden maximizarse en beneficio mutuo de los interesados civiles y militares en un escenario en el que todos salen ganando. Las tecnologías se hilan de la investigación básica a la aplicación militar o se hilan de la investigación militar a la aplicación civil. Sin embargo, los principales impulsores de esta forma de doble uso son los intereses económicos.

Cuando el foco de atención se desplaza hacia la seguridad internacional, el concepto de doble uso se vuelve más complicado. En este caso, los usos civiles y militares se oponen entre sí, y las transferencias de tecnología entre las aplicaciones civiles y militares se centran en restringir la migración de las tecnologías civiles a los ejércitos extranjeros o no alineados. En virtud de los controles de exportación acordados por el Grupo de Australia, un grupo de muchas de las principales economías del mundo que han convenido en armonizar las reglamentaciones para controlar la difusión de tecnología que podría utilizarse en armas químicas o biológicas, una empresa de los Estados Unidos no podría, por ejemplo, exportar un fermentador de 20 litros capaz de cultivar bacterias sin licencia. Se denegaría la licencia si la empresa exportara a un país del que se sospechara que tiene un programa de armas biológicas, independientemente de que el receptor fuera explícitamente una entidad militar o no. Por lo tanto, no sólo existe una distinción entre civil y militar en cuanto al doble uso, sino también una distinción entre lo que se considera usos legítimos e ilegítimos.

Los representantes ante la Convención sobre Armas Biológicas, el tratado internacional que prohíbe la actividad de las armas biológicas, se reúnen en 2015. Crédito: Eric Bridiers/Misión de EE.UU. en Ginebra. CC BY-ND 2.0.

Los tratados internacionales de desarme y no proliferación, como la Convención sobre las armas biológicas, el acuerdo internacional que prohíbe las actividades relacionadas con las armas biológicas, introducen otra distinción. No utilizan el término de doble uso, sino que diferencian entre los fines pacíficos y no pacíficos de las actividades de investigación y desarrollo. Originalmente destinada a reducir la proliferación por parte de los Estados, desde el 11 de septiembre la Convención sobre las armas biológicas ha ampliado su alcance para abarcar también la proliferación por parte de agentes no estatales como terroristas y delincuentes. Esta tendencia se ha basado en la idea de que el doble uso debe pensarse también en términos de la yuxtaposición de propósitos benévolos y malévolos.

Los tecnólogos con los que hablamos encontraron estos conceptos de seguridad de doble uso demasiado abstractos para relacionarlos con su propio trabajo. El problema es que cualquiera que sea el concepto de doble uso que se aplique -civil frente a militar, legítimo frente a ilegítimo, pacífico frente a no pacífico, benévolo frente a malévolo – hay muy poca orientación práctica sobre cómo evaluar los riesgos de que la investigación en neurotecnología se utilice para causar daño, o para determinar la posible contribución de las neurotecnologías a un programa militar. Es fácil entender cómo un fermentador que crea bacterias podría ser usado en armas biológicas. Los países han hecho ese tipo de cosas antes. No hay una línea tan directa entre la nuerotecnología existente y un sistema de armas ya desarrollado.

Desarrollar una guía clara para las neurotecnologías es cada vez más urgente, porque tal como está, los militares ya están desarrollando la neurotecnología. El ala de investigación del Departamento de Defensa de los Estados Unidos, la Agencia de Proyectos de Investigación Avanzada de la Defensa (DARPA), está expandiendo significativamente las interfaces cerebro-máquina para su uso en aplicaciones militares. Se está «preparando para un futuro en el que una combinación de sistemas no tripulados, inteligencia artificial y operaciones cibernéticas puede causar conflictos en plazos demasiado cortos para que los humanos los manejen eficazmente sólo con la tecnología actual», dijo Al Emondi, gerente del programa de Neurotecnología No Quirúrgica de Próxima Generación (N3) de DARPA.

El programa N3 está impulsando «una interfaz neuronal que permite una interacción rápida, efectiva e intuitiva de manos libres con los sistemas militares por parte de los combatientes sin discapacidad», según su informe de financiación, y el programa está patrocinado con aproximadamente 120 millones de dólares durante cuatro años. Pero DARPA también financia muchos otros programas, así como unidades de investigación y desarrollo militar en otros países. Estos diversos programas están expandiendo el alcance de las neurotecnologías en la recolección de inteligencia militar, análisis de imágenes y detección de amenazas y engaños, así como en el desarrollo de tecnología para manipular estados emocionales e incapacitar a los adversarios.

Los tecnólogos con los que hablamos hablaron de la «carrera de capacidades» que vieron desarrollarse dentro de los países y a nivel internacional, y de que la «supremacía tecnológica» estaba en la mente de muchos investigadores. A pesar de ello, ninguno de los seis tecnólogos que habían recibido financiación de DARPA creía que su trabajo científico se estuviera desarrollando para su aplicación militar. Los otros dos neurotecnólogos con los que hablamos dijeron que rechazarían la financiación militar con el argumento de que no promovían la guerra y que dicha financiación podría instigar tensiones políticas dentro de sus laboratorios, lo que refleja las perspectivas mixtas sobre los dólares de defensa del campo de la biología sintética.

Por supuesto, los militares no son las únicas organizaciones que financian la neurotecnología. Las universidades, las principales iniciativas sobre el cerebro como el Proyecto Cerebro Humano de la Unión Europea y los planes nacionales de financiación de la salud también financian proyectos. Pero son los financiadores privados los que realmente entusiasman a los tecnólogos. Según un artículo del año pasado en la revista Brain Stimulation, las tecnologías pueden constituir un mercado anual de 12 mil millones de dólares para el año 2021.

La búsqueda de capital privado llevó a dos de los neurotecnólogos con los que hablamos a mudarse a Silicon Valley en California, un lugar en el que, como dijo uno de ellos, «Ni siquiera tienes que explicarlo». La mitad de las personas con las que hablamos tenían empresas derivadas, separadas de su investigación universitaria. Estas empresas pueden promover beneficios al crear un mayor acceso a la neurotecnología, pero también crean privacidad y otros dilemas éticos separados de las preocupaciones sobre si una tecnología puede ser armada o no. Por ejemplo, como las empresas privadas pueden convertirse en guardianes de grandes cantidades de datos personales del cerebro, podrían optar por monetizarlos.

¿Cómo pueden los científicos y las instituciones dar cuenta del potencial de uso indebido inherente al desarrollo de la neurotecnología? «Los límites no siempre son tan obvios cuando la gente los cruza», dijo uno de los tecnólogos con los que hablamos. «Es sólo en retrospectiva que la gente piensa, ‘sí, esto es malo’.» Diferentes personas tienen diferentes límites. Las percepciones de la tecnología beneficiosa también pueden variar.

A menudo, los beneficios o los posibles daños asociados a una tecnología están estrechamente vinculados a una aplicación concreta. Incluso si los tecnólogos tienen «buenas» intenciones, las aplicaciones posteriores de su tecnología no siempre están bajo su control. Hablar con los neurotecnólogos pone de relieve que lo que es y no es una tecnología de doble uso suele estar en el ojo del espectador, incluso cuando los militares están pagando para desarrollar los productos.

Aunque ningún tratado regula la neurotecnología, el desarrollo seguro de esta tecnología de ciencia ficción requiere un nuevo marco que articule los usos específicos dañinos o indeseables de la tecnología en los ámbitos político, de seguridad, de inteligencia y militar. Sería mejor desarrollar el marco ahora, en la etapa en que muchos empresarios están más enfocados en controlar telepáticamente los teléfonos inteligentes que en las armas del futuro.


Filippa Lentzos es una investigadora superior nombrada conjuntamente en los Departamentos de Estudios de la Guerra y de Salud Mundial y Medicina Social del King’s College de Londres.

Isobel Butorac se graduó recientemente en el King’s College de Londres con una maestría en Bioética y Sociedad y es una investigadora de carrera inicial con una agenda de investigación que se ocupa de la salud pública, la neuroética y la tecnología.

Foto principal: La neurotecnología podría ayudar a las personas con discapacidades a usar sus pensamientos para controlar los dispositivos del mundo físico. También puede ser útil en los sistemas de armas. Empresas privadas, militares y otras organizaciones están financiando la investigación en neurotecnología. Crédito: Ejército de los Estados Unidos.

The original source of this article is Bulletin of the Atomic Scientists

Copyright © Filippa Lentzos and Isobel ButoracBulletin of the Atomic Scientists, 2020



Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.