Roberto Andorno, profesor de la Facultad de Derecho de la Universidad de Zurich (Santa Fe, Argentina, 1961) es uno de los juristas más reconocidos a nivel internacional en la protección de los neuroderechos, un campo muy de actualidad en el ámbito de la inteligencia artificial y los nuevos dispositivos que captan las ondas cerebrales. El uso de los datos de los dispositivos además de su desarrollo es uno de los temas que le ha traído a Salamanca gracias al Área de Filosofía Moral de la Universidad.
Publicidad
¿Cómo se puede proteger la esfera mental de las personas ante el auge de las neurotecnologías?
— Mi propuesta es adaptar los derechos humanos ante este nuevo desafío. En algunos casos bastará con extender o ampliar la interpretación de los derechos existentes a la confidencialidad y los datos personales o extenderlo a los datos mentales. En otros casos será necesario formular nuevos derechos como el de identidad, para que un tercero no altere la propia personalidad con cambios en la memoria o los recuerdos que impliquen cambios. También el tema de libertad de pensamiento para asegurar que estos dispositivos no se vulneren y no se afecte a la autodeterminación.
Están empezando a surgir neurotecnologías como diademas de meditación o para medir la concentración ¿hay un conocimiento del uso de estos dispositivos?
— Estos dispositivos para medir la propia capacidad de concentración o los estados mentales en realidad es bastante poco lo que pueden determinar, pero esos datos procedentes de las ondas cerebrales no deberían quedar a disposición de la empresa que ofrece el producto porque son sensibles. Pueden revelar problemas de salud mental y podrían vender esos datos como ya ocurrió con Facebook. Ese es el principal problema de la confidencialidad que no queden en manos de esas empresas.
El chip de Elon Musk implantado en el cerebro por primera vez ha abierto un nuevo horizonte para la medicina, pero también ha abierto nuevos límites éticos ¿se conocen los peligros?
— Se están dando los primeros pasos. Él lo implantó en un paciente con una finalidad terapéutica en el que el cerebro está conectado a un ordenador para solucionar o corregir un problema. El problema es que su objetivo sería llegar a la mejora de las capacidades y con eso pasaríamos a otra dimensión. Crea un riesgo de injusticia a nivel social. Yo hago la comparación con el dopaje en el deporte ya que habría ciertos individuos que tienen unas capacidades intelectual, cognitiva y de memoria infinitamente superiores al resto porque sus cerebros están conectados a un ordenador con una base de datos. En la medida que el individuo se relaciona socialmente o compite se crea una injusticia. Es una injusticia porque se crea una desigualdad porque tienen recursos para pagarlo y obtienen una ventaja insuperable para el resto.
En el debate ético sobre los dispositivos, también entra el proceso de la influencia externa sobre la consciencia o la creación de recuerdos.
— Por ello hago especial énfasis en la necesidad de proteger la integridad mental y la identidad contra las alteraciones. Que no se cause daño a las personas insertando memorias falsas o alterando las propias ideas. Y, en definitiva, cambiando la identidad: piensas distinto porque otro te produjo esa alteración. Es el peor peligro.
Publicidad
¿Es algo cercano o futurible?
— Se están dando los primeros pasos. Lo que estamos ahora mismo en riesgo es la protección de los datos de los dispositivos actuales para que no sean utilizados con fines de coacción o para discriminar al individuo. Hay estudios que muestran que sería posible influir en la forma de pensar de los individuos. Tampoco conocemos el ámbito militar porque son estudios secretos, pero estoy seguro de que las principales potencias ya lo están haciendo para alterar la consciencia y crear supersoldados con concentración y sin empatía que solo ejecuten órdenes. Eso es más a largo plazo pero la ley tiene que anticiparse para no llegar demasiado tarde.
¿Cómo conciliar los beneficios terapeuticos con los peligros?
— En sí no son malas porque prestan un servicio en el diagnóstico de enfermedades, pero se pueden utilizar mal. No se trata de prohibir, pero sí regular el mal uso. Eso se hace a través de normas penales porque impedirlo es imposible. Otra forma que se propone es la ética desde el mismo diseño de los productos para que las compañías se comprometan a respetar ciertas reglas para no usar en fines contrarios a los derechos humanos.
Publicidad
¿Cuáles deben ser las medidas más inmediatas a llevar a cabo?
— Sería importante evitar los riesgos sobre todo de los dispositivos que ya están disponibles. Es importante que las autoridades adopten normas legales inmediatamente aplicables por ejemplo, para que estos dispositivos aseguren a los clientes que esos datos se destruirán pasado un periodo de tiempo o que no pasan a una nube.
¿Ve a la sociedad preparada?
— Creo que no. Hace falta informar a la gente de que a la hora de comprar estos dispositivos que miden la capacidad de concentración o de meditación se conectan con infinidad de datos del cerebro y van a un lugar que seguramente no sepan donde es. Que sepan que hay que tener mucho cuidado. No estoy muy seguro de que sean conscientes de eso.
Disfruta de acceso ilimitado y ventajas exclusivas
¿Ya eres suscriptor? Inicia sesión
Publicidad
Utilizamos “cookies” propias y de terceros para elaborar información estadística y mostrarle publicidad, contenidos y servicios personalizados a través del análisis de su navegación.
Si continúa navegando acepta su uso. ¿Permites el uso de tus datos privados de navegación en este sitio web?. Más información y cambio de configuración.