Conforme se generaliza el desarrollo de tecnologías que pueden acceder a los datos cerebrales y manipularlos se plantean cuestiones sobre cómo permitir el acceso de terceros a nuestros pensamientos y emociones y si podemos impedirlo
Imagina a Lorenzo. Es un tipo cualquiera, de veintimuchos,
al que le gusta jugar a videojuegos online, meditar y hacer deporte. Lo que lo
diferencia del resto es que utiliza interfaces cerebro-máquina que monitorizan su actividad
cerebral y que recopilan datos sobre él todo el tiempo, acerca de su
estado y sus emociones. Estos microchips que Lorenzo tiene implantados en el
cerebro también le ayudan en una labor mucho más importante que ganar partidas:
rastrean información que indica que va a sufrir un episodio maníaco. Porque
Lorenzo tiene un trastorno bipolar y utiliza la tecnología para manejar mejor
sus crisis.
Este escenario, aunque parece ficción, está mucho más cerca
de lo que pensamos. Pero antes de que el uso de los dispositivos cerebrales
llegue a generalizarse, expertos de todo el mundo abogan por la necesidad de
resolver cuestiones de privacidad como quién tendrá acceso a las ondas
cerebrales que codifican nuestros pensamientos, qué margen de decisión tendrá
el usuario sobre los datos que genera su cerebro y cómo pueden protegerse su voluntad e identidad cuando hay
microchips leyendo y escribiendo sobre sus ondas cerebrales.
“Me imagino que, si estos dispositivos se usan de manera
positiva, pueden recopilar información que indique que va a sufrir un episodio
maniaco”, explica sobre el hipotético caso de Lorenzo Amanda Pustilnik,
profesora de Derecho y Neurociencia en la Universidad de Maryland en el informe
Neurociencia, más allá del cerebro de la Fundación Bankinter. “Esta información
se podría usar para alertarle a él o las personas de su círculo a las que haya
autorizado y que puedan adelantarse y ayudarle, o al menos intervenir a tiempo
para mitigar los efectos del episodio”, explica Pustilnik. Quizá también pueda
comunicarse directamente con los profesionales sanitarios que le tratan.
Pero también se puede usar esta información tan sensible de
forma negativa. Si se le vende a un bróker de datos, por ejemplo, que después
la pone a disposición de otras empresas como producto o servicio, puede que
Lorenzo comience a ver anuncios para apostar en línea, comprar artículos de
lujo o contratar productos financieros de alto riesgo: impulsos a los que será
mucho más propenso durante un episodio maníaco y que podrían, de hecho,
precipitar o agravar sus crisis. De esta forma, el mal uso de la información
obtenida del cerebro puede tener consecuencias negativas relacionadas directamente
con la salud mental de los usuarios, y no solo son una cuestión ética de falta de privacidad.
Por el momento, el modelo de protección de la privacidad que
conocemos es que los usuarios den su consentimiento para utilizar sus
datos, tal y como hacemos al descargar una aplicación en el móvil.
Pero cuando hablamos de datos cerebrales este sistema no sirve. “Ahora mismo no
tenemos modelos jurídicos buenos para abordar este asunto”, señala Pustilnik.
Pero se está trabajando en ello. Hay algunas iniciativas
internacionales que llevan años dando la voz de alarma y que ya describen la
falta de privacidad de los datos cerebrales como un problema de derechos
humanos. Es el caso del proyecto estadounidense BRAIN, que busca promover e
impulsar el desarrollo de nuevas tecnologías para aumentar el conocimiento
sobre el cerebro y encontrar cura para distintas enfermedades cerebrales.
Su máximo responsable, Rafael Yuste, es también promotor de
la iniciativa Neuroderechos del Centro de Neurotecnología de la Universidad de
Columbia. “Nos preocupa muchísimo la falta de privacidad de los neurodatos”,
explica Yuste. Por eso, hace tres años se reunió con expertos de todo el mundo
y establecieron los neuroderechos, que sientan las bases de cómo debe
protegerse a los usuarios para que se respete su privacidad mental y personal y
su libertad para tomar decisiones, entre otros.
¿Quién tiene el
control sobre mí?
Además de afectar a la salud mental de los usuarios, la
falta de una regulación adecuada podría hacer que la tecnología difumine la
línea entre la conciencia de una persona y la influencia de la máquina. Los
usuarios podrían llegar a dudar de quién tiene el control final sobre sus
decisiones: llegará un punto en que no podamos saber si queremos algo de forma
genuina o si es por influencia de las neurotecnologías.
“Nuestra opinión es que los datos cerebrales obtenidos del
registro de las neuronas deben ser tratados legalmente como si fuesen un órgano
del cuerpo, así que se aplicaría la misma legislación que regula los
trasplantes de órganos”, explica Yuste. En Chile ya han hecho una enmienda a la
Constitución para incluir los neuroderechos. Promover leyes para proteger la
información cerebral es una de las primeras opciones que los expertos del
proyecto BRAIN manejan para defender a los ciudadanos.
Otras soluciones técnicas podrían ayudar a resolver el
problema yendo un paso más allá del consentimiento del usuario. “Hablamos del
aprendizaje federado, es decir, que si tienes un iPhone que recoge tu actividad
cerebral, los datos no salgan nunca de tu dispositivo, sino que se comparta
solo lo que se ha aprendido de ellos”, propone Yuste.
También comenta la opción de tener una privacidad
diferencial: que a cada dato que venga del cerebro le demos una etiqueta y le
otorguemos un grado de privacidad concreto dependiendo de cómo de sensible sea.
Del uno al diez: que estés vivo o no requiere una privacidad mínima, que vivas
en un país determinado, un punto; cómo te sientes, diez puntos... “Esto
permitiría a las compañías seguir ganando dinero sin que dañen los derechos
humanos”, asegura Yuste. “Esperamos que podamos llegar a tiempo antes de que
estos productos lleguen al mercado”.
No hay comentarios:
Publicar un comentario