Crédito: Javier Joaquín
Existen disciplinas
en las que el conocimiento precede a las explicaciones; suele pasar con la
medicina y es un fenómeno en el que queda lo que algunos llaman la "deuda
intelectual".
Con más de 300 millones de libros vendidos y adaptaciones a
cine y TV de casi toda su obra, en el año 2000 el autor estadounidense Stephen
King decidió publicar un ensayo sobre su oficio, titulado Mientras Escribo (On
Writing). King cuenta en el prólogo que a principios de los años 90 formó una
banda musical con varios colegas escritores, "Los Rock Bottom
Remainders", todos muy exitosos (en la literatura), y que en las
conversaciones con ellos durante los viajes surgía un tema común: nadie conocía
"la fórmula" para hacer best sellers. Simplemente sucedía.
"Evitamos preguntarnos mutuamente de dónde sacamos las ideas. Sabemos que
no lo sabemos", cuenta el autor de Carrie, It y El
resplandor. "Los narradores no tenemos una idea muy clara de lo que
hacemos. Cuando algo es bueno no solemos saber por qué, y cuando es malo,
tampoco".
Como en el chiste de economistas que sostiene que las
estadísticas son como las salchichas ("pueden ser muy sabrosas, pero mejor
no preguntar cómo se hicieron"), hay distintas disciplinas donde el
conocimiento a menudo precede a las explicaciones. Primero, llegan las
respuestas, que funcionan; y a veces las explicaciones aparecen décadas o
siglos más tarde. Cuando lo hacen.
Esta dinámica es común, por ejemplo, en la medicina, donde
cada año se aprueban remedios que son testeados para distintas enfermedades
pero cuyos mecanismos para promover determinadas reacciones se desconocen (y
así suele constar en el prospecto). A veces el éxito de un medicamento inspira
y fondea nuevas investigaciones que pueden llegar a una explicación, pero esto
no siempre ocurre. La aspirina se descubrió en 1897, pero recién en 1995 la
ciencia logró una explicación convincente sobre su mecanismo. La estimulación
cerebral (vía electrodos que se implantan) que se usa para algunos enfermos de
Parkinson y otras enfermedades se aplica ya desde hace más de 20 años con éxito
creciente, pero nadie puede decir exactamente cómo o por qué funciona.
El profesor de Ciencias y de la Computación y de Derecho de
Internet de la Universidad de Harvard Jonathan Zittrain bautizó a este fenómeno
de respuestas que se acumulan sin explicaciones que las sostengan como
"deuda intelectual". En el pasado, este déficit estuvo limitado a
determinadas disciplinas que avanzan mayormente con una dinámica de
"prueba y error", como la medicina. La novedad es que con los avances
más recientes en inteligencia Artificial (IA), la deuda intelectual se está
multiplicando hasta niveles nunca conocidos. Esto es porque la avenida estrella
de la IA de 2019, el aprendizaje automático (machine learning), avanza
justamente con esta lógica de prueba y error acelerada, sin capacidad para
brindar explicaciones conceptuales de por qué descubrió un nuevo material o un
nuevo tratamiento para el cáncer.
Hay varios factores que le dan combustible a este motor,
explica Zittrain. Uno de ellos tiene que ver con que el boom del aprendizaje
automático implica un negocio multimillonario fogoneado por el sector privado,
que se contenta con soluciones que generen ganancias y no exige tantas
explicaciones como suele pasar en el campo académico. "El aprendizaje
automático funciona identificando patrones en océanos de datos. Usando esos
patrones se aproximan respuestas que se testean y se van refinando. La mayoría
de estos sistemas no se meten con una explicación conceptual, solo son máquinas
de identificar correlaciones, 'no piensan' en un sentido humano", dice el
profesor de Harvard.
En la medida en que el aprendizaje automático se vuelve
ubicuo en nuestra vida cotidiana, aumenta la "deuda intelectual". En
2019, por primera vez las personas están confiando más en lo que les dicen los
algoritmos que en lo que escuchan de otros pares.
Tercerizar la conciencia
El fenómeno no es nuevo y hay varios tecnólogos y
especialistas en epistemología estudiándolo. En el libro This Will Change
Everything (Esto lo va a cambiar todo), publicado en 2009 por el editor de Edge
John Brockman, se especula en varios ensayos sobre una crisis del positivismo
científico, en la medida en que los problemas se van haciendo más y más
complejos.
Así como la edad promedio en la que hicieron sus
descubrimientos principales los ganadores de premios Nobel se incrementó casi
diez años, en distintas disciplinas se va tomando conciencia de que no basta
con un solo cuerpo teórico para entender y atacar la complejidad de los
problemas más graves que nos rodean.
Días atrás, el economista Tyler Cowen publicó un ensayo
en The Atlantic llamando a promover una "nueva ciencia
del progreso". "El progreso en sí está subestudiado. Por progreso entendemos una combinación de avances económicos, tecnológicos, científicos,
culturales y organizacionales que vienen transformando y subiendo nuestro
estándar de vida en los últimos dos siglos. Por varias razones, no hay estudios
amplios sobre la dinámica del progreso, y de cómo hacer para profundizarlo y
acelerarlo", explicó el economista. Para Cowen, muchas disciplinas atacan
el tema, pero de manera fragmentada, y fallan al intentar dar con explicaciones
a preguntas prácticas.
Ahora bien, si el nuevo conocimiento sirve para solucionar
problemas, ¿cuál es el drama con que se demoren las explicaciones? Zittrain
cree que muchas respuestas pueden funcionar bien "aisladas", pero que
en un mundo de sistemas complejos recostarnos cada vez más sobre esta deuda
intelectual puede resultar peligroso, porque empiezan a aparecer sesgos e
inconsistencias en el conjunto de sugerencias de los algoritmos. La
programadora australiana Kate Crawford mostró el año pasado una línea de tiempo
donde las "catástrofes" producidas por algoritmos fuera de control
(desde el affaire de Cambridge Analytica hasta fallas masivas
de ciberseguridad) están aumentando su frecuencia e intensidad al mismo ritmo
que ocurre con los desastres naturales con el cambio climático. "Si usamos
aprendizaje automático para llegar a la mejor receta de pizza, tal vez no tenga
mucho sentido preocuparnos por la explicación, convenga callarnos la boca y
disfrutar de la pizza. Pero cuando confiamos en la IA para hacer predicciones
de salud, más vale que estemos completamente informados", escribe Zittrain
en un artículo de julio del New Yorker.
En su temporada 2019 del podcast Aprender de grandes, Gerry
Garbulsky plantea con preocupación la posibilidad de que en un futuro cercano
vayamos "tercerizando" muchas de nuestras funciones cognitivas en
aplicaciones y programas más efectivos. Así como ya no recordamos los teléfonos
de memoria (grabados en los contactos del celular) o no tenemos la necesidad de
conocer las calles de la ciudad (porque existe Waze), si ese proceso se
profundiza terminaría en seres humanos como un mero "hardware" de una
conciencia tercerizada en otro lugar. Hasta a Stephen King le hubiera costado
imaginar semejante escenario para una de sus novelas de terror. Y encima, sin
poder explicar luego cómo se le ocurrió la idea.
No hay comentarios:
Publicar un comentario