El uso de datos se extiende a diferentes áreas, incluyendo la gestión estatal. / shutterstock - Shutterstock
“Buenos
Aires, tierra hermosa, Nueva York, grandioso pago, casas más, casas menos,
igualito a mi Santiago”, cantaban
los entrañables Hermanos Ábalos, tal vez añorando su tierra natal desde la
ventana de uno de los aviones que los llevaron de gira tras la explosión del
folklore, a mitad del siglo pasado.
Sesenta
años después y desde la pantalla de su computadora, Eugenia Giraudy
posiblemente disienta, toda vez que las detalladas imágenes satelitales a las
que tiene acceso le permiten distinguir, con detalle pasmoso, si por una imagen
de una superficie de 30 metros de lado pasa un caño o un edificio o si, como en
estudios similares, se trata de los techos prolijos de un coqueto country o de
los más anárquicos de un barrio marginal; en Bolivia, en las afueras de Madrid,
en el desierto del Sahara y, obviamente, en Santiago del Estero. Imágenes que, apropiadamente usadas, permiten monitorear
cuestiones humanitarias delicadísimas, como el acceso al agua y
como lo implementa el proyecto “Data for Good”, de
Facebook, en el que trabaja Giraudy.
Píxeles,
clics, bosques aleatorios, falsos positivos, time dynamic warping (deformación
dinámica del tiempo), matrices de similitud son términos que cualquier lego
asocia a la jerga densa de la tecnología de frontera o a la medicina de
avanzada. Así, un incauto que por error se asomó a la conferencia Big Data y
Política Pública, organizada por la UdeSA hace pocos días, casi se queda helado
de escuchar estas palabras mezcladas con la terminología
clásica de la política pública, como inflación, fake news, pobreza,
violencia infantil o polarización del electorado. La imagen de
la empleada pública de Antonio Gasalla (esa qué gritaba ¡atrás! ¡atrás!)
contrasta con el creciente uso de algoritmos y métodos digitales en el análisis
del Estado y la política social.
El
sociólogo Germán Rosati es un claro representante de esta generación de “científicos sociales 2.0″ y coordina la
Diplomatura en Ciencias Sociales Computacionales y Humanidades Digitales de la
Universidad Nacional de San Martín. En la conferencia organizada por UdeSA,
Rosati presentó resultados de una investigación en la cual, sobre la base del
análisis de imágenes satelitales, estudió la dinámica del uso del
suelo en la Argentina, algo que permite medir, entre otras
cosas, el preocupante problema de la deforestación, con precisión similar a la
de métodos tradicionales y disponibilidad casi instantánea.
Una
característica saliente de este “ecosistema” de nuevos científicos sociales es
que resulta imposible encasillarlos sobre la base de las carreras
universitarias que estudiaron. Rosati es sociólogo de
formación, pero en sus formas opera como un profesional de la computación o la
estadística, y sus temas de interés lo acercan a la agronomía o la geografía.
En
esa línea, Ernesto Calvo, el prestigioso científico social argentino,
actualmente en la Universidad de Maryland y que también expuso en la
conferencia, tiene diploma de grado en ciencia política, pero en sus
investigaciones sobre la dinámica de twitter usa métodos computacionales de
frontera y técnicas de “análisis de supervivencia” idénticas
a las que apela la medicina.
Eugenia
Mitchelstein también tiene formación en ciencia política, pero en sus estudios
sobre el impacto de las fake news apela
a la lógica experimental que usaría un agrónomo para probar la efectividad de
un fertilizante. La caracterización de la actividad de las personas por su
título universitario parece ser una práctica muy de “siglo XX”, donde qué es lo
que alguien hace y, fundamentalmente, cómo lo hace, provee una descripción
mucho más fidedigna de sus tareas y habilidades.
¿Es
la inteligencia artificial el fin de la ciencia social tradicional? ¿Big data reemplazará a las encuestas? En el ámbito de la política
social, ¿lo cuantitativo se devorará a lo cualitativo? Los
trabajos presentados en esta conferencia de frontera sugieren,
contraintuitivamente, que no. Si hubo un elemento común a las exposiciones es
la presencia de algún tipo de encuesta estructurada, o entrevista cualitativa,
que sirve como “piedra de Roseta”, para
tantear que los resultados surgidos de un algoritmo aplicado a datos masivos
dan resultados similares a los de una encuesta pequeña y bien implementada. La
economista Victoria Anauati discutió métodos recientes para medir la pobreza
sobre la base de la intensidad del uso de teléfonos celulares.
La
forma de “entrenar” a estos algoritmos es apelar a una encuesta en la cual se
observa tanto el bienestar personal como la intensidad del uso de celulares.
Estas pequeñas encuestas funcionan como un “laboratorio” para probar la
eficacia de los métodos e implementarlos.
En línea similar, el profesor de la Universidad de Harvard Alberto Cavallo, reconocido experto en la medición de precios usando datos online, contó que el proceso de validación de sus métodos computacionales demanda un largo período de interacción con usuarios y actores de la política, que a su vez retroalimenta la construcción de nuevos algoritmos.
El enfoque estadístico-experimental presentado por Mitchelstein para el estudio de fake news es complementado por detalladas entrevistas cualitativas, que aportan información valiosa para chequear o cuestionar los resultados cuantitativos. Lo mismo ocurrió con el trabajo presentado por Victoria Ubiña, referido a la detención temprana de violencia infantil, en el cual, además de apelar a los más recientes métodos de machine learning tuvo que interactuar tanto con las familias afectadas como con los funcionarios de las oficinas públicas qué gestionan está delicada cuestión. Otro tema que atraviesa la adopción de tecnologías digitales en el ámbito de lo público es que este tiene a menudo objetivos múltiples y, de manera esperada, contradictorios. La lentitud en la adopción de métodos de frontera no obedece a los costados negativos de la burocracia, sino a una cautela propia de la complejidad en la cual opera el entramado de la política pública. Como ejemplo, la comparabilidad (temporal y regional) y la transparencia en la medición de la pobreza demandan métodos claros y estables, para que las comparaciones sean de “manzanas con manzanas”, lo cual se da de patadas con la esencia de la inteligencia artificial o el machine learning que, en pos de la eficiencia y el aprendizaje adaptativo, suele llevar a que las mejoras sucesivas de un modelo tornen a sus resultados incomparables con los del pasado o con los de otras regiones. No se trata de adoptar una visión ludita (la de los que rompían las máquinas de la revolución industrial) de la tecnología en el Estado, sino de entender que, en lo público, la eficiencia es un valor tan deseable como la transparencia o la comparabilidad.
“Tu
sombra de mistol he’i buscar” cantaban los Ábalos en Nostalgias Santiagueñas, posiblemente a caballo y no en
Google Earth, donde, para bien y para mal, estarían al alcance de cualquier
algoritmo que no añoraría nada que no sea obedecer a quien lo programó.
1 comentario:
Es un análisis fascinante sobre la intersección entre las políticas públicas y el uso de big data, ilustrando cómo los avances tecnológicos están transformando la forma en que se abordan problemas sociales y económicos. La narrativa conecta de manera creativa las tradiciones culturales argentinas con la tecnología de vanguardia, mostrando cómo los datos satelitales y los algoritmos están sustituyendo métodos tradicionales en áreas como la medición de la pobreza y la deforestación. Además, destaca la versatilidad de los científicos sociales modernos, quienes, lejos de quedar relegados por la tecnología, utilizan herramientas computacionales para enriquecer sus investigaciones.
___________________________________________________________________________
Soy profesora de una de las mejores secundarias en la Colonia Del Valle
Publicar un comentario