domingo, noviembre 20, 2022

De los Hermanos Ábalos a Google Earth: los mil cruces de las políticas públicas con big data

El uso de datos se extiende a diferentes áreas, incluyendo la gestión estatal. / shutterstock - Shutterstock

“Buenos Aires, tierra hermosa, Nueva York, grandioso pago, casas más, casas menos, igualito a mi Santiago”, cantaban los entrañables Hermanos Ábalos, tal vez añorando su tierra natal desde la ventana de uno de los aviones que los llevaron de gira tras la explosión del folklore, a mitad del siglo pasado.

Sesenta años después y desde la pantalla de su computadora, Eugenia Giraudy posiblemente disienta, toda vez que las detalladas imágenes satelitales a las que tiene acceso le permiten distinguir, con detalle pasmoso, si por una imagen de una superficie de 30 metros de lado pasa un caño o un edificio o si, como en estudios similares, se trata de los techos prolijos de un coqueto country o de los más anárquicos de un barrio marginal; en Bolivia, en las afueras de Madrid, en el desierto del Sahara y, obviamente, en Santiago del Estero. Imágenes que, apropiadamente usadas, permiten monitorear cuestiones humanitarias delicadísimas, como el acceso al agua y como lo implementa el proyecto “Data for Good”, de Facebook, en el que trabaja Giraudy.

Píxeles, clics, bosques aleatorios, falsos positivos, time dynamic warping (deformación dinámica del tiempo), matrices de similitud son términos que cualquier lego asocia a la jerga densa de la tecnología de frontera o a la medicina de avanzada. Así, un incauto que por error se asomó a la conferencia Big Data y Política Pública, organizada por la UdeSA hace pocos días, casi se queda helado de escuchar estas palabras mezcladas con la terminología clásica de la política pública, como inflación, fake news, pobreza, violencia infantil o polarización del electorado. La imagen de la empleada pública de Antonio Gasalla (esa qué gritaba ¡atrás! ¡atrás!) contrasta con el creciente uso de algoritmos y métodos digitales en el análisis del Estado y la política social.

El sociólogo Germán Rosati es un claro representante de esta generación de “científicos sociales 2.0″ y coordina la Diplomatura en Ciencias Sociales Computacionales y Humanidades Digitales de la Universidad Nacional de San Martín. En la conferencia organizada por UdeSA, Rosati presentó resultados de una investigación en la cual, sobre la base del análisis de imágenes satelitales, estudió la dinámica del uso del suelo en la Argentina, algo que permite medir, entre otras cosas, el preocupante problema de la deforestación, con precisión similar a la de métodos tradicionales y disponibilidad casi instantánea.

Una característica saliente de este “ecosistema” de nuevos científicos sociales es que resulta imposible encasillarlos sobre la base de las carreras universitarias que estudiaron. Rosati es sociólogo de formación, pero en sus formas opera como un profesional de la computación o la estadística, y sus temas de interés lo acercan a la agronomía o la geografía.

En esa línea, Ernesto Calvo, el prestigioso científico social argentino, actualmente en la Universidad de Maryland y que también expuso en la conferencia, tiene diploma de grado en ciencia política, pero en sus investigaciones sobre la dinámica de twitter usa métodos computacionales de frontera y técnicas de “análisis de supervivencia” idénticas a las que apela la medicina.

Eugenia Mitchelstein también tiene formación en ciencia política, pero en sus estudios sobre el impacto de las fake news apela a la lógica experimental que usaría un agrónomo para probar la efectividad de un fertilizante. La caracterización de la actividad de las personas por su título universitario parece ser una práctica muy de “siglo XX”, donde qué es lo que alguien hace y, fundamentalmente, cómo lo hace, provee una descripción mucho más fidedigna de sus tareas y habilidades.

¿Es la inteligencia artificial el fin de la ciencia social tradicional? ¿Big data reemplazará a las encuestas? En el ámbito de la política social, ¿lo cuantitativo se devorará a lo cualitativo? Los trabajos presentados en esta conferencia de frontera sugieren, contraintuitivamente, que no. Si hubo un elemento común a las exposiciones es la presencia de algún tipo de encuesta estructurada, o entrevista cualitativa, que sirve como “piedra de Roseta”, para tantear que los resultados surgidos de un algoritmo aplicado a datos masivos dan resultados similares a los de una encuesta pequeña y bien implementada. La economista Victoria Anauati discutió métodos recientes para medir la pobreza sobre la base de la intensidad del uso de teléfonos celulares.

La forma de “entrenar” a estos algoritmos es apelar a una encuesta en la cual se observa tanto el bienestar personal como la intensidad del uso de celulares. Estas pequeñas encuestas funcionan como un “laboratorio” para probar la eficacia de los métodos e implementarlos.

En línea similar, el profesor de la Universidad de Harvard Alberto Cavallo, reconocido experto en la medición de precios usando datos online, contó que el proceso de validación de sus métodos computacionales demanda un largo período de interacción con usuarios y actores de la política, que a su vez retroalimenta la construcción de nuevos algoritmos. 

El enfoque estadístico-experimental presentado por Mitchelstein para el estudio de fake news es complementado por detalladas entrevistas cualitativas, que aportan información valiosa para chequear o cuestionar los resultados cuantitativos. Lo mismo ocurrió con el trabajo presentado por Victoria Ubiña, referido a la detención temprana de violencia infantil, en el cual, además de apelar a los más recientes métodos de machine learning tuvo que interactuar tanto con las familias afectadas como con los funcionarios de las oficinas públicas qué gestionan está delicada cuestión. Otro tema que atraviesa la adopción de tecnologías digitales en el ámbito de lo público es que este tiene a menudo objetivos múltiples y, de manera esperada, contradictorios. La lentitud en la adopción de métodos de frontera no obedece a los costados negativos de la burocracia, sino a una cautela propia de la complejidad en la cual opera el entramado de la política pública. Como ejemplo, la comparabilidad (temporal y regional) y la transparencia en la medición de la pobreza demandan métodos claros y estables, para que las comparaciones sean de “manzanas con manzanas”, lo cual se da de patadas con la esencia de la inteligencia artificial o el machine learning que, en pos de la eficiencia y el aprendizaje adaptativo, suele llevar a que las mejoras sucesivas de un modelo tornen a sus resultados incomparables con los del pasado o con los de otras regiones. No se trata de adoptar una visión ludita (la de los que rompían las máquinas de la revolución industrial) de la tecnología en el Estado, sino de entender que, en lo público, la eficiencia es un valor tan deseable como la transparencia o la comparabilidad.

“Tu sombra de mistol he’i buscar” cantaban los Ábalos en Nostalgias Santiagueñas, posiblemente a caballo y no en Google Earth, donde, para bien y para mal, estarían al alcance de cualquier algoritmo que no añoraría nada que no sea obedecer a quien lo programó.

Walter Sosa Escudero

1 comentario:

  1. Es un análisis fascinante sobre la intersección entre las políticas públicas y el uso de big data, ilustrando cómo los avances tecnológicos están transformando la forma en que se abordan problemas sociales y económicos. La narrativa conecta de manera creativa las tradiciones culturales argentinas con la tecnología de vanguardia, mostrando cómo los datos satelitales y los algoritmos están sustituyendo métodos tradicionales en áreas como la medición de la pobreza y la deforestación. Además, destaca la versatilidad de los científicos sociales modernos, quienes, lejos de quedar relegados por la tecnología, utilizan herramientas computacionales para enriquecer sus investigaciones.

    ___________________________________________________________________________
    Soy profesora de una de las mejores secundarias en la Colonia Del Valle

    ResponderEliminar