La “inteligencia artificial” (IA) hace que las máquinas
simulen los procesos de inteligencia humana, incluyendo el aprendizaje, el
razonamiento, la resolución de problemas y otras funciones “cognitivas” que
habitualmente se asocian a las personas.
Estos sistemas se entrenan para que sean capaces, a través
de los datos que recogen y de unas reglas, de identificar patrones de una
manera más eficiente que como lo haríamos los humanos. La parte más madura y
mediática se conoce como aprendizaje automático (‘machine learning’), que permite
programar sistemas para tomar decisiones automáticas a partir de grandes
cantidades de datos. En esa línea se dan progresos para que estos sistemas
puedan comportarse de manera relativamente autónoma, como ocurre con los robots
o los vehículos sin conductor.
El impacto más relevante de la IA se centra en la extracción
de patrones para inferir, predecir y reconocer tendencias o comportamientos más
probables a partir de un cúmulo de datos. Se basa en sistemas matemáticos
complejos, en forma de algoritmos, que permiten realizar esas inferencias y
detectar valores atípicos que aportan información valiosa.
Por ejemplo, al observar patrones comunes en millones de
fotografías de bicicletas, un dispositivo puede aprender a reconocer una
bicicleta. Es así como Facebook reconoce rostros en fotografías en línea o cómo
Skype traduce de una lengua a otra. Pero además de esas chorradas, se pueden
hacer cosas más serias. Según cuenta Smithsonian
Magazine, el Departamento de Bomberos de la Ciudad de Nueva York (FDNY) ha
estado usando una herramienta de IA, llamada FireCast, que ayuda a identificar
cuáles de los cientos de miles de edificios en la ciudad corren el mayor riesgo
de tener un incendio, para entonces priorizarlos en sus inspecciones. El
software aplica, a datos provenientes de cinco agencias municipales, un
algoritmo que procesa hasta 60 factores de riesgo de incendios, no solo los
obvios como la edad de un edificio, sino también si está en medio de un proceso
de ejecución hipotecaria o si tiene gravámenes fiscales pendientes, entre
otros.
Dice Pierre Levy, en una entrevista que publican en Motherboard, que “la inteligencia colectiva es un proyecto para hacer más inteligentes a
las personas con ayuda de los ordenadores, y no hacer a los ordenadores más
inteligentes que las personas”. Por eso, reconociendo el gran potencial de
la IA, me sorprende cómo la sociedad y
las políticas públicas no ven en la IC las mismas oportunidades. La IC está
mucho más presente en la vida cotidiana que la primera y, sin embargo, goza de
menos predicamento y a ella se dedican recursos muy limitados si se comparan
con los invertidos en el desarrollo de sistemas basados en IA.
Lo que yo veo es que hay
una gran fascinación por lo que pueden hacer las máquinas y muchos prejuicios
hacia la “solución humana” que se genera colectivamente. Hice una búsqueda
en Google, usando ambos términos en inglés, y pude ponerle números a lo que ya
sospechaba: el número de noticias relacionadas con “artificial intelligence” supera de forma abrumadora a las que
tratan sobre “collective intelligence”:
más de 900 mil por 6 mil respectivamente. En mi opinión, esto refleja un error en la fijación de prioridades.
Escuchaba el otro día en un programa de radio que alguien
decía, con razón, que estamos muy entretenidos y ocupados en conseguir las
tecnologías más inteligentes, pero dedicamos muy poco tiempo a analizar cómo
será esa sociedad futura de robots y, añado, cómo afectará nuestro bienestar
integral y nuestros patrones colectivos de puesta en común de lo que
necesariamente tenemos que compartir.
En junio del año pasado tuve la ocasión de asistir a una
ponencia de Ece Kamar, investigadora
de Microsoft Research, con el sugerente título de “Humanos al rescate para resolver problemas de la Inteligencia Artificial”.
Su tesis era que el futuro de los sistemas de IA no está en sustituir a la
inteligencia humana, sino en combinarse con ella, y encontré un buen ejemplo de
sistemas híbridos como esos en el
increíble caso de Stitch Fix,
que reseñé en un post de este blog. Esa idea es buena pero confieso que el
relato de Kamar transmitía la sensación de que eran los humanos los que
mejoraban y complementaban las capacidades de las máquinas, y no al revés.
Por ejemplo, ya sabemos que las máquinas son muy hambrientas de datos, y eso refleja una de sus
limitaciones si se comparan con los humanos, que podemos aprender de muy pocos
ejemplos en comparación con las primeras. Es ahí donde los expertos sitúan al Crowdsourcing, un tipo popular y
polémico de IC, dado que un número creciente de aplicaciones de Machine
Learning ya se entrena con datos suministrados por la multitud. Las máquinas
aprenden más rápido y mejor si el flujo de datos que reciben se multiplica a
través de mecanismos de captura colectiva. Esta idea despierta mucho recelo
porque estaríamos haciendo más inteligentes a los algoritmos (e, incluso, a sus
propietarios, si no son públicos) en vez de contribuir a que las personas sean
más colectivamente inteligentes.
No podemos extender un cheque en blanco, limitándonos a
nutrir datos para entrenar y probar unos algoritmos que, en muchos casos, son
opacos. Por eso, Stefaan Verhulst,
co-fundador de The GovLab, cree que
una contribución relevante de la IC es “humanizar”
la IA, porque un diseño colaborativo ayudaría a mitigar los sesgos embebidos en
datos y algoritmos, y a implementar mecanismos de control que aumenten la
legitimidad de las iniciativas de IA, para evitar aquellas intervenciones que
suscitan inquietudes éticas o de otro tipo. Concretamente, él aboga por definir estrategias de gobernanza colectiva que minimicen
las asimetrías de poder creadas por la Inteligencia Artificial.
Que haya máquinas capaces de adivinar lo que nos gusta e,
incluso, de elegir por nosotros, produce cierto desasosiego. Ya he comentado en
esta casa que hay temores lógicos de que la IA nos lleve a una sociedad
tiranizada por algoritmos que nos robe la belleza de la imperfección humana;
pero que quizás el diablo no sea tan feo como lo pintan, porque la inteligencia
humana puede ser capaz de corregir las desviaciones y aprovechar lo más
positivo.
La Inteligencia Artificial, bien utilizada, puede ayudar a
viabilizar la Inteligencia Colectiva
cuando se despliegue a escala, sobre todo, en la gestión de metadatos que
faciliten una conversación y una agregación más eficaces entre multitudes de
personas. Por ejemplo, muchos no lo saben pero, una buena parte de las ediciones que se hacen en la Wikipedia ya las
hacen bots, o sea, programas automatizados. Un recurso tan masivo como ese
exige una gran cantidad de trabajo de mantenimiento así que algunas tareas son
demasiado repetitivas y tediosas para cualquier persona, como identificar
errores, limpiar las entradas de vandalismo, categorizar o etiquetar, que se
ponen en manos de máquinas, que son geniales para eso.
No hay comentarios:
Publicar un comentario