Hasta ahora, los profesionales de este rubro se han beneficiado de los algoritmos gracias a nuevos programas para su trabajo; pero no podemos descartar que algún día los reemplacen, tal como ha ocurrido con otras profesiones
El físico Niels Bohr articuló con certeza la
dificultad de predecir y aclaró que esta actividad se vuelve
especialmente complicada cuando se trata del futuro. En tiempos de cambios
tecnológicos agudos, aquella frase se potencia y el amplio alcance de la
inteligencia artificial (IA) amenaza con dejar en ridículo a los vaticinios más
expertos. Con tantos falsos positivos en el pasado, ni siquiera es posible
asegurar que estamos ante una nueva ola tecnológica que barrerá todo lo
conocido, o si los cambios siguen siendo parte del mar que conocemos desde
siempre.
Los permanentes fallos sobre qué tecnologías vendrán y
cuándo serán de uso público ha sido objeto de ironías, pero en el
fondo vale preguntarse si se puede predecir aquello que aún no se ha inventado.
En 1973 se encuestó a un grupo de expertos para predecir tecnologías. Entre
ellas, anticiparon transcripción de voz y traductores automáticos para mediados
de los 90, bastante antes de lo ocurrido.
Menos adecuados aún fueron sus vaticinios de que en 2010
abundarían los robots para tareas domésticas o de que los fallos judiciales
serían dictaminados por un algoritmo (para la jerga de la época, un “juez
computarizado”). En 2016, la encuesta se repitió y veremos cómo les va esta
vez: se esperan camiones autónomos para 2029, cirugías robóticas para
2046 y programas que escriben un best seller para 2050.
Con tantos falsos positivos en el pasado, ni siquiera es
posible asegurar que estamos ante una nueva ola tecnológica que barrerá todo lo
conocido
El camino que tome la inteligencia artificial deberá tener
atentos a los economistas. Si alguna vez se construyen émulos artificiales, tal
vez mejorados, de los agentes económicos para desarrollar tareas que demandan
avanzadas destrezas cognitivas, ¿qué será del agente representativo que
figura en los modelos económicos? En estos esquemas, se supone que el
agente representativo es un Homo economicus que combina
egoísmo con ultracapacidades cognitivas, descripción que parece caracterizar
mejor a una fría máquina que a un ente de carne y hueso.
Hasta ahora, los economistas se han beneficiado de la IA
gracias a nuevos programas para su trabajo, y también porque produjo nuevos
temas para discutir y analizar. Pero no podemos descartar que algún día la IA
los reemplace, tal como ha ocurrido con otras profesiones. Un cálculo
usual sugiere que, hacia 2030, entre 400 y 800 millones de ocupaciones podrían
ser sustituidas por las nuevas tecnologías, y que el trabajo humano se circunscribiría
principalmente a tareas de interacción física y empática con otras personas,
como la asistencia social o el cuidado de enfermos. Pero, claro, nadie imagina
a un economista dedicándose a estas labores, al menos no directamente. En un
mundo distópico, o tal vez utópico, los economistas podrían quedar relegados
simplemente a analizar las razones por las cuales han quedado desempleados.
Otras alternativas de empleo de economistas también parecen
cerrarse. Ya existen fondos de inversión que se publicitan como
manejados por IA. Cotidianamente se deciden otorgamientos o rechazos
de crédito sobre la base de scorings automatizados. Los
gigantes del negocio informático (y otros no tan grandes) explotan una vasta
cantidad de datos online para identificar patrones de comportamiento para
distintas variables. La pandemia interrumpió transitoriamente estas tendencias
y proporcionó espacio para la profesión, pero de regreso a la normalidad quizás
haya que reinventarse.
Pero a no desesperar. Aquella encuesta de 1973 preveía que
hacia 1990 los modelos económicos de pronóstico iban a estar resueltos y que
serían elaborados por algoritmos. Ninguna de estas dos cosas sucedió, ni de
lejos. En todo caso, lo curioso es que se considere que la tarea de
predecir pueda ser automatizable, y que los economistas están demasiado
ocupados en sus intereses o en sus modelos abstractos como para mejorar sus
pronósticos.
Un cálculo usual sugiere que, hacia 2030, entre 400 y 800
millones de ocupaciones podrían ser sustituidas por las nuevas tecnologías
El avance de la sofisticación de los sistemas podría derivar
en una creciente delegación de las decisiones humanas, con
consecuencias que podrían rozar lo insólito. Consideremos el tradicional
problema de “principal-agente”, donde el dueño (el principal) trata de evitar
que el administrador de su empresa (el agente) se concentre más en su salario
que en las ganancias de la firma. El dilema típico de esta situación es la
“asimetría informativa”, porque el agente sabe más sobre el estado de la
empresa que el propio dueño, y a veces se aprovecha de esto para llevarse una
tajada mayor (de allí el dicho “el ojo del amo engorda el ganado”).
Ahora imaginemos que el administrador es un “agente
artificial”. En la relación entre humanos el agente dispone de un aparato
cognitivo similar al del dueño y, además, goza de capacidad de introspección.
Esto implica que está en condiciones de dar cuenta de sus actos o de sus
recomendaciones, explicando por qué tomó las decisiones que tomó. Con
sistemas de inteligencia artificial el asesoramiento o recomendación del
agente-algoritmo podrá ser muy eficiente, pero el dueño podría no
tener forma de saber por qué lo hace. Y, si sucediera que el algoritmo de IA
tiene facultades todavía mayores y es capaz de explicar su proceder, podría
intentar hacerlo, pero lo más probable es que esta justificación sea
ininteligible para el patrón.
Peor aún, algunas decisiones del robot-agente
podrían ser óptimas, pero estar reñidas con la “moral humana” del
dueño. El filósofo Nick Bostrom y el blogger Eliezer Yudkowsky
se han ocupado de estudiar las implicancias éticas de la inteligencia
artificial y advierten varios potenciales conflictos. Por ejemplo, a la hora de
evaluar las características de ciertos deudores, una entidad bancaria podría
establecer parámetros que generalice prácticas discriminatorias del estilo “los
que tienen estas características físicas son más proclives a no pagar”.
Estas dificultades podrían condicionar la difusión de
“contratos inteligentes”, porque pueden surgir disyuntivas entre las
probabilidades “objetivas” y la realidad de cada persona, algo que, como
humanos, solemos rechazar. Como suele repetir el psicólogo canadiense Steven
Pinker, los individuos no deben ser juzgados ni limitados por las
propiedades estadísticas del grupo al que pertenecen.
Más preguntas quedan en el camino. ¿Permitirá la IA
mejorar los modelos de los economistas y prevenir las crisis que genera el
sistema económico que estudian, o estas crisis simplemente no pueden
evitarse? ¿Cómo se incorporarán a estos modelos los “algoritmos que
razonan” y sus interacciones con el Homo economicus? Si se verifica
que la IA también falla en sus pronósticos, ¿habrá reconciliación con la
profesión? ¿Y qué teorías sobrevivirán finalmente? La respuesta definitiva de
los economistas a estos interrogantes ya la conocemos: depende.
No hay comentarios:
Publicar un comentario