Están sucediendo avances increíbles en lo que hoy seguramente es la “tecnología de propósito general” (TPG) más explosiva.
Histórico match entre Garry Kasparov y Deep Blue /1. La que más repercusión tuvo fue la del lanzamiento de la última versión de Dall Cuatro noticias de las últimas semanas del campo de la inteligencia artificial (IA), algunas casi de ciencia ficción, llaman la atención:
-E, un motor de IA
capaz de transformar cualquier texto descriptivo en una imagen con sorprendente
facilidad. Juega con los nombres del pintor Salvador Dalí y de Wall-E, la
película del robot de Disney; y lleva la firma del consorcio OpenAI, que hace
más de un año creó el sistema de lenguaje natural GPT-3, capaz de crear textos
creativos y sofisticados de manera artificial.
2. Hablando de GPT3,
la segunda noticia viene de este terreno. En colegios secundarios y
universidades de EE.UU. se volvió problemático el uso de nuevos y originales,
pero generados por una máquina. Los profesores tienen que convertirse en
especialistas en “tests de Turing” para saber si una tarea fue versiones beta
de este programa por parte de los alumnos para presentar ensayos. El problema
es que no se trata de plagio (que se puede descubrir googleando algo), sino de
textos completamente hecha por una inteligencia humana o artificial.
3. Hace un mes, Deep
Mind, la empresa de IA del conglomerado Alphabet (Google) que dirige el ex niño
prodigio del ajedrez Demis Hassabis lanzó GATO, una red neuronal digital que
puede jugar al Atari, controlar un robot, chatear e identificar imágenes. Todo
con pocas “capas” que impresionaron por su nivel de generalización.
4. Una cuarta noticia
que ya se ubica al filo de la realidad: cientos de miles de neuronas humanas
vivas desplegadas en un recipiente en un laboratorio (que crecen y forman una
especie de organoide con forma de cerebro) fueron entrenadas, mediante impulsos
eléctricos, para jugar al Pong (el primer videojuego de la historia, creado
hace 50 años, en el que hay que atajar una pelotita con una barra que se
mueve), y aprendieron más rápido que un programa de IA. “Creemos que es justo
llamarlos cerebros-cyborg”, le dijo Brett Kagan, la jefa de Cortical Labs, el
centro que logró esta hazaña, al medio New Scientist.
Estos ejemplos son
apenas un botón de muestra de algunos avances increíbles que están
sucediendo en lo que hoy seguramente es la “tecnología de propósito general”
(TPG) más explosiva. Un ritmo que llevó a Sam Altman, director ejecutivo
de OpenAI, a afirmar en un reciente ensayo: “Esta revolución me recuerda cada
día sobre la magnitud del cambio socioeconómico que se viene más rápido de lo
que la gente cree y se imagina”.
Para Altman, en
los próximos cinco años se van a volver moneda corriente por parte de la IA
tareas como la lectura de documentos legales y consejos médicos; en los
próximos 10 años reemplazarán a la mayoría de operarios en líneas de montaje; y
en las décadas posteriores harán casi todo, incluyendo descubrimientos
científicos que expandirán nuestro concepto sobre el ‘todo”.
El economista Erik
Brynjolfsson también publicó semanas atrás un texto largo, titulado “La trampa
de Turing”, donde coincide con Altman en que las consecuencias
socio-políticas que se derivan de los cambios masivos que pueden darse en la
relación de costos de trabajo y capital pueden ser enormes. Y, también,
suceder antes de lo que se piensa.
En mayo también se
cumplió un cuarto de siglo de un hecho icónico en la historia de la
inteligencia artificial: el 11 de ese mes de 1997, el excampeón mundial de
ajedrez Garry Kasparov se dio cuenta, antes de que pasara una hora desde el
inicio de la partida, de que el juego contra el programa IBM Deep Blue estaba
perdido. Fue el final de una revancha (el match anterior lo
había ganado Kasparov) en la que un programa por primera vez derrotaba al mejor
jugador del mundo. Hubo por entonces titulares catástrofes en los medios: “La
última línea de defensa del cerebro humano”, tituló Newsweek. Otras
publicaciones marcaron este punto como una bisagra que abría una era de
superioridad de las máquinas sobre los humanos.
Eso no ocurrió. De
hecho, el logro de Deep Blue, más que una bisagra y plataforma de lanzamiento,
fue un callejón sin salida o un cenit para la “vieja escuela” de la IA, que se
sostenía en millones de anotaciones en código que daban instrucciones para cada
situación. Aunque para muchos el ajedrez pueda parecer un símbolo
representativo del pensamiento humano, en realidad es un esquema bastante
excepcional, que casi no se replica en la vida de todos los días: las reglas se
conocen y no hay información oculta. Es un mundo ideal para la “fuerza bruta”
computacional.
Si el match con
Kasparov fue un asteroide que extinguió a los dinosaurios de la vieja escuela
de la IA, los mamíferos que sobrevivieron fueron las redes neuronales y
luego el aprendizaje automático y profundo: mecanismos capaces de ir
aprendiendo. Estas dinámicas ya se vislumbraron en la década del 50, pero
necesitaban para desplegarse una fuerza computacional que no existía ni
siquiera en los 90. Fueron los avances de la industria de los videojuegos en la
primera década de este milenio los que viabilizaron una explosión que hoy está
en todos lados: desde el mecanismo de “auto-completar” del Gmail hasta el
reconocimiento facial, la detección de fraudes bancarios o los casos comentados
en los primeros párrafos de esta nota de GATO, GPT-3 o Dall-E.
¿Por dónde puede
venir la próxima ola de la IA? La historia de Kasparov y Deep Blue muestra que
el emergente exitoso (deep learning) puede llegar por un costado que 25
años atrás nadie pronosticaba.
Y un
fascinante paper de este año de los expertos en complejidad y
biología evolutiva españoles Ricard Solé y Luis Seoane plantea una pregunta
poderosa: “¿Los diseños cognitivos naturales llenan el espacio de lo posible?”
(En materia de inteligencia). El ensayo, titulado “La evolución del cerebro y
las computadoras: los caminos no tomados”, sostiene que hasta ahora los
avances de la IA siguen el camino del tipo de inteligencia humana resultante
del proceso evolutivo del cerebro: hacen mejor cosas que ya hacemos.
Los algoritmos de
redes neuronales son un buen ejemplo de esta “antropomorfización” de la
IA. Este es un sesgo muy habitual en el campo de la inteligencia
artificial: buena parte del foco del debate se concentra en la “singularidad”,
el momento en el que las máquinas superen al cerebro humano en sus habilidades
más complejas. Sin embargo, eso, dicen Solé y Seoane, equivale a sólo pensar el
tema dentro de los límites de una avenida. Pero, ¿qué pasaría si se exploran
“caminos no tomados” en la historia de la cognición humana y se los recorre con
dinámicas digitales?
Allí las
posibilidades pasan a ser infinitas. Lo charlamos en un café con el organoide de
forma de cerebro en un recipiente que gana al juego Pong, a ver qué se nos
ocurre.
No hay comentarios:
Publicar un comentario