Surgió en 2013 como una idea para incentivar el hábito de
escribir en los talleres de narrativa que da Santiago Llach, pero este año se
globalizó: durante la cuarentena hubo dos ediciones del Mundial de la
Escritura, donde participaron más de 8000 inscriptos de 34 países, que
produjeron 70.000 textos que luego evaluaron jurados como Nick Hornby,
Guadalupe Nettel y Alberto Fuguet. El ganador de la competencia
individual fue un arquitecto y youtouber ecuatoriano.
En paralelo a este certamen se dio otra compulsa literaria,
más estrambótica y con una particularidad: sus protagonistas no son
humanos. En las últimas semanas la conversación en el ámbito de
la inteligencia
artificial giró en torno a las posibilidades que abre GPT-3, el modelo
de lenguaje natural más poderoso creado hasta ahora, para formular (entre otros
resultados) textos de ficción y poesía que logran superar con éxito el Test de
Turing (no se distingue si surgieron de una máquina o de un humano). GPT-3 fue
difundido recientemente por OpenAI y opera con 175.000 millones de parámetros,
un orden de magnitud más de 100 veces mayor que la versión de 2019, GPT2.
"GTP3 todavía tiene inconvenientes con algunos problemas de sentido común,
pero ha tenido una enorme mejora para escribir ficción, sátira y poesía",
se afirma en la página Gwern.net, luego de varios testeos. Cientos de
programadores están discutiendo las bondades del nuevo "poeta
artificial", con una conclusión generalizada: aún se está lejos de los
mejores humanos en esta materia, pero el sistema es "lo suficientemente
bueno" como para que los lectores disfruten de los textos producidos.
Algo similar sucedió con el blog lanzado por el
programador Liam Porr en la primera semana de agosto, armado
por completo con GPT-3 y que en dos semanas recibió unas 26.000 visitas. A
fines de junio, el estudio ruso de diseño Lebedev reveló que uno de los
empleados que estuvo enviando trabajos a clientes muy satisfechos durante el
último año, Nikolai Ironov, no era un ser humano.
Un sesgo muy habitual en la mirada de futuro consiste en
creer que el punto de explosión de una tecnología se da cuando esta equipara a
los mejores humanos en eficiencia y calidad, cuando en realidad el derrame se
produce a partir de resultados que son "lo suficientemente buenos"
para la mayor parte de la población. Por ejemplo, las imágenes que toman los
fotógrafos profesionales son mejores que las de quienes no se capacitaron, pero
la difusión de cámaras de altísima resolución en celulares (una tecnología
difundida en los últimos dos años) hace que esta profesión haya ingresado en un
replanteo total, porque se multiplicó por millones la disponibilidad de fotos
tal vez no perfectas, pero "lo suficientemente buenas" para la mayor
parte de los consumidores.
En muchas áreas (traducción, call centers, edición de piezas
más sofisticadas), GPT-3 parece estar alcanzando esta cota. Con menos glamour y
pátina de ciencia ficción que otros avances (como la computación cuántica),
porque el salto de GPT-2 a GPT-3 es de escala y "fuerza bruta", pero
con un potencial disruptivo en el corto plazo mucho mayor. "Los hackers están
fascinados con GPT-3. Para todos los demás, parece un juguete. ¿El patrón le
parece similar a alguien?", planteó en un tuit la leyenda del mundo
tecnológico Paul Graham.
Hay una vieja discusión en el campo de la inteligencia
artificial entre quienes afirman que los principales avances se dan y se
seguirán dando por aumento de la capacidad computacional y aquellos que
sostienen que hay que hacer cambios cualitativos para no llegar a un techo
pronto. El entusiasmo con GPT-3 parece llevar agua para el molino de la primera
argumentación.
Un ensayo muy difundido del científico de la computación
canadiense Richard Sutton de marzo de 2019, titulado, La amarga lección,
resume esta posición: "La mayor lección que podemos leer de 70 años de
desarrollo de la Inteligencia Artificial es que los métodos que se apoyan en
mayor poder computacional superan al resto por largo margen".
Sutton, que trabaja en DeepMind y da clases en la
Universidad de Alberta, asegura que esta misma tensión se dio en mojones
históricos de la disciplina, como cuando Deep Blue le ganó a Garry Kasparov en
1997 o cuando 20 años más tarde la compañía en la que trabaja derrotó al
campeón mundial de Go. En ambos casos, lo determinante fue la gigantesca (y
creciente) capacidad de cálculo.
Si esto es así, hay varias consecuencias económicas
de corto plazo importantes. Una ronda de aprendizaje de GPT-3 cuesta
cinco millones de dólares, con diez millones más en salarios adicionales.
Aunque OpenAI no lo especificó, se sospecha que se hicieron varios turnos. Eso
significa que el próximo salto en varios órdenes de magnitud podrá costar
cientos de millones, un terreno propicio para el despliegue de los gigantes de
la tecnología que hoy, con valuaciones billonarias, nadan en capital. La brecha
entre el club de Apple, Amazon, Google, Microsoft y Facebook y el resto se
podría ampliar todavía más.
En paralelo, se incrementaría exponencialmente la
demanda de semiconductores: hay quienes ya la proyectan en un 1% del
producto bruto interno (PBI) global. Esta carrera tiene a su vez enormes
implicancias geopolíticas (que dan para un Álter Eco aparte). Por lo pronto, la
aguja de la balanza en la pelea entre los dos principales contendientes
globales (Estados Unidos y China), con GPT-3 se inclinó para el lado americano.
En el medio de todo este vendaval hay voces muy reconocidas
en el ámbito de la inteligencia artificial que llaman a la mesura. Entre ellos,
los propios fundadores y directivos de OpenAI. El físico ruso Andrei Vazhnov,
con quien escribimos Modo Esponja (Sudamericana, 2017), suele
ser cauteloso en este aspecto.
"Es un avance impresionante, pero creo que aún estamos
lejos de reemplazar escritores humanos o siquiera de superar un Test de Turing
bien hecho", afirma Vazhnov, que en la actualidad trabaja como CTO de una
empresa de tecnología en París. La mayoría de los textos que se publican son
una selección de los mejores, no el promedio de todo lo que está produciendo
GPT-3.
"Pero hay una observación más seria. En el Test de
Turing original no se plantea distinguir entre un texto de un humano y el de
una máquina a partir de una propuesta previa, sino en una interacción de
pregunta-respuesta dinámica. Con hacer una pregunta cuya respuesta sea
improbable de ocurrir en Internet o Wikipedia (por ejemplo, ¿Dónde hay más
zapatos viejos: en la luna o en la galaxia de Andrómeda?') ya sería fácil
desenmascarar a la IA", explica. Un humano diría enseguida que la pregunta
no tiene sentido y el GPT-3 traería algún texto metafórico sobre zapatos y
galaxias, porque no tiene entendimiento de contexto.
Para Vazhnov, sin embargo, sí veremos pronto aplicaciones
muy prácticas para "generar borradores" en investigación científica,
periodismo, literatura, traducciones, etcétera. O para que podamos
autocompletar nuestros mails de manera asombrosamente más eficiente cuando se
trate de un asunto relativamente frecuente en términos estadísticos. "Allí
sí veo un avance impresionante e impactante", dice el físico nacido en
Omsk, Siberia. Como para rebalsar la cota de lo "suficientemente bueno".
No hay comentarios:
Publicar un comentario