lunes, agosto 31, 2020

Inteligencia artificial: el reino de la escala y de lo "suficientemente bueno"

Surgió en 2013 como una idea para incentivar el hábito de escribir en los talleres de narrativa que da Santiago Llach, pero este año se globalizó: durante la cuarentena hubo dos ediciones del Mundial de la Escritura, donde participaron más de 8000 inscriptos de 34 países, que produjeron 70.000 textos que luego evaluaron jurados como Nick Hornby, Guadalupe Nettel y Alberto Fuguet. El ganador de la competencia individual fue un arquitecto y youtouber ecuatoriano.

En paralelo a este certamen se dio otra compulsa literaria, más estrambótica y con una particularidad: sus protagonistas no son humanos. En las últimas semanas la conversación en el ámbito de la inteligencia artificial giró en torno a las posibilidades que abre GPT-3, el modelo de lenguaje natural más poderoso creado hasta ahora, para formular (entre otros resultados) textos de ficción y poesía que logran superar con éxito el Test de Turing (no se distingue si surgieron de una máquina o de un humano). GPT-3 fue difundido recientemente por OpenAI y opera con 175.000 millones de parámetros, un orden de magnitud más de 100 veces mayor que la versión de 2019, GPT2. "GTP3 todavía tiene inconvenientes con algunos problemas de sentido común, pero ha tenido una enorme mejora para escribir ficción, sátira y poesía", se afirma en la página Gwern.net, luego de varios testeos. Cientos de programadores están discutiendo las bondades del nuevo "poeta artificial", con una conclusión generalizada: aún se está lejos de los mejores humanos en esta materia, pero el sistema es "lo suficientemente bueno" como para que los lectores disfruten de los textos producidos.

Algo similar sucedió con el blog lanzado por el programador Liam Porr en la primera semana de agosto, armado por completo con GPT-3 y que en dos semanas recibió unas 26.000 visitas. A fines de junio, el estudio ruso de diseño Lebedev reveló que uno de los empleados que estuvo enviando trabajos a clientes muy satisfechos durante el último año, Nikolai Ironov, no era un ser humano.

Un sesgo muy habitual en la mirada de futuro consiste en creer que el punto de explosión de una tecnología se da cuando esta equipara a los mejores humanos en eficiencia y calidad, cuando en realidad el derrame se produce a partir de resultados que son "lo suficientemente buenos" para la mayor parte de la población. Por ejemplo, las imágenes que toman los fotógrafos profesionales son mejores que las de quienes no se capacitaron, pero la difusión de cámaras de altísima resolución en celulares (una tecnología difundida en los últimos dos años) hace que esta profesión haya ingresado en un replanteo total, porque se multiplicó por millones la disponibilidad de fotos tal vez no perfectas, pero "lo suficientemente buenas" para la mayor parte de los consumidores.

En muchas áreas (traducción, call centers, edición de piezas más sofisticadas), GPT-3 parece estar alcanzando esta cota. Con menos glamour y pátina de ciencia ficción que otros avances (como la computación cuántica), porque el salto de GPT-2 a GPT-3 es de escala y "fuerza bruta", pero con un potencial disruptivo en el corto plazo mucho mayor. "Los hackers están fascinados con GPT-3. Para todos los demás, parece un juguete. ¿El patrón le parece similar a alguien?", planteó en un tuit la leyenda del mundo tecnológico Paul Graham.

Hay una vieja discusión en el campo de la inteligencia artificial entre quienes afirman que los principales avances se dan y se seguirán dando por aumento de la capacidad computacional y aquellos que sostienen que hay que hacer cambios cualitativos para no llegar a un techo pronto. El entusiasmo con GPT-3 parece llevar agua para el molino de la primera argumentación.

Un ensayo muy difundido del científico de la computación canadiense Richard Sutton de marzo de 2019, titulado, La amarga lección, resume esta posición: "La mayor lección que podemos leer de 70 años de desarrollo de la Inteligencia Artificial es que los métodos que se apoyan en mayor poder computacional superan al resto por largo margen".

Sutton, que trabaja en DeepMind y da clases en la Universidad de Alberta, asegura que esta misma tensión se dio en mojones históricos de la disciplina, como cuando Deep Blue le ganó a Garry Kasparov en 1997 o cuando 20 años más tarde la compañía en la que trabaja derrotó al campeón mundial de Go. En ambos casos, lo determinante fue la gigantesca (y creciente) capacidad de cálculo.

Si esto es así, hay varias consecuencias económicas de corto plazo importantes. Una ronda de aprendizaje de GPT-3 cuesta cinco millones de dólares, con diez millones más en salarios adicionales. Aunque OpenAI no lo especificó, se sospecha que se hicieron varios turnos. Eso significa que el próximo salto en varios órdenes de magnitud podrá costar cientos de millones, un terreno propicio para el despliegue de los gigantes de la tecnología que hoy, con valuaciones billonarias, nadan en capital. La brecha entre el club de Apple, Amazon, Google, Microsoft y Facebook y el resto se podría ampliar todavía más.

En paralelo, se incrementaría exponencialmente la demanda de semiconductores: hay quienes ya la proyectan en un 1% del producto bruto interno (PBI) global. Esta carrera tiene a su vez enormes implicancias geopolíticas (que dan para un Álter Eco aparte). Por lo pronto, la aguja de la balanza en la pelea entre los dos principales contendientes globales (Estados Unidos y China), con GPT-3 se inclinó para el lado americano.

En el medio de todo este vendaval hay voces muy reconocidas en el ámbito de la inteligencia artificial que llaman a la mesura. Entre ellos, los propios fundadores y directivos de OpenAI. El físico ruso Andrei Vazhnov, con quien escribimos Modo Esponja (Sudamericana, 2017), suele ser cauteloso en este aspecto.

"Es un avance impresionante, pero creo que aún estamos lejos de reemplazar escritores humanos o siquiera de superar un Test de Turing bien hecho", afirma Vazhnov, que en la actualidad trabaja como CTO de una empresa de tecnología en París. La mayoría de los textos que se publican son una selección de los mejores, no el promedio de todo lo que está produciendo GPT-3.

"Pero hay una observación más seria. En el Test de Turing original no se plantea distinguir entre un texto de un humano y el de una máquina a partir de una propuesta previa, sino en una interacción de pregunta-respuesta dinámica. Con hacer una pregunta cuya respuesta sea improbable de ocurrir en Internet o Wikipedia (por ejemplo, ¿Dónde hay más zapatos viejos: en la luna o en la galaxia de Andrómeda?') ya sería fácil desenmascarar a la IA", explica. Un humano diría enseguida que la pregunta no tiene sentido y el GPT-3 traería algún texto metafórico sobre zapatos y galaxias, porque no tiene entendimiento de contexto.

Para Vazhnov, sin embargo, sí veremos pronto aplicaciones muy prácticas para "generar borradores" en investigación científica, periodismo, literatura, traducciones, etcétera. O para que podamos autocompletar nuestros mails de manera asombrosamente más eficiente cuando se trate de un asunto relativamente frecuente en términos estadísticos. "Allí sí veo un avance impresionante e impactante", dice el físico nacido en Omsk, Siberia. Como para rebalsar la cota de lo "suficientemente bueno".

Sebastián Campanario


 


No hay comentarios:

Publicar un comentario