Es el primer proyecto de computación cognitiva aplicada a la
educación
en la Argentina. Se basa en el reconocimiento facial y de voces.
La escuela de negocios
IE, de Madrid, fue pionera en el uso de sistemas para medir emociones. Los
integró a su aula WOW, que reúne a los alumnos a distancia.
Cualquier docente sabe que durante su clase habrá picos de
atención, momentos de dispersión e, incluso, aburrimiento. Cuando prepara su
clase incluye algún golpe de efecto, algún recurso para generar risas o
suspenso. Las emociones están en el centro del proceso de aprendizaje y,
con la experiencia, los profesores se vuelven expertos en leer el ánimo del
grupo en tiempo real y sin mediaciones.
Pero ahora, en la “sociedad de control”, como la llamó el
filósofo francés Gilles Deleuze, todo (o casi todo) es medible. Las señales
corporales (gestos, voces, pulsaciones) envían datos que pueden ser procesados
para entender no sólo lo que los estudiantes dicen, sino también cómo
se sienten en cada segmento de la clase. Así, los docentes podrían saber
cuánto de lo que planificaron fue efectivo.
La computación cognitiva es lo que permite la recolección,
procesamiento y análisis de estos datos. “Se trata de algoritmos que
permiten que las computadoras desarrollen procesos similares a los humanos:
ver, escuchar, responder, traducir, razonar”, explica Mariela Bravo, ingeniera
y directora del Sector Público de Microsoft Argentina.
Aunque hace tiempo que se investiga en este sentido, su
aplicación en el ámbito educativo es muy reciente. Un caso pionero es el de la
escuela de negocios IE en Madrid, que lanzó en 2016 su aula WOW, donde los
alumnos participan de una clase en conjunto desde cualquier dispositivo y
lugar, y que cuenta con un sistema de reconocimiento que le permite
medir la atención de los participantes durante la clase.
En la Argentina, Practia, empresa de innovación tecnológica
y negocios, Microsoft y la escuela de negocios IAE, de la Universidad Austral,
desarrollan el primer proyecto de computación cognitiva aplicado a la
educación.
La primera prueba se realizó durante el programa “Leading in
Exponential Age” que desarrolla IAE con Singularity University. Se tomaron tres
vectores de análisis: el reconocimiento facial e
interpretaciones de emociones en los rostros, la transcripción de lo que se
dice en el aula y quién lo dice (mediante tecnologías de reconocimiento
de voz y de pasaje del habla a texto) y el monitoreo de
pulsaciones cardíacas (vía un smartwatch). Practia fue
responsable de entrenar los algoritmos de inteligencia artificial y Microsoft
aportó las tecnologías utilizadas para algunos de estos procesos.
Con el reconocimiento facial se identifican siete
emociones: enojo, desprecio, desagrado, tristeza, sorpresa, felicidad y un
estado neutral. El conjunto de las tecnologías permite analizar el
comportamiento de los alumnos y contar con un registro de lo que ocurre en el
aula. La información, recibida luego por el profesor, permite autoevaluar la
clase y el estilo de enseñanza.
“Esto que probamos está en etapa de experimentación y fue
trabajado con profesionales con visiones bien distintas para enriquecer el
resultado, como profesores, consultores, un neurocientista cognitivo y un
médico”, cuenta Roberto Vassolo, director del programa Leading in the
Exponencial Age. “Nuestro objetivo es analizar dinámicas de equipo o un aula
como sistema”, agrega el académico.
“El propósito era tener información en el aula en
determinado contexto y ver si las emociones y pulsaciones cardíacas nos
permitían entender lo mismo que el docente entendía que ocurría o si
podíamos ver un poco más, iluminar cosas que el docente no había visto”,
señala, por su parte, Juan Echagüe, director de Innovación y Desarrollo de
Practia.
En el aula, se puso una cámara de alta definición para
registrar a los participantes y se repartieron algunos relojes inteligentes
para medir las pulsaciones. “Al día siguiente entregamos el informe con un
gráfico que muestra al docente cuál fue la emoción que tuvo cada persona a lo
largo del tiempo y cuáles tuvo el grupo, tomado como la suma de todas las
personas”, detalla.
Desde el punto de vista docente “esta tecnología permite
objetivar lo que el profesor percibe subjetivamente y lo enriquece.
Porque de una manera tradicional, se puede percibir que a algunos alumnos les
están pasando ciertas cosas, y de esta forma podés capturar toda el aula”, dice
Vassolo.
También asegura que los alumnos, quienes habían firmado un
consentimiento para participar en la prueba, reaccionaron “con mucha curiosidad
y entusiasmados” y que, aunque al principio les llamaron la atención los
dispositivos, “a los 5 minutos de clase se olvidaron de lo que estaba pasando y
se metieron en el proceso”. Según Vassolo, están en plena fase de experimentación y les
va a tomar un año hasta que se llegue a hacer un prototipo para utilizar en el
aula.
No hay comentarios:
Publicar un comentario