Un aula inteligente lee las emociones de los alumnos en clase

Es el primer proyecto de computación cognitiva aplicada a la educación en la Argentina. Se basa en el reconocimiento facial y de voces.

Cualquier docente sabe que durante su clase habrá picos de atención, momentos de dispersión e, incluso, aburrimiento. Cuando prepara su clase incluye algún golpe de efecto, algún recurso para generar risas o suspenso. Las emociones están en el centro del proceso de aprendizaje y, con la experiencia, los profesores se vuelven expertos en leer el ánimo del grupo en tiempo real y sin mediaciones.

Pero ahora, en la “sociedad de control”, como la llamó el filósofo francés Gilles Deleuze, todo (o casi todo) es medible. Las señales corporales (gestos, voces, pulsaciones) envían datos que pueden ser procesados para entender no sólo lo que los estudiantes dicen, sino también cómo se sienten en cada segmento de la clase. Así, los docentes podrían saber cuánto de lo que planificaron fue efectivo.

La computación cognitiva es lo que permite la recolección, procesamiento y análisis de estos datos. “Se trata de algoritmos que permiten que las computadoras desarrollen procesos similares a los humanos: ver, escuchar, responder, traducir, razonar”, explica Mariela Bravo, ingeniera y directora del Sector Público de Microsoft Argentina.

Aunque hace tiempo que se investiga en este sentido, su aplicación en el ámbito educativo es muy reciente. Un caso pionero es el de la escuela de negocios IE en Madrid, que lanzó en 2016 su aula WOW, donde los alumnos participan de una clase en conjunto desde cualquier dispositivo y lugar, y que cuenta con un sistema de reconocimiento que le permite medir la atención de los participantes durante la clase.

En la Argentina, Practia, empresa de innovación tecnológica y negocios, Microsoft y la escuela de negocios IAE, de la Universidad Austral, desarrollan el primer proyecto de computación cognitiva aplicado a la educación.

La primera prueba se realizó durante el programa “Leading in Exponential Age” que desarrolla IAE con Singularity University. Se tomaron tres vectores de análisis: el reconocimiento facial e interpretaciones de emociones en los rostros, la transcripción de lo que se dice en el aula y quién lo dice (mediante tecnologías de reconocimiento de voz y de pasaje del habla a texto) y el monitoreo de pulsaciones cardíacas (vía un smartwatch). Practia fue responsable de entrenar los algoritmos de inteligencia artificial y Microsoft aportó las tecnologías utilizadas para algunos de estos procesos.

Con el reconocimiento facial se identifican siete emociones: enojo, desprecio, desagrado, tristeza, sorpresa, felicidad y un estado neutral. El conjunto de las tecnologías permite analizar el comportamiento de los alumnos y contar con un registro de lo que ocurre en el aula. La información, recibida luego por el profesor, permite autoevaluar la clase y el estilo de enseñanza.

“Esto que probamos está en etapa de experimentación y fue trabajado con profesionales con visiones bien distintas para enriquecer el resultado, como profesores, consultores, un neurocientista cognitivo y un médico”, cuenta Roberto Vassolo, director del programa Leading in the Exponencial Age. “Nuestro objetivo es analizar dinámicas de equipo o un aula como sistema”, agrega el académico.

“El propósito era tener información en el aula en determinado contexto y ver si las emociones y pulsaciones cardíacas nos permitían entender lo mismo que el docente entendía que ocurría o si podíamos ver un poco más, iluminar cosas que el docente no había visto”, señala, por su parte, Juan Echagüe, director de Innovación y Desarrollo de Practia.

En el aula, se puso una cámara de alta definición para registrar a los participantes y se repartieron algunos relojes inteligentes para medir las pulsaciones. “Al día siguiente entregamos el informe con un gráfico que muestra al docente cuál fue la emoción que tuvo cada persona a lo largo del tiempo y cuáles tuvo el grupo, tomado como la suma de todas las personas”, detalla.

Desde el punto de vista docente “esta tecnología permite objetivar lo que el profesor percibe subjetivamente y lo enriquece. Porque de una manera tradicional, se puede percibir que a algunos alumnos les están pasando ciertas cosas, y de esta forma podés capturar toda el aula”, dice Vassolo.

Tambié asegura que los alumnos, quienes habían firmado un consentimiento para participar en la prueba, reaccionaron “con mucha curiosidad y entusiasmados” y que, aunque al principio les llamaron la atención los dispositivos, “a los 5 minutos de clase se olvidaron de lo que estaba pasando y se metieron en el proceso”.

Según Vassolo, están en plena fase de experimentación y les va a tomar un año hasta que se llegue a hacer un prototipo para utilizar en el aula.