Una investigación comprueba que los sistemas de inteligencia artificial son capaces de identificar casi al 100% las emociones de las personas cuando no llevan mascarilla.
Los sistemas artificiales, como los robots de atención domiciliaria o la tecnología de asistencia al conductor, son cada vez más comunes, y es oportuno investigar si las personas o los algoritmos son mejores en la lectura de las emociones, sobre todo teniendo en cuenta el reto añadido que suponen las máscaras faciales.
En nuestro reciente estudio, se compara cómo las máscaras faciales o las gafas de sol afectan a nuestra capacidad para determinar diferentes emociones en comparación con la precisión de los sistemas artificiales.
Los sistemas artificiales obtuvieron resultados significativamente mejores que las personas en el reconocimiento de las emociones cuando el rostro no estaba cubierto: un 98,48% frente a un 82,72% para siete tipos de emociones diferentes.
Pero dependiendo del tipo de cobertura, la precisión tanto de las personas como de los sistemas artificiales varió. Por ejemplo, las gafas de sol ocultaron el miedo para las personas, mientras que las máscaras parciales ayudaron tanto a las personas como a los sistemas artificiales a identificar correctamente la felicidad.
Es importante destacar que las personas clasificaron las expresiones desconocidas principalmente como neutras, pero los sistemas artificiales fueron menos sistemáticos. A menudo seleccionaban incorrectamente la ira para las imágenes oscurecidas con una máscara completa, y la ira, la felicidad, la neutralidad o la sorpresa para las expresiones parcialmente enmascaradas.
Descodificación de las expresiones faciales
Nuestra capacidad para reconocer las emociones utiliza el sistema visual del cerebro para interpretar lo que vemos. Incluso tenemos un área del cerebro especializada en el reconocimiento de caras, conocida como área facial fusiforme, que ayuda a interpretar la información que revelan los rostros de las personas.
Junto con el contexto de una situación concreta (interacción social, habla y movimiento corporal) y nuestra comprensión de los comportamientos pasados y la simpatía hacia nuestros propios sentimientos, podemos descodificar cómo se siente la gente.
Se ha propuesto un sistema de unidades de acción facial para descodificar las emociones a partir de las señales faciales. Incluye unidades como «el levantamiento de la mejilla» y «el tirón de la comisura de los labios», que se consideran parte de una expresión de felicidad.
Por el contrario, los sistemas artificiales analizan los píxeles de las imágenes de un rostro a la hora de clasificar las emociones. Pasan los valores de intensidad de los píxeles por una red de filtros que imitan el sistema visual humano.
El hallazgo de que los sistemas artificiales clasifican mal las emociones de los rostros parcialmente oscurecidos es importante. Podría dar lugar a comportamientos inesperados de los robots que interactúan con personas que llevan máscaras faciales.
Imaginemos que clasifican erróneamente una emoción negativa, como la ira o la tristeza, como una expresión emocional positiva. Los sistemas artificiales tratarían de interactuar con una persona realizando acciones en base a la interpretación errónea de que está feliz. Esto podría tener efectos perjudiciales para la seguridad de estos sistemas artificiales y de los humanos que interactúan.
Riesgos del uso de algoritmos para leer las emociones
La investigación reitera que los algoritmos son susceptibles de sufrir sesgos en sus juicios. Por ejemplo, el rendimiento de los sistemas artificiales se ve muy afectado cuando se trata de categorizar emociones a partir de imágenes naturales. Incluso el ángulo o la sombra del sol pueden influir en los resultados.
Los algoritmos también pueden tener un sesgo racial. Como se ha comprobado en estudios anteriores, incluso un pequeño cambio en el color de la imagen, que no tiene nada que ver con las expresiones emocionales, puede provocar un descenso en el rendimiento de los algoritmos utilizados en los sistemas artificiales.