Es posible detectar emociones en el habla mediante inteligencia artificial

Detectar la agresividad en las llamadas a call-centers, monitorizar el estrés en pilotos de aviones o permitir la creación de servicios de chat en el ámbito de la psiquiatría y de la psicología son solo algunas de las aplicaciones que pueden tener los sistemas de reconocimiento de emociones mediante voz.

Si bien es un campo relativamente nuevo, en España unos investigadores de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid (UPM), en colaboración con el Grupo de Inteligencia Computacional de la Universidad del País Vasco (UPV/EHU), están trabajando para que, a través de técnicas de aprendizaje profundo (o Deep Learning, una modalidad de inteligencia artificial), sea posible crear un modelo basado en redes neuronales profundas que permita reconocer emociones en el lenguaje hablado.

De este modo, “el sistema puede reaccionar de una u otra forma según cada caso, monitorizando las respuestas para orientar el diálogo o redirigirlo a un humano”, dijo el profesor de la UPM y miembro del proyecto, Javier de Lope.

El grupo de investigadores, perteneciente al Departamento de Inteligencia Artificial de la ETSIINF, lleva años trabajando en sistemas de reconocimiento de emociones tanto desde el aprendizaje automático (una modalidad clásica de inteligencia artificial) como con la aplicación de técnicas de aprendizaje profundo.

“El modelo que se propone en este trabajo utiliza este segundo tipo de técnicas. Nos centramos en el reconocimiento de un conjunto básico de ocho emociones primarias, siguiendo uno de los modelos de más aceptación en dominios de estudio del comportamiento, como psicología y neurología”, añadió Lope.

Estas emociones se asocian con estados o situaciones de calma, felicidad, tristeza, enfado, miedo, asco y sorpresa, a las que se añade un estado neutral.

VTV/CC/EMPG

Fuente: NCYT