Un grupo de científicos de la Universidad Nacional del Litoral desarrolló un sistema de inteligencia artificial que procesa la señal de la voz del hablante para identificar automáticamente la emoción que transmite esa alocución. A diferencia de los modelos de reconocimiento del habla como los que permiten el marcado por voz en los celulares- este sistema no trata de identificar qué se dice sino cómo se lo dice. Es decir, intenta descifrar la información implícita en la señal que refiere al estado emocional de la persona que habla.