La introducción de este artículo puede ser demasiado breve para resumir adecuadamente los puntos clave . ( Febrero de 2020 ) |
La prosodia emocional o prosodia afectiva son los diversos aspectos paralingüísticos del uso del lenguaje que transmiten emociones . [1] Incluye el tono de voz de un individuo en el habla que se transmite a través de cambios en el tono , volumen , timbre , velocidad del habla y pausas . Puede aislarse de la información semántica e interactúa con el contenido verbal (por ejemplo, el sarcasmo ). [2]
La prosodia emocional en el habla se percibe o decodifica un poco peor que las expresiones faciales , pero la precisión varía según las emociones. La ira y la tristeza se perciben con mayor facilidad, seguidas del miedo y la felicidad, y el disgusto es el peor percibido. [3] [ se necesita una mejor fuente ]
Los estudios han demostrado que algunas emociones , como el miedo, la alegría y la ira, se expresan con una frecuencia más alta que emociones como la tristeza. [4]
La decodificación de las emociones en el habla incluye tres etapas: determinar las características acústicas, crear conexiones significativas con estas características y procesar los patrones acústicos en relación con las conexiones establecidas. En la etapa de procesamiento, las conexiones con el conocimiento emocional básico se almacenan por separado en la red de memoria específica para las asociaciones. Estas asociaciones se pueden utilizar para formar una línea de base para las expresiones emocionales encontradas en el futuro. Los significados emocionales del habla se registran de forma implícita y automática después de que se hayan analizado las circunstancias, la importancia y otros detalles circundantes de un evento. [6]
En promedio, los oyentes pueden percibir las emociones intencionales que se les muestran a una tasa significativamente mejor que la del azar (azar = aproximadamente 10%). [5] Sin embargo, las tasas de error también son altas. Esto se debe en parte a la observación de que los oyentes son más precisos en la inferencia emocional a partir de voces particulares y perciben algunas emociones mejor que otras. [4] Las expresiones vocales de ira y tristeza se perciben con mayor facilidad, el miedo y la felicidad se perciben solo moderadamente bien, y el asco tiene baja perceptibilidad. [3] [ fuente autopublicada ? ]
El lenguaje se puede dividir en dos componentes: los canales verbal y vocal. El canal verbal es el contenido semántico creado por las palabras elegidas por el hablante. En el canal verbal, el contenido semántico de las palabras del hablante determina el significado de la oración. Sin embargo, la forma en que se dice una oración puede cambiar su significado, que es el canal vocal. Este canal del lenguaje transmite las emociones que siente el hablante y nos da a nosotros, como oyentes, una mejor idea del significado pretendido. Los matices en este canal se expresan a través de la entonación , la intensidad y el ritmo que se combinan para formar la prosodia . Por lo general, estos canales transmiten la misma emoción, pero a veces difieren. El sarcasmo y la ironía son dos formas de humor basadas en este estilo incongruente. [7]
Los procesos neurológicos que integran componentes verbales y vocales (prosódicos) son relativamente poco claros. Sin embargo, se supone que el contenido verbal y vocal se procesan en diferentes hemisferios del cerebro . El contenido verbal compuesto de información sintáctica y semántica se procesa en el hemisferio izquierdo . La información sintáctica se procesa principalmente en las regiones frontales y una pequeña parte del lóbulo temporal del cerebro, mientras que la información semántica se procesa principalmente en las regiones temporales con una parte más pequeña de los lóbulos frontales incorporados. Por el contrario, la prosodia se procesa principalmente en la misma vía que el contenido verbal, pero en el hemisferio derecho . Los estudios de neuroimagen que utilizan máquinas de imágenes por resonancia magnética funcional (fMRI) brindan más apoyo para esta lateralización hemisférica y activación temporofrontal. Sin embargo, algunos estudios muestran evidencia de que la percepción de la prosodia no está lateralizada exclusivamente al hemisferio derecho y puede ser más bilateral. Existe cierta evidencia de que los ganglios basales también pueden desempeñar un papel importante en la percepción de la prosodia. [7]
Los déficits en la expresión y comprensión de la prosodia, causados por lesiones en el hemisferio derecho, se conocen como aprosodias . Estas pueden manifestarse de diferentes formas y en diversas enfermedades o dolencias mentales . La aprosodia también puede ser causada por un accidente cerebrovascular y el abuso de alcohol . Los tipos de aprosodia incluyen: motora (la incapacidad de producir inflexión vocal), expresiva (cuando las limitaciones cerebrales y no las funciones motoras son la causa de esta incapacidad) y receptiva (cuando una persona no puede descifrar el habla emocional). [8]
Se ha descubierto que, a medida que aumenta la edad, resulta cada vez más difícil reconocer las expresiones vocales de las emociones. Los adultos mayores tienen una dificultad ligeramente mayor que los adultos jóvenes para etiquetar las expresiones vocales de las emociones, en particular la tristeza y la ira, pero tienen una dificultad mucho mayor para integrar las emociones vocales y las expresiones faciales correspondientes. Una posible explicación de esta dificultad es que la combinación de dos fuentes de emoción requiere una mayor activación de las áreas emocionales del cerebro, en las que los adultos muestran un volumen y una actividad reducidos. Otra posible explicación es que la pérdida de audición podría haber provocado una escucha incorrecta de las expresiones vocales. Se sabe que la pérdida de audición de alta frecuencia comienza a aparecer alrededor de los 50 años, especialmente en los hombres. [9]
Debido a que el hemisferio derecho del cerebro está asociado con la prosodia, los pacientes con lesiones en el hemisferio derecho tienen dificultad para variar los patrones del habla para transmitir emociones. Por lo tanto, su habla puede sonar monótona. Además, se ha estudiado que las personas con daño en el hemisferio derecho tienen problemas para identificar la emoción en oraciones entonadas.
La dificultad para decodificar tanto la prosodia sintáctica como la afectiva también se encuentra en personas con trastorno del espectro autista y esquizofrenia , donde "los pacientes tienen déficits en una gran cantidad de dominios funcionales, incluidas las habilidades sociales y la cognición social. Estos deterioros sociales consisten en dificultades para percibir, comprender, anticipar y reaccionar a las señales sociales que son cruciales para la interacción social normal". Esto se ha determinado en múltiples estudios, como el estudio de 2017 de Hoekert et al. sobre la prosodia emocional en la esquizofrenia, que ilustró que se deben realizar más investigaciones para confirmar completamente la correlación entre la enfermedad y la prosodia emocional. Sin embargo, las personas con esquizofrenia no tienen problemas para descifrar la prosodia no emocional. [10]
Los estados emocionales como la felicidad, la tristeza, la ira y el disgusto se pueden determinar únicamente en función de la estructura acústica de un acto de habla no lingüístico. Estos actos pueden ser gruñidos, suspiros , exclamaciones, etc. Hay algunas investigaciones que respaldan la idea de que estos actos no lingüísticos son universales y suscitan las mismas suposiciones incluso en hablantes de diferentes idiomas.
Además, se ha demostrado que la emoción se puede expresar en vocalizaciones no lingüísticas de forma diferente que en el habla. Como afirman Laukka et al.: El habla requiere un movimiento altamente preciso y coordinado de los articuladores (p. ej., labios , lengua y laringe ) para transmitir información lingüística, mientras que las vocalizaciones no lingüísticas no están limitadas por códigos lingüísticos y, por lo tanto, no requieren articulaciones tan precisas. Esto implica que las vocalizaciones no lingüísticas pueden exhibir rangos más amplios para muchas características acústicas que las expresiones prosódicas.
En su estudio, se pidió a los actores que vocalizaran una serie de emociones diferentes sin palabras. El estudio demostró que los oyentes podían identificar una amplia gama de emociones positivas y negativas sin que fuera una casualidad. Sin embargo, emociones como la culpa y el orgullo eran menos fáciles de reconocer. [11]
En un estudio de 2015 realizado por Verena Kersken, Klaus Zuberbühler y Juan Carlos Gómez, se presentaron a adultos vocalizaciones no lingüísticas de bebés para ver si estos podían distinguirlas de las vocalizaciones de los bebés que indicaban solicitudes de ayuda, señalaban un objeto o indicaban un evento. Los bebés muestran diferentes elementos prosódicos al llorar, dependiendo de por qué lloran. También tienen diferentes arrebatos para estados emocionales positivos y negativos. Se determinó que la capacidad de descifrar esta información era aplicable en todas las culturas e independiente del nivel de experiencia del adulto con bebés.
Los hombres y las mujeres difieren tanto en la forma en que utilizan el lenguaje como en la forma en que lo entienden. Se sabe que existe una diferencia en la velocidad del habla, el rango de tono, la duración del habla y la pendiente del tono (Fitzsimmons et al.). Por ejemplo, "en un estudio de la relación entre los signos espectrales y prosódicos, se estableció que la dependencia del tono y la duración diferían en hombres y mujeres que pronunciaban las oraciones en entonación afirmativa e inquisitiva. El ritmo del habla , el rango de tono y la pendiente del tono difieren entre los géneros" (Nesic et al.). Un ejemplo de ello es cómo las mujeres tienen más probabilidades de hablar más rápido, alargar los finales de las palabras y elevar el tono al final de las oraciones.
Las mujeres y los hombres también son diferentes en la forma en que procesan neurológicamente la prosodia emocional. En un estudio de fMRI, los hombres mostraron una activación más fuerte en más áreas corticales que las mujeres al procesar el significado o la manera de una frase emocional. En la tarea de manera, los hombres tuvieron más activación en los giros temporales medios bilaterales . Para las mujeres, la única área significativa fue el lóbulo cerebeloso posterior derecho . Los sujetos masculinos en este estudio mostraron una activación más fuerte en la corteza prefrontal y, en promedio, necesitaron un tiempo de respuesta más largo que las mujeres. Este resultado se interpretó como que los hombres necesitan hacer inferencias conscientes sobre los actos e intenciones del hablante, mientras que las mujeres pueden hacerlo de manera subconsciente. Por lo tanto, los hombres necesitaban integrar la semántica lingüística y la intención emocional "en una etapa más alta que la etapa de procesamiento semántico". [12]
La mayoría de las investigaciones sobre la expresión vocal de las emociones se han realizado mediante el uso de habla sintética o representaciones de emociones por parte de actores profesionales. Se han realizado pocas investigaciones con muestras de habla espontánea, "natural". Se ha considerado que estas muestras de habla artificial se acercan al habla natural, pero en concreto las representaciones de los actores pueden estar influidas por estereotipos de expresión vocal emocional y pueden exhibir características intensificadas del habla que sesgan las percepciones de los oyentes. Otra consideración radica en las percepciones individuales de los oyentes. Los estudios suelen tomar el promedio de las respuestas, pero pocos examinan las diferencias individuales en gran profundidad. Esto puede proporcionar una mejor comprensión de las expresiones vocales de las emociones. [5]