Computación afectiva

Área de investigación en informática que tiene como objetivo comprender el estado emocional de los usuarios.
Los dispositivos electrónicos como los robots son cada vez más capaces de reconocer e imitar las emociones humanas.

La computación afectiva es el estudio y desarrollo de sistemas y dispositivos que pueden reconocer, interpretar, procesar y simular afectos humanos . Es un campo interdisciplinario que abarca la informática , la psicología y la ciencia cognitiva . [1] Si bien algunas ideas centrales en el campo se pueden rastrear hasta las primeras investigaciones filosóficas sobre la emoción , [2] la rama más moderna de la informática se originó con el artículo de 1995 de Rosalind Picard [3] sobre computación afectiva y su libro Affective Computing [4] publicado por MIT Press . [5] [6] Una de las motivaciones para la investigación es la capacidad de dar a las máquinas inteligencia emocional , incluida la simulación de empatía . La máquina debe interpretar el estado emocional de los humanos y adaptar su comportamiento a ellos, dando una respuesta apropiada a esas emociones.

Áreas

Detectar y reconocer información emocional

La detección de información emocional suele comenzar con sensores pasivos que capturan datos sobre el estado físico o el comportamiento del usuario sin interpretar la información. Los datos recopilados son análogos a las señales que los humanos utilizan para percibir las emociones de los demás. Por ejemplo, una cámara de vídeo puede capturar expresiones faciales, posturas corporales y gestos, mientras que un micrófono puede capturar el habla. Otros sensores detectan señales emocionales midiendo directamente datos fisiológicos , como la temperatura de la piel y la resistencia galvánica . [7]

Para reconocer la información emocional es necesario extraer patrones significativos de los datos recopilados. Esto se hace mediante técnicas de aprendizaje automático que procesan diferentes modalidades , como el reconocimiento de voz , el procesamiento del lenguaje natural o la detección de expresiones faciales . El objetivo de la mayoría de estas técnicas es producir etiquetas que coincidan con las que daría un perceptor humano en la misma situación: por ejemplo, si una persona hace una expresión facial frunciendo el ceño, entonces se le puede enseñar al sistema de visión artificial a etiquetar su rostro como "confundido" o "concentrado" o "ligeramente negativo" (en lugar de positivo, que podría decir si estuviera sonriendo de una manera aparentemente feliz). Estas etiquetas pueden corresponder o no a lo que la persona realmente está sintiendo.

La emoción en las máquinas

Otro campo dentro de la computación afectiva es el diseño de dispositivos computacionales que puedan exhibir capacidades emocionales innatas o que sean capaces de simular emociones de manera convincente. Un enfoque más práctico, basado en las capacidades tecnológicas actuales, es la simulación de emociones en agentes conversacionales con el fin de enriquecer y facilitar la interactividad entre humanos y máquinas. [8]

Marvin Minsky , uno de los científicos informáticos pioneros en inteligencia artificial , relaciona las emociones con los problemas más amplios de la inteligencia de las máquinas al afirmar en The Emotion Machine que la emoción "no es especialmente diferente de los procesos que llamamos 'pensamiento'". [9] El enfoque innovador de los "humanos digitales" o humanos virtuales incluye un intento de dar a estos programas, que simulan humanos, también la dimensión emocional, incluyendo reacciones de acuerdo con la reacción que una persona real reaccionaría en una determinada situación emocionalmente estimulante, así como expresiones faciales y gestos. [10]

La emoción en las máquinas suele referirse a la emoción en sistemas computacionales, a menudo basados ​​en IA. Como resultado, se utilizan los términos "IA emocional" e "IA de las emociones". [11]

Tecnologías

En psicología, ciencia cognitiva y neurociencia, existen dos enfoques principales para describir cómo los seres humanos perciben y clasifican las emociones: continuo o categórico. El enfoque continuo tiende a utilizar dimensiones como negativo vs. positivo, calma vs. excitación.

El enfoque categórico tiende a utilizar clases discretas como feliz, triste, enojado, temeroso, sorpresa, disgusto. Se pueden utilizar diferentes tipos de modelos de regresión y clasificación de aprendizaje automático para que las máquinas produzcan etiquetas continuas o discretas. A veces, también se construyen modelos que permiten combinaciones entre las categorías, por ejemplo, una cara feliz-sorprendida o una cara temerosa-sorprendida. [12]

Las siguientes secciones consideran muchos de los tipos de datos de entrada utilizados para la tarea de reconocimiento de emociones .

Discurso emocional

Diversos cambios en el sistema nervioso autónomo pueden alterar indirectamente el habla de una persona, y las tecnologías afectivas pueden aprovechar esta información para reconocer emociones. Por ejemplo, el habla producida en un estado de miedo, enojo o alegría se vuelve rápida, fuerte y precisa, con un rango de tono más alto y más amplio, mientras que emociones como el cansancio, el aburrimiento o la tristeza tienden a generar un habla lenta, grave y arrastrada. [13] Se ha descubierto que algunas emociones se identifican más fácilmente mediante computación, como el enojo [14] o la aprobación. [15]

Las tecnologías de procesamiento del habla emocional reconocen el estado emocional del usuario mediante el análisis computacional de las características del habla. Los parámetros vocales y las características prosódicas , como las variables de tono y la velocidad del habla, se pueden analizar mediante técnicas de reconocimiento de patrones. [14] [16]

El análisis del habla es un método eficaz para identificar el estado afectivo, con una precisión promedio reportada del 70 al 80% en investigaciones de 2003 y 2006. [17] [18] Estos sistemas tienden a superar la precisión humana promedio (aproximadamente el 60% [14] ), pero son menos precisos que los sistemas que emplean otras modalidades para la detección de emociones, como estados fisiológicos o expresiones faciales. [19] Sin embargo, dado que muchas características del habla son independientes de la semántica o la cultura, esta técnica se considera una ruta prometedora para futuras investigaciones. [20]

Algoritmos

El proceso de detección de afectos del habla/texto requiere la creación de una base de datos confiable , una base de conocimiento o un modelo de espacio vectorial [21] lo suficientemente amplio como para adaptarse a cada necesidad de su aplicación, así como la selección de un clasificador exitoso que permita una identificación rápida y precisa de las emociones.

A partir de 2010 [actualizar], los clasificadores utilizados con mayor frecuencia fueron los clasificadores discriminantes lineales (LDC), los k-vecinos más cercanos (k-NN), el modelo de mezcla gaussiana (GMM), las máquinas de vectores de soporte (SVM), las redes neuronales artificiales (ANN), los algoritmos de árboles de decisión y los modelos ocultos de Markov (HMM). [22] Varios estudios demostraron que elegir el clasificador apropiado puede mejorar significativamente el rendimiento general del sistema. [19] La siguiente lista ofrece una breve descripción de cada algoritmo:

  • LDC – La clasificación se realiza en función del valor obtenido de la combinación lineal de los valores de las características, que normalmente se proporcionan en forma de características vectoriales.
  • k-NN : la clasificación se realiza ubicando el objeto en el espacio de características y comparándolo con los k vecinos más cercanos (ejemplos de entrenamiento). La mayoría de votos decide la clasificación.
  • GMM – es un modelo probabilístico utilizado para representar la existencia de subpoblaciones dentro de la población general. Cada subpoblación se describe utilizando la distribución mixta, que permite la clasificación de las observaciones en subpoblaciones. [23]
  • SVM – es un tipo de clasificador lineal (generalmente binario) que decide en cuál de las dos (o más) clases posibles puede caer cada entrada.
  • ANN es un modelo matemático, inspirado en redes neuronales biológicas, que puede comprender mejor las posibles no linealidades del espacio de características.
  • Algoritmos de árbol de decisión : funcionan siguiendo un árbol de decisión en el que las hojas representan el resultado de la clasificación y las ramas representan la conjunción de características subsiguientes que conducen a la clasificación.
  • Los HMM son modelos estadísticos de Markov en los que los estados y las transiciones de estados no están directamente disponibles para la observación, sino que son visibles las series de resultados que dependen de los estados. En el caso del reconocimiento de afectos, los resultados representan la secuencia de vectores de características del habla, que permiten deducir las secuencias de estados por las que ha progresado el modelo. Los estados pueden consistir en varios pasos intermedios en la expresión de una emoción, y cada uno de ellos tiene una distribución de probabilidad sobre los posibles vectores de salida. Las secuencias de estados nos permiten predecir el estado afectivo que estamos tratando de clasificar, y esta es una de las técnicas más utilizadas en el área de detección de afectos del habla.

Se ha demostrado que, teniendo suficiente evidencia acústica disponible, el estado emocional de una persona puede clasificarse mediante un conjunto de clasificadores de votación mayoritaria. El conjunto de clasificadores propuesto se basa en tres clasificadores principales: kNN, C4.5 y SVM-RBF Kernel. Este conjunto logra un mejor rendimiento que cada clasificador básico tomado por separado. Se compara con otros dos conjuntos de clasificadores: SVM multiclase uno contra todos (OAA) con kernels híbridos y el conjunto de clasificadores que consta de los siguientes dos clasificadores básicos: C5.0 y Red neuronal. La variante propuesta logra un mejor rendimiento que los otros dos conjuntos de clasificadores. [24]

Bases de datos

La gran mayoría de los sistemas actuales dependen de los datos. Esto crea uno de los mayores desafíos en la detección de emociones basadas en el habla, ya que implica elegir una base de datos apropiada para entrenar al clasificador. La mayoría de los datos que se poseen actualmente se obtuvieron de actores y, por lo tanto, son una representación de emociones arquetípicas. Las llamadas bases de datos actuadas generalmente se basan en la teoría de las emociones básicas (de Paul Ekman ), que asume la existencia de seis emociones básicas (ira, miedo, asco, sorpresa, alegría, tristeza), siendo las otras simplemente una mezcla de las anteriores. [25] Sin embargo, estas aún ofrecen una alta calidad de audio y clases equilibradas (aunque a menudo demasiado pocas), lo que contribuye a altas tasas de éxito en el reconocimiento de emociones.

Sin embargo, para la aplicación en la vida real, se prefieren los datos naturalistas. Una base de datos naturalista se puede generar mediante la observación y el análisis de sujetos en su contexto natural. En última instancia, dicha base de datos debería permitir al sistema reconocer emociones en función de su contexto, así como determinar los objetivos y resultados de la interacción. La naturaleza de este tipo de datos permite una implementación auténtica en la vida real, debido al hecho de que describe estados que ocurren naturalmente durante la interacción humano-computadora (HCI).

A pesar de las numerosas ventajas que tienen los datos naturalistas sobre los datos actuados, son difíciles de obtener y normalmente tienen una intensidad emocional baja. Además, los datos obtenidos en un contexto natural tienen una calidad de señal inferior, debido al ruido del entorno y la distancia de los sujetos al micrófono. El primer intento de producir una base de datos de este tipo fue el FAU Aibo Emotion Corpus para CEICES (Combining Efforts for Improving Automatic Classification of Emotional User States), que se desarrolló en base a un contexto realista de niños (de 10 a 13 años) jugando con la mascota robot Aibo de Sony. [26] [27] Del mismo modo, la producción de una base de datos estándar para toda la investigación emocional proporcionaría un método para evaluar y comparar diferentes sistemas de reconocimiento de afectos.

Descriptores del habla

La complejidad del proceso de reconocimiento de afectos aumenta con el número de clases (afectos) y descriptores de habla utilizados dentro del clasificador. Por lo tanto, es crucial seleccionar solo las características más relevantes para asegurar la capacidad del modelo para identificar emociones con éxito, así como para aumentar el rendimiento, lo que es particularmente significativo para la detección en tiempo real. El rango de opciones posibles es amplio y algunos estudios mencionan el uso de más de 200 características distintas. [22] Es crucial identificar aquellas que son redundantes e indeseables para optimizar el sistema y aumentar la tasa de éxito de la detección correcta de emociones. Las características del habla más comunes se clasifican en los siguientes grupos. [26] [27]

  1. Características de frecuencia [28]
    • Forma del acento: afectada por la tasa de cambio de la frecuencia fundamental.
    • Tono promedio: descripción de qué tan alto o bajo habla el hablante en relación con el habla normal.
    • Pendiente de contorno: describe la tendencia del cambio de frecuencia a lo largo del tiempo; puede ser ascendente, descendente o nivelada.
    • Descenso final: la cantidad en que cae la frecuencia al final de un enunciado.
    • Rango de tono: mide la diferencia entre la frecuencia máxima y mínima de un enunciado.
  2. Características relacionadas con el tiempo:
    • Velocidad del habla: describe la velocidad de las palabras o sílabas pronunciadas en una unidad de tiempo.
    • Frecuencia de acento: mide la tasa de ocurrencia de expresiones acentuadas en el tono.
  3. Parámetros de calidad de voz y descriptores de energía:
    • Respiración: mide el ruido de aspiración en el habla.
    • Brillantez: describe el predominio de frecuencias altas o bajas en el habla.
    • Volumen: mide la amplitud de la forma de onda del habla y se traduce en la energía de un enunciado.
    • Pausa Discontinuidad: describe las transiciones entre el sonido y el silencio.
    • Discontinuidad de tono: describe las transiciones de la frecuencia fundamental.

Detección de afecto facial

La detección y procesamiento de la expresión facial se logra a través de varios métodos como el flujo óptico , los modelos ocultos de Markov , el procesamiento de redes neuronales o los modelos de apariencia activa. Se pueden combinar o fusionar más de una modalidad (reconocimiento multimodal, por ejemplo, expresiones faciales y prosodia del habla, [29] expresiones faciales y gestos de la mano, [30] o expresiones faciales con habla y texto para análisis de datos y metadatos multimodales) para proporcionar una estimación más robusta del estado emocional del sujeto.

Bases de datos de expresiones faciales

La creación de una base de datos de emociones es una tarea difícil y que requiere mucho tiempo. Sin embargo, la creación de una base de datos es un paso esencial en la creación de un sistema que reconozca las emociones humanas. La mayoría de las bases de datos de emociones disponibles públicamente incluyen solo expresiones faciales posadas. En las bases de datos de expresiones posadas, se pide a los participantes que muestren diferentes expresiones emocionales básicas, mientras que en la base de datos de expresiones espontáneas, las expresiones son naturales. La provocación espontánea de emociones requiere un esfuerzo significativo en la selección de estímulos adecuados que puedan conducir a una rica exhibición de emociones deseadas. En segundo lugar, el proceso implica el etiquetado manual de las emociones por parte de personas capacitadas, lo que hace que las bases de datos sean altamente confiables. Dado que la percepción de las expresiones y su intensidad es de naturaleza subjetiva, la anotación por parte de expertos es esencial para el propósito de la validación.

Los investigadores trabajan con tres tipos de bases de datos: una base de datos que contiene únicamente imágenes de expresión máxima, una base de datos de secuencias de imágenes que representan una emoción desde el estado neutro hasta el máximo, y videoclips con anotaciones emocionales. Se han creado y publicado muchas bases de datos de expresión facial con el fin de reconocer expresiones. Dos de las bases de datos más utilizadas son CK+ y JAFFE.

Clasificación de emociones

A finales de los años 1960, durante una investigación transcultural realizada en Papúa Nueva Guinea sobre los miembros de la tribu Fore, Paul Ekman propuso la idea de que las expresiones faciales de las emociones no están determinadas culturalmente, sino que son universales. Por tanto, sugirió que tienen un origen biológico y, por lo tanto, se pueden categorizar de forma segura y correcta. [25] Por ello, en 1972, propuso oficialmente seis emociones básicas: [31]

Sin embargo, en la década de 1990, Ekman amplió su lista de emociones básicas, incluyendo una gama de emociones positivas y negativas, no todas las cuales están codificadas en los músculos faciales. [32] Las emociones recientemente incluidas son:

  1. Diversión
  2. Desprecio
  3. Contentamiento
  4. Vergüenza
  5. Excitación
  6. Culpa
  7. Orgullo por el logro
  8. Alivio
  9. Satisfacción
  10. Placer sensorial
  11. Lástima

Sistema de codificación de acciones faciales

Los psicólogos han ideado un sistema para categorizar formalmente la expresión física de las emociones en los rostros. El concepto central del Sistema de Codificación de la Acción Facial (FACS, por sus siglas en inglés), creado por Paul Ekman y Wallace V. Friesen en 1978 basándose en trabajos anteriores de Carl-Herman Hjortsjö [33] , son las unidades de acción (UA). Básicamente, son una contracción o relajación de uno o más músculos. Los psicólogos han propuesto la siguiente clasificación de seis emociones básicas, según sus unidades de acción (aquí "+" significa "y"):

EmociónUnidades de acción
Felicidad6+12
Tristeza1+4+15
Sorpresa1+2+5B+26
Miedo1+2+4+5+20+26
Enojo4+5+7+23
Asco9+15+16
DesprecioR12A+R14A

Desafíos en la detección facial

Al igual que con cualquier práctica computacional, en la detección de afectos mediante procesamiento facial, es necesario superar algunos obstáculos para liberar por completo el potencial oculto del algoritmo o método general empleado. En los primeros días de casi todos los tipos de detección basada en IA (reconocimiento de voz, reconocimiento facial, reconocimiento de afectos), la precisión del modelado y el seguimiento ha sido un problema. A medida que evoluciona el hardware, se recopilan más datos y se realizan nuevos descubrimientos y se introducen nuevas prácticas, esta falta de precisión se desvanece, dejando atrás los problemas de ruido. Sin embargo, existen métodos para eliminar el ruido, incluido el promedio de vecindad, el suavizado gaussiano lineal , el filtrado de mediana [34] o métodos más nuevos como el algoritmo de optimización de búsqueda de alimentos bacterianos. [35] [36]

Otros desafíos incluyen:

  • El hecho de que las expresiones planteadas, tal como las utilizan la mayoría de los sujetos de los diversos estudios, no sean naturales y, por lo tanto, los algoritmos entrenados en ellas puedan no aplicarse a expresiones naturales.
  • La falta de libertad de movimiento rotacional. La detección de afectos funciona muy bien con el uso frontal, pero al girar la cabeza más de 20 grados, "ha habido problemas". [37]
  • Las expresiones faciales no siempre corresponden a una emoción subyacente que las coincide (por ejemplo, pueden ser posadas o fingidas, o una persona puede sentir emociones pero mantener una "cara de póquer").
  • FACS no incluyó dinámicas, aunque éstas pueden ayudar a eliminar la ambigüedad (por ejemplo, las sonrisas de felicidad genuina tienden a tener dinámicas diferentes a las sonrisas de "tratar de parecer feliz").
  • Las combinaciones de FACS no se corresponden de manera 1:1 con las emociones que los psicólogos propusieron originalmente (nótese que esta falta de un mapeo 1:1 también ocurre en el reconocimiento de habla con homófonos y homónimos y muchas otras fuentes de ambigüedad, y puede mitigarse incorporando otros canales de información).
  • La precisión del reconocimiento mejora al agregar contexto; sin embargo, agregar contexto y otras modalidades aumenta el costo computacional y la complejidad.

Gesto corporal

Los gestos pueden utilizarse de manera eficiente como medio para detectar un estado emocional particular del usuario, especialmente cuando se utilizan en conjunto con el reconocimiento de voz y de rostros. Dependiendo de la acción específica, los gestos pueden ser respuestas reflexivas simples, como levantar los hombros cuando no se sabe la respuesta a una pregunta, o pueden ser complejos y significativos como cuando se comunica con el lenguaje de señas. Sin hacer uso de ningún objeto o entorno circundante, podemos mover las manos, aplaudir o hacer señas. Por otro lado, cuando utilizamos objetos, podemos señalarlos, moverlos, tocarlos o manipularlos. Una computadora debe ser capaz de reconocerlos, analizar el contexto y responder de manera significativa, para poder ser utilizada de manera eficiente para la interacción persona-computadora.

Existen muchos métodos propuestos [38] para detectar el gesto corporal. Algunas publicaciones distinguen dos enfoques diferentes en el reconocimiento de gestos: uno basado en modelos 3D y otro basado en la apariencia. [39] El método más importante hace uso de información 3D de elementos clave de las partes del cuerpo para obtener varios parámetros importantes, como la posición de la palma o los ángulos de las articulaciones. Por otro lado, los sistemas basados ​​en la apariencia utilizan imágenes o videos para la interpretación directa. Los gestos de las manos han sido un enfoque común de los métodos de detección de gestos corporales. [39]

Monitoreo fisiológico

Esto podría utilizarse para detectar el estado afectivo de un usuario mediante el seguimiento y análisis de sus signos fisiológicos. Estos signos van desde cambios en la frecuencia cardíaca y la conductancia de la piel hasta pequeñas contracciones de los músculos faciales y cambios en el flujo sanguíneo facial. Esta área está ganando impulso y ahora estamos viendo productos reales que implementan las técnicas. Los cuatro signos fisiológicos principales que se suelen analizar son el pulso del volumen sanguíneo , la respuesta galvánica de la piel , la electromiografía facial y los patrones de color facial.

Pulso del volumen sanguíneo

Descripción general

El pulso del volumen sanguíneo (BVP) de un sujeto se puede medir mediante un proceso llamado fotopletismografía , que produce un gráfico que indica el flujo sanguíneo a través de las extremidades. [40] Los picos de las ondas indican un ciclo cardíaco en el que el corazón ha bombeado sangre a las extremidades. Si el sujeto experimenta miedo o se asusta, su corazón generalmente "salta" y late rápidamente durante algún tiempo, lo que hace que la amplitud del ciclo cardíaco aumente. Esto se puede ver claramente en un fotopletismógrafo cuando la distancia entre el valle y el pico de la onda ha disminuido. A medida que el sujeto se calma y el núcleo interno del cuerpo se expande, lo que permite que fluya más sangre de regreso a las extremidades, el ciclo volverá a la normalidad.

Metodología

Un sensor especial proyecta luz infrarroja sobre la piel y mide la cantidad de luz reflejada. La cantidad de luz reflejada y transmitida se correlaciona con la PVB, ya que la luz es absorbida por la hemoglobina, que se encuentra en abundancia en el torrente sanguíneo.

Desventajas

Puede resultar complicado asegurarse de que el sensor que emite una luz infrarroja y controla la luz reflejada esté siempre apuntando a la misma extremidad, sobre todo teniendo en cuenta que los sujetos suelen estirarse y reajustar su posición mientras utilizan un ordenador. Hay otros factores que pueden afectar al pulso del volumen sanguíneo de una persona. Como se trata de una medida del flujo sanguíneo a través de las extremidades, si el sujeto siente calor o especialmente frío, su cuerpo puede permitir que fluya más o menos sangre a las extremidades, todo ello independientemente del estado emocional del sujeto.

El músculo corrugador superciliar y el músculo cigomático mayor son los dos músculos principales utilizados para medir la actividad eléctrica en la electromiografía facial.

Electromiografía facial

La electromiografía facial es una técnica utilizada para medir la actividad eléctrica de los músculos faciales amplificando los pequeños impulsos eléctricos que generan las fibras musculares cuando se contraen. [41] La cara expresa una gran cantidad de emociones, sin embargo, hay dos grupos principales de músculos faciales que generalmente se estudian para detectar emociones: El músculo corrugador superciliar, también conocido como el músculo del "cejo fruncido", baja la ceja en un ceño fruncido y, por lo tanto, es la mejor prueba para la respuesta emocional negativa y desagradable. ↵ El músculo cigomático mayor es responsable de tirar de las comisuras de la boca hacia atrás cuando sonríes y, por lo tanto, es el músculo utilizado para probar una respuesta emocional positiva.

Aquí podemos ver un gráfico de la resistencia de la piel medida mediante GSR y el tiempo mientras el sujeto jugaba a un videojuego. Hay varios picos que son claros en el gráfico, lo que sugiere que GSR es un buen método para diferenciar entre un estado de excitación y uno de no excitación. Por ejemplo, al comienzo del juego, cuando normalmente no hay mucho juego emocionante, se registra un alto nivel de resistencia, lo que sugiere un bajo nivel de conductividad y, por lo tanto, menos excitación. Esto está en claro contraste con el valle repentino en el que el jugador muere, ya que uno suele estar muy estresado y tenso porque su personaje muere en el juego.

Respuesta galvánica de la piel

La respuesta galvánica de la piel (GSR) es un término obsoleto para un fenómeno más general conocido como [actividad electrodérmica] o EDA. La EDA es un fenómeno general por el cual cambian las propiedades eléctricas de la piel. La piel está inervada por el [sistema nervioso simpático], por lo que medir su resistencia o conductancia proporciona una forma de cuantificar pequeños cambios en la rama simpática del sistema nervioso autónomo. A medida que se activan las glándulas sudoríparas, incluso antes de que la piel se sienta sudorosa, se puede capturar el nivel de EDA (generalmente utilizando la conductancia) y usarlo para discernir pequeños cambios en la excitación autónoma. Cuanto más excitado está un sujeto, mayor tiende a ser la conductancia de la piel. [40]

La conductancia de la piel se mide a menudo utilizando dos pequeños electrodos de plata y cloruro de plata colocados en algún lugar de la piel y aplicando un pequeño voltaje entre ellos. Para maximizar la comodidad y reducir la irritación, los electrodos se pueden colocar en la muñeca, las piernas o los pies, lo que deja las manos completamente libres para la actividad diaria.

Color facial

Descripción general

La superficie del rostro humano está inervada por una gran red de vasos sanguíneos. Las variaciones del flujo sanguíneo en estos vasos producen cambios visibles de color en el rostro. Independientemente de que las emociones faciales activen o no los músculos faciales, se producen variaciones en el flujo sanguíneo, la presión arterial, los niveles de glucosa y otros cambios. Además, la señal de color facial es independiente de la proporcionada por los movimientos de los músculos faciales. [42]

Metodología

Los enfoques se basan en los cambios de color facial. La triangulación de Delaunay se utiliza para crear las áreas locales triangulares. Se eliminan algunos de estos triángulos que definen el interior de la boca y los ojos (esclerótica e iris). Utilice los píxeles de las áreas triangulares de la izquierda para crear vectores de características. [42] Esto demuestra que la conversión del color de píxel del espacio de color RGB estándar a un espacio de color como el espacio de color oRGB [43] o los canales LMS funcionan mejor cuando se trata de rostros. [44] Por lo tanto, asigne el vector anterior al mejor espacio de color y descompóngalo en canales rojo-verde y amarillo-azul. Luego, utilice métodos de aprendizaje profundo para encontrar emociones equivalentes.

Estética visual

En el mundo del arte y la fotografía, la estética se refiere a los principios de la naturaleza y la apreciación de la belleza. Juzgar la belleza y otras cualidades estéticas es una tarea sumamente subjetiva. Los científicos informáticos de Penn State abordan el desafío de inferir automáticamente la calidad estética de las imágenes utilizando su contenido visual como un problema de aprendizaje automático, utilizando un sitio web para compartir fotografías en línea calificado por pares como fuente de datos. [45] Extraen ciertas características visuales basándose en la intuición de que pueden discriminar entre imágenes estéticamente agradables y desagradables.

Aplicaciones potenciales

Educación

El afecto influye en el estado de aprendizaje de los alumnos. Mediante el uso de la tecnología de computación afectiva, las computadoras pueden juzgar el afecto y el estado de aprendizaje de los alumnos al reconocer sus expresiones faciales. En educación, el maestro puede utilizar el resultado del análisis para comprender la capacidad de aprendizaje y aceptación del estudiante, y luego formular planes de enseñanza razonables. Al mismo tiempo, pueden prestar atención a los sentimientos internos de los estudiantes, lo que es útil para la salud psicológica de los estudiantes. Especialmente en la educación a distancia, debido a la separación del tiempo y el espacio, no existe un incentivo emocional entre maestros y estudiantes para la comunicación bidireccional. Sin la atmósfera que brinda el aprendizaje tradicional en el aula, los estudiantes se aburren fácilmente y afectan el efecto del aprendizaje. La aplicación de la computación afectiva en el sistema de educación a distancia puede mejorar esta situación de manera efectiva. [46]

Transporte

Las aplicaciones de la computación sensorial pueden contribuir a mejorar la seguridad vial. Por ejemplo, un automóvil puede monitorizar las emociones de todos los ocupantes y adoptar medidas de seguridad adicionales, como alertar a otros vehículos si detecta que el conductor está enfadado. [47] Además, los sistemas de computación afectiva para monitorizar el estrés del conductor pueden permitir diversas intervenciones, como sistemas de asistencia al conductor ajustados en función del nivel de estrés [48] e intervenciones mínimas y directas para cambiar el estado emocional del conductor. [49]

Cuidado de la salud

Los robots sociales , así como un número cada vez mayor de robots utilizados en el ámbito de la atención sanitaria, se benefician de la conciencia emocional, ya que pueden juzgar mejor los estados emocionales de los usuarios y los pacientes y modificar sus acciones o su programación de forma adecuada. Esto es especialmente importante en aquellos países con poblaciones envejecidas y/o con una falta de trabajadores jóvenes para atender sus necesidades. [50]

La informática afectiva también se está aplicando al desarrollo de tecnologías comunicativas para su uso por parte de personas con autismo. [51] El componente afectivo de un texto también está ganando cada vez más atención, en particular su papel en la llamada Internet emocional o emotiva . [52]

Juegos de vídeo

Los videojuegos afectivos pueden acceder a los estados emocionales de sus jugadores a través de dispositivos de biorretroalimentación . [53] Una forma particularmente simple de biorretroalimentación está disponible a través de gamepads que miden la presión con la que se presiona un botón: se ha demostrado que esto se correlaciona fuertemente con el nivel de excitación de los jugadores ; [54] en el otro extremo de la escala están las interfaces cerebro-computadora . [55] [56] Los juegos afectivos se han utilizado en la investigación médica para apoyar el desarrollo emocional de los niños autistas . [57]

Entrenamiento psicomotor

Los métodos de entrenamiento de operaciones psicomotoras , como la dirección y la maniobra, se utilizan en diversos campos, como la aviación, el transporte y la medicina. Se ha comprobado que la integración de capacidades de computación afectiva en este tipo de sistemas de entrenamiento, de acuerdo con el enfoque de automatización adaptativa, es eficaz para mejorar la calidad del entrenamiento y acortar la duración requerida del mismo. [58]

Otras aplicaciones

La computación afectiva tiene aplicaciones potenciales en la interacción hombre-computadora , como espejos afectivos que permiten al usuario ver cómo se desempeña; agentes de monitoreo de emociones que envían una advertencia antes de que uno envíe un correo electrónico enojado; o incluso reproductores de música que seleccionan pistas según el estado de ánimo. [59]

Una idea que el investigador rumano Dr. Nicu Sebe propuso en una entrevista es el análisis del rostro de una persona mientras usa un determinado producto (mencionó el helado como ejemplo). [60] Las empresas podrían entonces utilizar dicho análisis para inferir si su producto será o no bien recibido por el mercado respectivo.

También se podría utilizar el reconocimiento de estados afectivos para juzgar el impacto de un anuncio televisivo a través de una grabación en vídeo en tiempo real de esa persona y del posterior estudio de su expresión facial. Promediando los resultados obtenidos sobre un grupo amplio de sujetos, se puede saber si ese anuncio (o película) tiene el efecto deseado y cuáles son los elementos que más interesan al espectador.

Enfoques cognitivistas vs. interaccionistas

En el campo de la interacción hombre-computadora , el concepto cognitivista o "modelo de información" de la emoción de Rosalind Picard ha sido criticado y contrastado con el enfoque pragmático "poscognitivista" o "interaccionista" adoptado por Kirsten Boehner y otros, que considera la emoción como inherentemente social. [61]

El enfoque de Picard es la interacción entre humanos y computadoras, y su objetivo para la computación afectiva es "dar a las computadoras la capacidad de reconocer, expresar y, en algunos casos, 'tener' emociones". [4] En contraste, el enfoque interaccional busca ayudar a "las personas a comprender y experimentar sus propias emociones" [62] y mejorar la comunicación interpersonal mediada por computadoras. No busca necesariamente mapear la emoción en un modelo matemático objetivo para la interpretación de las máquinas, sino más bien permitir que los humanos le den sentido a las expresiones emocionales de los demás de maneras abiertas que pueden ser ambiguas, subjetivas y sensibles al contexto. [62] : 284  [ ejemplo necesario ]

Los críticos de Picard describen su concepto de emoción como "objetivo, interno, privado y mecanicista". Dicen que reduce la emoción a una señal psicológica discreta que ocurre dentro del cuerpo y que puede medirse y que es un insumo para la cognición, socavando la complejidad de la experiencia emocional. [62] : 280  [62] : 278 

El enfoque interaccionista afirma que, aunque la emoción tiene aspectos biofísicos, está "culturalmente arraigada, se experimenta dinámicamente y, hasta cierto punto, se construye en la acción y la interacción". [62] : 276  Dicho de otro modo, considera "la emoción como un producto social y cultural experimentado a través de nuestras interacciones". [63] [62] [64]

Véase también

Referencias

Citas

  1. ^ Tao, Jianhua; Tieniu Tan (2005). "Computación afectiva: una revisión". Computación afectiva e interacción inteligente . Vol.  LNCS 3784. Springer. págs. 981–995. doi :10.1007/11573548.
  2. ^ James, William (1884). “¿Qué es la emoción?”. Mind . 9 (34): 188–205. doi :10.1093/mind/os-IX.34.188.Citado por Tao y Tan.
  3. ^ "Computación afectiva" Informe técnico del MIT nº 321 (resumen), 1995
  4. ^ ab Picard, Rosalind (1997). Computación afectiva . Cambridge, MA: MIT Press. pág. 1.
  5. ^ Kleine-Cosack, Christian (octubre de 2006). «Reconocimiento y simulación de emociones» (PDF) . Archivado desde el original (PDF) el 28 de mayo de 2008. Consultado el 13 de mayo de 2008. La introducción de la emoción en la informática fue realizada por Pickard (sic), quien creó el campo de la computación afectiva.
  6. ^ Diamond, David (diciembre de 2003). "The Love Machine; Building computers that care" (La máquina del amor; construyendo computadoras que se preocupan). Wired . Archivado desde el original el 18 de mayo de 2008. Consultado el 13 de mayo de 2008. Rosalind Picard, una genial profesora del MIT, es la madrina de este campo; su libro de 1997, Affective Computing (Computación afectiva ), desencadenó una explosión de interés en el lado emocional de las computadoras y sus usuarios.
  7. ^ Garay, Nestor; Idoia Cearreta; Juan Miguel López; Inmaculada Fajardo (abril de 2006). «Tecnología de asistencia y mediación afectiva» (PDF) . Human Technology . 2 (1): 55–83. doi : 10.17011/ht/urn.2006159 . Archivado (PDF) desde el original el 28 de mayo de 2008 . Consultado el 12 de mayo de 2008 .
  8. ^ Heise, David (2004). "Enculturación de agentes con conductas de rol expresivas". En Sabine Payr; Trappl, Robert (eds.). Cultura de agente: interacción entre humanos y agentes en un mundo multicultural . Lawrence Erlbaum Associates. págs. 127–142.
  9. ^ Restak, Richard (17 de diciembre de 2006). "La mente sobre la materia". The Washington Post . Consultado el 13 de mayo de 2008 .
  10. ^ Loveys, Kate; Sagar, Mark; Broadbent, Elizabeth (22 de julio de 2020). "El efecto de la expresión emocional multimodal en las respuestas a un humano digital durante una conversación de autorrevelación: un análisis computacional del lenguaje del usuario". Revista de sistemas médicos . 44 (9): 143. doi :10.1007/s10916-020-01624-4. ISSN  0148-5598. PMID  32700060. S2CID  220717084.
  11. ^ Ho, Manh-Tung (29 de marzo de 2023). "Un marco analítico para estudiar la actitud hacia la IA emocional: el enfoque de tres frentes". MethodsX . 10 (102149). doi :10.1016/j.mex.2023.102149. PMC 10113835 . PMID  37091958. 
  12. ^ Aleix, y Shichuan Du, Martínez (2012). "Un modelo de la percepción de las expresiones faciales de la emoción por parte de los humanos: visión general y perspectivas de la investigación" (PDF) . The Journal of Machine Learning Research . 13 (1): 1589–1608.
  13. ^ Breazeal, Cynthia; Aryananda, Lijin (2002). "Reconocimiento de la intención comunicativa afectiva en el habla dirigida por robots" (PDF) . Robots Autónomos . 12 (1). Saltador: 83–104. doi :10.1023/a:1013215010749. ISSN  0929-5593. S2CID  459892.
  14. ^ abc Dellaert, F., Polizin, T., y Waibel, A., Reconocimiento de emociones en el habla", en Proc. Of ICSLP 1996, Filadelfia, PA, págs. 1970-1973, 1996
  15. ^ Roy, D.; Pentland, A. (1 de octubre de 1996). "Clasificación y análisis automático de los afectos hablados". Actas de la Segunda Conferencia Internacional sobre Reconocimiento Automático de Rostros y Gestos . pp. 363–367. doi :10.1109/AFGR.1996.557292. ISBN 978-0-8186-7713-7. Número de identificación del sujeto  23157273.
  16. ^ Lee, CM; Narayanan, S.; Pieraccini, R., Reconocimiento de emociones negativas en las señales del habla humana, Taller sobre reconocimiento y comprensión del habla automática, diciembre de 2001
  17. ^ Neiberg, D; Elenius, K; Laskowski, K (2006). "Reconocimiento de emociones en el habla espontánea mediante GMM" (PDF) . Actas de Interspeech . doi :10.21437/Interspeech.2006-277. S2CID  5790745.
  18. ^ Yacoub, Sherif; Simske, Steve; Lin, Xiaofan; Burns, John (2003). "Reconocimiento de emociones en sistemas de respuesta de voz interactivos". Actas de Eurospeech : 729–732. CiteSeerX 10.1.1.420.8158 . doi :10.21437/Eurospeech.2003-307. S2CID  11671944. 
  19. ^ por Hudlicka 2003, pág. 24
  20. ^ Hudlicka 2003, pág. 25
  21. ^ Charles Osgood; William May; Murray Miron (1975). Universales transculturales del significado afectivo . Univ. de Illinois Press. ISBN 978-94-007-5069-2.
  22. ^ ab Scherer, Bänziger y Roesch 2010, p. 241
  23. ^ "Modelo de mezcla gaussiana". Connexions – Sharing Knowledge and Building Communities. Consultado el 10 de marzo de 2011.
  24. ^ SE Khoruzhnikov; et al. (2014). "Reconocimiento y predicción de emociones en el habla extendida". Revista científica y técnica de tecnologías de la información, mecánica y óptica . 14 (6): 137.
  25. ^ ab Ekman, P. y Friesen, W. V (1969). El repertorio de la conducta no verbal: categorías, orígenes, uso y codificación. Semiotica, 1, 49–98.
  26. ^ ab Steidl, Stefan (5 de marzo de 2011). "Corpus de emociones FAU Aibo". Laboratorio de reconocimiento de patrones.
  27. ^ ab Scherer, Bänziger y Roesch 2010, p. 243
  28. ^ Singh, Premjeet; Saha, Goutam; Sahidullah, Md (2021). "Deformación de frecuencia no lineal mediante transformación de Q constante para el reconocimiento de emociones del habla". 2021 Conferencia internacional sobre comunicación informática e informática (ICCCI) . págs. 1–4. arXiv : 2102.04029 . doi :10.1109/ICCCI50826.2021.9402569. ISBN 978-1-7281-5875-4. Número de identificación del sujeto  231846518.
  29. ^ Caridakis, G.; Malatesta, L.; Kessous, L.; Amir, N.; Raouzaiou, A.; Karpouzis, K. (2–4 de noviembre de 2006). Modelado de estados afectivos naturalistas mediante el reconocimiento de expresiones faciales y vocales. Conferencia internacional sobre interfaces multimodales (ICMI'06). Banff, Alberta, Canadá.
  30. ^ Balomenos, T.; Raouzaiou, A.; Ioannou, S.; Drosopoulos, A.; Karpouzis, K.; Kollias, S. (2004). "Análisis de emociones en sistemas de interacción hombre-máquina". En Bengio, Samy; Bourlard, Herve (eds.). Aprendizaje automático para interacción multimodal . Apuntes de clase en informática . Vol. 3361. Springer-Verlag . págs. 318–328.
  31. ^ Ekman, Paul (1972). Cole, J. (ed.). Diferencias universales y culturales en la expresión facial de la emoción . Simposio de Nebraska sobre motivación. Lincoln, Nebraska: University of Nebraska Press. págs. 207–283.
  32. ^ Ekman, Paul (1999). "Emociones básicas". En Dalgleish, T; Power, M (eds.). Manual de cognición y emoción (PDF) . Sussex, Reino Unido: John Wiley & Sons. Archivado desde el original (PDF) el 28 de diciembre de 2010..
  33. ^ "Sistema de codificación de acciones faciales (FACS) y manual FACS" Archivado el 19 de octubre de 2013 en Wayback Machine . Un rostro humano. Consultado el 21 de marzo de 2011.
  34. ^ "Métodos del dominio espacial".
  35. ^ Algoritmos inteligentes. «Algoritmo de optimización de la búsqueda de alimentos por bacterias – Algoritmos de enjambre – Algoritmos inteligentes» Archivado el 12 de junio de 2019 en Wayback Machine . Algoritmos inteligentes. Consultado el 21 de marzo de 2011.
  36. ^ "Soft Computing". Soft Computing. Consultado el 18 de marzo de 2011.
  37. ^ Williams, Mark. "Better Face-Recognition Software – Technology Review" Archivado el 8 de junio de 2011 en Wayback Machine . Technology Review: The Authority on the Future of Technology. Consultado el 21 de marzo de 2011.
  38. ^ JK Aggarwal, Q. Cai, Análisis del movimiento humano: una revisión, Computer Vision and Image Understanding, vol. 73, n.º 3, 1999
  39. ^ ab Pavlovic, Vladimir I.; Sharma, Rajeev; Huang, Thomas S. (1997). "Interpretación visual de gestos manuales para la interacción entre humanos y computadoras: una revisión" (PDF) . Transacciones IEEE sobre análisis de patrones e inteligencia artificial . 19 (7): 677–695. doi :10.1109/34.598226. S2CID  7185733.
  40. ^ ab Picard, Rosalind (1998). Computación afectiva. MIT.
  41. ^ Larsen JT, Norris CJ, Cacioppo JT, "Efectos del afecto positivo y negativo en la actividad electromiográfica sobre el músculo cigomático mayor y el corrugador superciliar", (septiembre de 2003)
  42. ^ ab Benitez-Quiroz, Carlos F.; Srinivasan, Ramprakash; Martinez, Aleix M. (19 de marzo de 2018). "El color facial es un mecanismo eficiente para transmitir visualmente la emoción". Actas de la Academia Nacional de Ciencias . 115 (14): 3581–3586. Bibcode :2018PNAS..115.3581B. doi : 10.1073/pnas.1716084115 . PMC 5889636 . PMID  29555780. 
  43. ^ Bratkova, Margarita; Boulos, Solomon; Shirley, Peter (2009). "oRGB: un espacio de color oponente práctico para gráficos de computadora". IEEE Computer Graphics and Applications . 29 (1): 42–55. doi :10.1109/mcg.2009.13. PMID  19363957. S2CID  16690341.
  44. ^ Hadas Shahar, Hagit Hel-Or , Clasificación de microexpresiones usando colores faciales y métodos de aprendizaje profundo, Conferencia internacional IEEE sobre visión artificial (ICCV), 2019, págs. 0–0.
  45. ^ Ritendra Datta, Dhiraj Joshi, Jia Li y James Z. Wang, Estudio de la estética en imágenes fotográficas mediante un enfoque computacional, Lecture Notes in Computer Science, vol. 3953, Actas de la Conferencia Europea sobre Visión por Computador, Parte III, págs. 288-301, Graz, Austria, mayo de 2006.
  46. ^ Wu, Chih-Hung; Huang, Yueh-Min; Hwang, Jan-Pan (noviembre de 2016). "Revisión de la informática afectiva en la educación/aprendizaje: tendencias y desafíos". British Journal of Educational Technology . 47 (6): 1304–1323. doi :10.1111/bjet.12324.
  47. ^ "El reconocimiento facial en el automóvil detecta a los conductores enfadados para evitar la violencia al volante". Gizmodo . 30 de agosto de 2018.
  48. ^ Collet, Christian; Musicant, Oren (24 de abril de 2019). "Asociar la automatización de los vehículos con los sistemas de evaluación del estado funcional de los conductores: un desafío para la seguridad vial en el futuro". Frontiers in Human Neuroscience . 13 : 131. doi : 10.3389/fnhum.2019.00131 . ISSN  1662-5161. PMC 6503868 . PMID  31114489. 
  49. ^ Balters, Stephanie; Bernstein, Madeline; Paredes, Pablo E. (2 de mayo de 2019). "Análisis del estrés en carretera para intervenciones en el automóvil durante el viaje". Resúmenes ampliados de la Conferencia CHI de 2019 sobre factores humanos en sistemas informáticos . ACM. págs. 1–6. doi :10.1145/3290607.3312824. ISBN . 978-1-4503-5971-9.S2CID144207824  .
  50. ^ Yonck, Richard (2017). El corazón de la máquina: nuestro futuro en un mundo de inteligencia emocional artificial . Nueva York: Arcade Publishing. pp. 150–153. ISBN 9781628727333.OCLC 956349457  .
  51. ^ Proyectos en Computación Afectiva
  52. ^ Shanahan, James; Qu, Yan; Wiebe, Janyce (2006). Cálculo de la actitud y el afecto en el texto: teoría y aplicaciones . Dordrecht: Springer Science & Business Media. pág. 94. ISBN 1402040261 
  53. ^ Gilleade, Kiel Mark; Dix, Alan; Allanson, Jen (2005). Videojuegos afectivos y modos de juego afectivo: Ayúdame, desafíame, emotivame (PDF) . Proc. DiGRA Conf. Archivado desde el original (PDF) el 2015-04-06 . Consultado el 2016-12-10 .
  54. ^ Sykes, Jonathan; Brown, Simon (2003). Juegos afectivos: medición de emociones a través del gamepad . CHI '03 Resúmenes ampliados sobre factores humanos en sistemas informáticos. CiteSeerX 10.1.1.92.2123 . doi :10.1145/765891.765957. ISBN .  1581136374.
  55. ^ Nijholt, Anton; Plass-Oude Bos, Danny; Reuderink, Boris (2009). "Convertir las deficiencias en desafíos: interfaces cerebro-computadora para juegos" (PDF) . Informática del entretenimiento . 1 (2): 85–94. Bibcode :2009itie.conf..153N. doi :10.1016/j.entcom.2009.09.007.
  56. ^ Reuderink, Boris; Nijholt, Anton; Poel, Mannes (2009). Pacman afectivo: un juego frustrante para experimentos de interfaz cerebro-computadora . Tecnologías inteligentes para el entretenimiento interactivo (INTETAIN). págs. 221–227. doi :10.1007/978-3-642-02315-6_23. ISBN 978-3-642-02314-9.
  57. ^ Khandaker, M (2009). "Diseño de videojuegos afectivos para apoyar el desarrollo socioemocional de adolescentes con trastornos del espectro autista". Estudios en Tecnología e Informática de la Salud . 144 : 37–9. PMID  19592726.
  58. ^ Sahar, Yotam; Wagner, Michael; Barel, Ariel; Shoval, Shraga (1 de noviembre de 2022). "Entrenamiento adaptativo al estrés: un entrenamiento psicomotor adaptativo según el estrés medido por la fuerza de agarre". Sensores . 22 (21): 8368. Bibcode :2022Senso..22.8368S. doi : 10.3390/s22218368 . ISSN  1424-8220. PMC 9654132 . PMID  36366066. 
  59. ^ Janssen, Joris H.; van den Broek, Egon L. (julio de 2012). "Sintonízate con tus emociones: un reproductor de música afectivo personalizado y robusto". Modelado de usuarios e interacción adaptada al usuario . 22 (3): 255–279. doi : 10.1007/s11257-011-9107-7 . hdl : 2066/103051 .
  60. ^ "Mona Lisa: ¿sonriendo? Científicos informáticos desarrollan software que evalúa expresiones faciales". ScienceDaily . 1 de agosto de 2006. Archivado desde el original el 19 de octubre de 2007.
  61. ^ Battarbee, Katja; Koskinen, Ilpo (2005). "Co-experiencia: la experiencia del usuario como interacción" (PDF) . CoDesign . 1 (1): 5–18. CiteSeerX 10.1.1.294.9178 . doi :10.1080/15710880412331289917. S2CID  15296236. Archivado desde el original (PDF) el 2017-12-14 . Consultado el 2016-02-02 . 
  62. ^ abcdef Boehner, Kirsten; DePaula, Rogerio; Dourish, Paul ; Sengers, Phoebe (2007). "Cómo se crea y se mide la emoción". Revista internacional de estudios humanos-informáticos . 65 (4): 275–291. doi :10.1016/j.ijhcs.2006.11.016. S2CID  15551492.
  63. ^ Boehner, Kirsten; DePaula, Rogerio; Dourish, Paul ; Sengers, Phoebe (2005). "Afecto: de la información a la interacción". Actas de la Conferencia Decenal de Aarhus sobre Computación Crítica : 59–68.
  64. ^ Gancho, Kristina; Staahl, Anna; Sundstrom, Petra; Laaksolahti, Jarmo (2008). "Empoderamiento interactivo" (PDF) . Proc. CHI : 647–656.

Obras citadas

  • Hudlicka, Eva (2003). "Sentir o no sentir: el papel del afecto en la interacción humano-ordenador". Revista Internacional de Estudios Humano-Ordenadores . 59 (1–2): 1–32. CiteSeerX  10.1.1.180.6429 . doi :10.1016/s1071-5819(03)00047-8.
  • Scherer, Klaus R; Bänziger, Tanja; Roesch, Etienne B (2010). Un modelo para la computación afectiva: un libro de consulta y un manual. Oxford: Oxford University Press. ISBN 978-0-19-956670-9.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Affective_computing&oldid=1249022654"