Lenguaje de marcado de emociones

El lenguaje de marcado de emociones (EML o EmotionML) fue definido por primera vez por el grupo de incubación de emociones del W3C (EmoXG) [1] como un lenguaje de representación y anotación de emociones de propósito general , que debería poder utilizarse en una gran variedad de contextos tecnológicos en los que es necesario representar emociones. La computación orientada a las emociones (o " computación afectiva ") está ganando importancia a medida que los sistemas tecnológicos interactivos se vuelven más sofisticados. Representar los estados emocionales de un usuario o los estados emocionales que se simularán mediante una interfaz de usuario requiere un formato de representación adecuado; en este caso se utiliza un lenguaje de marcado .

La versión 1.0 de EmotionML fue publicada por el grupo en mayo de 2014. [2]

Historia

En 2006, se creó un primer Grupo Incubador del W3C, [3] el Emotion Incubator Group (EmoXG), "para investigar un lenguaje que representara los estados emocionales de los usuarios y los estados emocionales simulados por las interfaces de usuario" [4] y el Informe final se publicó el 10 de julio de 2007. [5]

En 2007, se creó el Emotion Markup Language Incubator Group (EmotionML XG) como continuación del Emotion Markup Language Incubator Group, "para proponer un borrador de especificación para un Emotion Markup Language, para documentarlo de una forma accesible para los no expertos y para ilustrar su uso junto con una serie de marcas existentes". [6] El informe final del Emotion Markup Language Incubator Group, Elements of an EmotionML 1.0 , se publicó el 20 de noviembre de 2008. [7]

El trabajo continuó en 2009 en el marco de la Actividad de Interacción Multimodal del W3C , con el Primer Borrador de Trabajo Público de "Emotion Markup Language (EmotionML) 1.0" publicado el 29 de octubre de 2009. [8] El Borrador de Trabajo de Última Convocatoria de "Emotion Markup Language 1.0" se publicó el 7 de abril de 2011. [9] El Borrador de Trabajo de Última Convocatoria abordó todos los problemas abiertos que surgieron de los comentarios de la comunidad sobre el Borrador de Trabajo de Primera Convocatoria, así como los resultados de un taller celebrado en París en octubre de 2010. [10] Junto con el Borrador de Trabajo de Última Convocatoria, se ha publicado una lista de vocabularios para EmotionML [11] para ayudar a los desarrolladores a utilizar vocabularios comunes para anotar o representar emociones.

Se publicaron borradores de actualizaciones anuales hasta que se terminó la versión 1.0 en 2014.

Razones para definir un lenguaje de marcado de emociones

Un estándar para un lenguaje de marcado de emociones sería útil para los siguientes propósitos:

  • Para mejorar la comunicación entre humanos o entre humanos y máquinas a través de ordenadores . Las emociones son una parte básica de la comunicación humana y, por lo tanto, deben tenerse en cuenta, por ejemplo, en los sistemas de chat emocional o en los buzones de voz enfáticos. Esto implica la especificación, el análisis y la visualización de estados relacionados con las emociones.
  • Para mejorar la eficiencia de procesamiento de los sistemas. La emoción y la inteligencia están estrechamente interconectadas. El modelado de las emociones humanas en el procesamiento informático puede ayudar a construir sistemas más eficientes, por ejemplo, utilizando modelos emocionales para la aplicación de decisiones en situaciones críticas en el tiempo.
  • Permitir el análisis del comportamiento no verbal, las emociones y los estados mentales que se pueden proporcionar mediante servicios web para permitir la recopilación, el análisis y la elaboración de informes de datos.

Algunos ejemplos concretos de tecnología existente en la que se podría aplicar EmotionML incluyen:

  • Minería de opiniones /análisis de sentimientos en la Web 2.0, para rastrear automáticamente la actitud de los clientes con respecto a un producto en todos los blogs;
  • Monitoreo afectivo, como aplicaciones de vida asistida por el ambiente , detección de miedo para fines de vigilancia o uso de sensores portátiles para probar la satisfacción del cliente;
  • Tecnologías de bienestar que brindan asistencia según el estado emocional de una persona con el objetivo de mejorar su bienestar;
  • Diseño y control de personajes para juegos y mundos virtuales;
  • Construcción de servicios web para capturar, analizar e informar datos sobre el comportamiento no verbal, las emociones y los estados mentales de un individuo o grupo a través de Internet utilizando tecnologías web estándar como HTML5 y JSON.
  • Robots sociales , como robots guía que interactúan con los visitantes;
  • Síntesis de voz expresiva , que genera un habla sintética con diferentes emociones, como feliz o triste, amigable o de disculpa; la voz sintética expresiva, por ejemplo, permitiría que haya más información disponible para las personas ciegas o con discapacidad visual y enriquecería su experiencia del contenido;
  • Reconocimiento de emociones (por ejemplo, para detectar clientes enojados en sistemas de diálogo de voz, para mejorar juegos de computadora o aplicaciones de aprendizaje electrónico );
  • Apoyo para personas con discapacidades, como programas educativos para personas con autismo . EmotionML se puede utilizar para hacer explícita la intención emocional del contenido. Esto permitiría a las personas con discapacidades de aprendizaje (como el síndrome de Asperger ) comprender el contexto emocional del contenido;
  • EmotionML se puede utilizar para transcripciones y subtítulos de medios. Cuando se marcan las emociones para ayudar a las personas sordas o con problemas de audición que no pueden oír la banda sonora, se pone a su disposición más información para enriquecer su experiencia del contenido.

El Emotion Incubator Group ha enumerado 39 casos de uso individuales para un lenguaje de marcado de emociones. [12]

Una forma estandarizada de marcar los datos que necesitan estos "sistemas orientados a las emociones" tiene el potencial de impulsar el desarrollo principalmente porque los datos que fueron anotados de forma estandarizada se pueden intercambiar entre sistemas más fácilmente, simplificando así un mercado para bases de datos emocionales, y el estándar se puede utilizar para facilitar un mercado de proveedores de submódulos de sistemas de procesamiento de emociones, por ejemplo, un servicio web para el reconocimiento de emociones a partir de texto, voz o entrada multimodal.

El desafío de definir un lenguaje de marcado de emociones que sea de uso general

Cualquier intento de estandarizar la descripción de las emociones utilizando un conjunto finito de descriptores fijos está condenado al fracaso, ya que no hay consenso sobre el número de emociones relevantes, sobre los nombres que se les deben dar o sobre cuál es la mejor manera de describirlas. Por ejemplo, la diferencia entre ":)" y "(:" es pequeña, pero utilizando un marcado estandarizado la invalidaría. Aún más básico, la lista de estados relacionados con las emociones que se deben distinguir varía según el dominio de aplicación y el aspecto de las emociones en el que se centrará. Básicamente, el vocabulario necesario depende del contexto de uso.

Por otra parte, la estructura básica de los conceptos es menos controvertida: en general se acepta que las emociones implican desencadenantes, valoraciones, sentimientos, comportamiento expresivo que incluye cambios fisiológicos y tendencias a la acción; las emociones en su totalidad pueden describirse en términos de categorías o de un pequeño número de dimensiones; las emociones tienen una intensidad, etc. Para más detalles, véase las Descripciones científicas de las emociones [12] en el Informe final del Emotion Incubator Group.

Dada esta falta de acuerdo sobre los descriptores en el campo, la única forma práctica de definir un lenguaje de marcado de emociones es la definición de posibles elementos estructurales y permitir a los usuarios "incorporar" vocabularios que consideren apropiados para su trabajo.

Otro desafío adicional es el de proporcionar un lenguaje de marcado que sea de uso general. Los requisitos que surgen de los distintos casos de uso [12] son ​​bastante diferentes. Mientras que la anotación manual tiende a requerir todas las distinciones de grano fino consideradas en la literatura científica, los sistemas de reconocimiento automático suelen poder distinguir solo un número muy pequeño de estados diferentes y los avatares afectivos necesitan otro nivel de detalle para expresar emociones de forma adecuada.

Por las razones que se describen aquí, es evidente que existe una tensión inevitable entre flexibilidad e interoperabilidad, que deben tenerse en cuenta en la formulación de un EmotionML. El principio rector de la siguiente especificación ha sido proporcionar una opción solo cuando es necesaria y proponer opciones predeterminadas razonables para cada opción.

Aplicaciones y servicios web que se benefician de un lenguaje de marcado de emociones

Hay una serie de proyectos y aplicaciones existentes [13] en los que un lenguaje de marcado de emociones permitirá la creación de servicios web para medir datos de captura de comportamiento no verbal, estados mentales y emociones de individuos y permitir que los resultados se informen y se muestren en un formato estandarizado utilizando tecnologías web estándar como JSON y HTML5. Uno de estos proyectos es medir datos de afectos en Internet utilizando EyesWeb. [14]

Véase también

Referencias

  1. ^ "Grupo Incubador de Lenguaje de Marcado Emocional del W3C". www.w3.org .
  2. ^ "Lenguaje de marcado de emociones (EmotionML) 1.0". www.w3.org .
  3. ^ "Actividad de la incubadora del W3C". www.w3.org .
  4. ^ "2006 - W3C". www.w3.org .
  5. ^ Informe del grupo de incubación de emociones del W3C del 10 de julio de 2007
  6. ^ "Grupo Incubador del Lenguaje de Marcado de Emociones". www.w3.org .
  7. ^ Elementos de EmotionML 1.0, Informe final del grupo de incubación de lenguajes de marcado de emociones, 20 de noviembre de 2008
  8. ^ "Lenguaje de marcado de emociones (EmotionML) 1.0". www.w3.org .
  9. ^ "Lenguaje de marcado de emociones (EmotionML) 1.0". www.w3.org .
  10. ^ "Taller sobre lenguaje de marcado de emociones del W3C — Resumen — 5-7 de octubre de 2010". www.w3.org .
  11. ^ "Vocabularios para EmotionML". www.w3.org .
  12. ^ abc "Grupo Incubador de Emociones del W3C". www.w3.org .
  13. ^ "Burkhardt, Felix, Christian Becker-Asano, Edmon Begoli, Roddy Cowie, Gerhard Fobe, Patrick Gebhard, Abe Kazemzadeh, Ingmar Steiner y Tim Llewellyn. "Aplicación de la emoción". En Actas del 5º Taller internacional sobre emoción, sentimiento, señales sociales y datos abiertos vinculados (ES3LOD), vol. 80. 2014" (PDF) .
  14. ^ http://www.musicsensorsemotion.com/2010/02/01/sarc-eyesweb-catalog-sec/
Obtenido de "https://es.wikipedia.org/w/index.php?title=Lenguaje_de_marcado_de_emociones&oldid=1112423641"