Este artículo utiliza URL simples , que no son informativas y son vulnerables a la pérdida de enlaces . ( Septiembre de 2022 ) |
El lenguaje de marcado de emociones (EML o EmotionML) fue definido por primera vez por el grupo de incubación de emociones del W3C (EmoXG) [1] como un lenguaje de representación y anotación de emociones de propósito general , que debería poder utilizarse en una gran variedad de contextos tecnológicos en los que es necesario representar emociones. La computación orientada a las emociones (o " computación afectiva ") está ganando importancia a medida que los sistemas tecnológicos interactivos se vuelven más sofisticados. Representar los estados emocionales de un usuario o los estados emocionales que se simularán mediante una interfaz de usuario requiere un formato de representación adecuado; en este caso se utiliza un lenguaje de marcado .
La versión 1.0 de EmotionML fue publicada por el grupo en mayo de 2014. [2]
En 2006, se creó un primer Grupo Incubador del W3C, [3] el Emotion Incubator Group (EmoXG), "para investigar un lenguaje que representara los estados emocionales de los usuarios y los estados emocionales simulados por las interfaces de usuario" [4] y el Informe final se publicó el 10 de julio de 2007. [5]
En 2007, se creó el Emotion Markup Language Incubator Group (EmotionML XG) como continuación del Emotion Markup Language Incubator Group, "para proponer un borrador de especificación para un Emotion Markup Language, para documentarlo de una forma accesible para los no expertos y para ilustrar su uso junto con una serie de marcas existentes". [6] El informe final del Emotion Markup Language Incubator Group, Elements of an EmotionML 1.0 , se publicó el 20 de noviembre de 2008. [7]
El trabajo continuó en 2009 en el marco de la Actividad de Interacción Multimodal del W3C , con el Primer Borrador de Trabajo Público de "Emotion Markup Language (EmotionML) 1.0" publicado el 29 de octubre de 2009. [8] El Borrador de Trabajo de Última Convocatoria de "Emotion Markup Language 1.0" se publicó el 7 de abril de 2011. [9] El Borrador de Trabajo de Última Convocatoria abordó todos los problemas abiertos que surgieron de los comentarios de la comunidad sobre el Borrador de Trabajo de Primera Convocatoria, así como los resultados de un taller celebrado en París en octubre de 2010. [10] Junto con el Borrador de Trabajo de Última Convocatoria, se ha publicado una lista de vocabularios para EmotionML [11] para ayudar a los desarrolladores a utilizar vocabularios comunes para anotar o representar emociones.
Se publicaron borradores de actualizaciones anuales hasta que se terminó la versión 1.0 en 2014.
Un estándar para un lenguaje de marcado de emociones sería útil para los siguientes propósitos:
Algunos ejemplos concretos de tecnología existente en la que se podría aplicar EmotionML incluyen:
El Emotion Incubator Group ha enumerado 39 casos de uso individuales para un lenguaje de marcado de emociones. [12]
Una forma estandarizada de marcar los datos que necesitan estos "sistemas orientados a las emociones" tiene el potencial de impulsar el desarrollo principalmente porque los datos que fueron anotados de forma estandarizada se pueden intercambiar entre sistemas más fácilmente, simplificando así un mercado para bases de datos emocionales, y el estándar se puede utilizar para facilitar un mercado de proveedores de submódulos de sistemas de procesamiento de emociones, por ejemplo, un servicio web para el reconocimiento de emociones a partir de texto, voz o entrada multimodal.
Cualquier intento de estandarizar la descripción de las emociones utilizando un conjunto finito de descriptores fijos está condenado al fracaso, ya que no hay consenso sobre el número de emociones relevantes, sobre los nombres que se les deben dar o sobre cuál es la mejor manera de describirlas. Por ejemplo, la diferencia entre ":)" y "(:" es pequeña, pero utilizando un marcado estandarizado la invalidaría. Aún más básico, la lista de estados relacionados con las emociones que se deben distinguir varía según el dominio de aplicación y el aspecto de las emociones en el que se centrará. Básicamente, el vocabulario necesario depende del contexto de uso.
Por otra parte, la estructura básica de los conceptos es menos controvertida: en general se acepta que las emociones implican desencadenantes, valoraciones, sentimientos, comportamiento expresivo que incluye cambios fisiológicos y tendencias a la acción; las emociones en su totalidad pueden describirse en términos de categorías o de un pequeño número de dimensiones; las emociones tienen una intensidad, etc. Para más detalles, véase las Descripciones científicas de las emociones [12] en el Informe final del Emotion Incubator Group.
Dada esta falta de acuerdo sobre los descriptores en el campo, la única forma práctica de definir un lenguaje de marcado de emociones es la definición de posibles elementos estructurales y permitir a los usuarios "incorporar" vocabularios que consideren apropiados para su trabajo.
Otro desafío adicional es el de proporcionar un lenguaje de marcado que sea de uso general. Los requisitos que surgen de los distintos casos de uso [12] son bastante diferentes. Mientras que la anotación manual tiende a requerir todas las distinciones de grano fino consideradas en la literatura científica, los sistemas de reconocimiento automático suelen poder distinguir solo un número muy pequeño de estados diferentes y los avatares afectivos necesitan otro nivel de detalle para expresar emociones de forma adecuada.
Por las razones que se describen aquí, es evidente que existe una tensión inevitable entre flexibilidad e interoperabilidad, que deben tenerse en cuenta en la formulación de un EmotionML. El principio rector de la siguiente especificación ha sido proporcionar una opción solo cuando es necesaria y proponer opciones predeterminadas razonables para cada opción.
Hay una serie de proyectos y aplicaciones existentes [13] en los que un lenguaje de marcado de emociones permitirá la creación de servicios web para medir datos de captura de comportamiento no verbal, estados mentales y emociones de individuos y permitir que los resultados se informen y se muestren en un formato estandarizado utilizando tecnologías web estándar como JSON y HTML5. Uno de estos proyectos es medir datos de afectos en Internet utilizando EyesWeb. [14]