Una interfaz de usuario tangible ( TUI ) es una interfaz de usuario en la que una persona interactúa con información digital a través del entorno físico. El nombre inicial era Interfaz de usuario tangible, que ya no se utiliza. El propósito del desarrollo de TUI es potenciar la colaboración, el aprendizaje y el diseño al dar formas físicas a la información digital, aprovechando así la capacidad humana de agarrar y manipular objetos y materiales físicos. [1]
Este lenguaje fue concebido por primera vez por Radia Perlman como un nuevo lenguaje de programación que enseñaría a niños mucho más pequeños de manera similar a Logo, pero utilizando "teclados" especiales y dispositivos de entrada. Otro pionero en interfaces de usuario tangibles es Hiroshi Ishii , un profesor del MIT que dirige el Tangible Media Group en el MIT Media Lab . Su visión particular para las IU tangibles, llamadas Tangible Bits , es dar forma física a la información digital, haciendo que los bits sean directamente manipulables y perceptibles. Los bits tangibles persiguen el acoplamiento perfecto entre objetos físicos y datos virtuales.
Existen varios marcos que describen las características clave de las interfaces de usuario tangibles. Brygg Ullmer y Hiroshi Ishii describen seis características relacionadas con la representación y el control: [2]
Eva Hornecker y Jacob Buur describen un marco estructurado con cuatro temas: [3]
Según Mi Jeong Kim y Mary Lou Maher, las cinco propiedades definitorias básicas de las interfaces de usuario tangibles son las siguientes: [4]
Una interfaz de usuario tangible debe diferenciarse de una interfaz gráfica de usuario (GUI). Una GUI existe solo en el mundo digital, mientras que una TUI conecta el mundo digital con el mundo físico. Por ejemplo, una pantalla muestra la información digital, mientras que un mouse nos permite interactuar directamente con esta información digital. [5] Una interfaz de usuario tangible representa la entrada directamente en el mundo físico y hace que la información digital sea directamente comprensible. [6]
Por lo general, las interfaces de usuario tangibles se construyen para un grupo objetivo específico, debido a la escasa variedad de posibles áreas de aplicación. Por lo tanto, el diseño de la interfaz debe desarrollarse junto con el grupo objetivo para garantizar una buena experiencia de usuario. [7]
En comparación con una interfaz de usuario de interfaz de usuario (TUI), una interfaz gráfica de usuario tiene una amplia gama de usos en una sola interfaz, por lo que está dirigida a un gran grupo de posibles usuarios. [7]
Una ventaja de la TUI es la experiencia de usuario, ya que se produce una interacción física entre el usuario y la propia interfaz (p. ej.: SandScape: Construye tu propio paisaje con arena). Otra ventaja es la usabilidad, ya que el usuario sabe intuitivamente cómo utilizar la interfaz al conocer la función del objeto físico. Por lo tanto, el usuario no necesita aprender la funcionalidad. Por eso, la interfaz de usuario tangible se utiliza a menudo para hacer que la tecnología sea más accesible para las personas mayores. [6]
Tipo de interfaz/atributos | Interfaz de usuario tangible | Interfaz gráfica de usuario |
---|---|---|
Gama de posibles áreas de aplicación | Construir para un área de aplicación específica | Diseñado para muchos tipos de áreas de aplicación. |
Cómo se acciona el sistema | Objetos físicos, como un ratón o un teclado. | Basado en bits gráficos, como píxeles en la pantalla. |
Acoplamiento entre bits cognitivos y la salida física | Conexión sin mediación | Conexión indirecta |
Cómo se impulsa la experiencia del usuario | El usuario ya conoce la función de la interfaz al saber cómo funcionan los objetos físicos. | El usuario explora la funcionalidad de la interfaz. |
Comportamiento del usuario al acercarse al sistema | Intuición | Reconocimiento |
[7]
Un ejemplo sencillo de interfaz de usuario tangible es el ratón de ordenador: al arrastrar el ratón sobre una superficie plana, se mueve un puntero en la pantalla en consecuencia. Existe una relación muy clara entre los comportamientos que muestra un sistema y los movimientos del ratón. Otros ejemplos son:
Se han llevado a cabo varios enfoques para establecer un middleware genérico para las TUI. Estos tienen como objetivo la independencia de los dominios de aplicación, así como la flexibilidad en términos de la tecnología de sensores implementada. Por ejemplo, Siftables proporciona una plataforma de aplicación en la que pequeñas pantallas sensibles a los gestos actúan juntas para formar una interfaz hombre-computadora.
Para respaldar la colaboración, las TUI deben permitir la distribución espacial, las actividades asincrónicas y la modificación dinámica de la infraestructura de la TUI, por nombrar las más importantes. Este enfoque presenta un marco basado en el concepto de espacio de tuplas de LINDA para cumplir con estos requisitos. El marco TUIpist implementado implementa tecnología de sensores arbitraria para cualquier tipo de aplicación y actuadores en entornos distribuidos. [11]
El interés por las interfaces de usuario tangibles (TUI) ha crecido de forma constante desde los años 90 y, año tras año, aparecen más sistemas tangibles. Un informe técnico de 2017 describe la evolución de las TUI para las experiencias de mesa táctil y plantea nuevas posibilidades de experimentación y desarrollo. [12]
En 1999, Gary Zalewski patentó un sistema de bloques móviles para niños que contienen sensores y pantallas para enseñar ortografía y composición de oraciones. [13]
Tangible Engine es una aplicación de creación propia que se utiliza para crear interfaces de reconocimiento de objetos para mesas táctiles capacitivas proyectadas. Tangible Engine Media Creator permite a los usuarios con poca o ninguna experiencia en codificación crear rápidamente experiencias basadas en TUI.
El Grupo de Medios Tangibles del MIT, dirigido por Hiroshi Ishi, está continuamente desarrollando y experimentando con TUI, incluidas muchas aplicaciones de mesa. [14]
El sistema Urp [15] y el más avanzado Augmented Urban Planning Workbench [16] permiten realizar simulaciones digitales de flujo de aire, sombras, reflejos y otros datos basados en las posiciones y orientaciones de modelos físicos de edificios, sobre la superficie de la mesa.
Los desarrollos más recientes van un paso más allá e incorporan la tercera dimensión al permitir que el usuario forme paisajes con arcilla (Illuminating Clay [17] ) o arena (Sand Scape [18] ). Nuevamente, diferentes simulaciones permiten el análisis de sombras, mapas de altura, pendientes y otras características de las masas de tierra que se pueden formar de forma interactiva.
InfrActables es una mesa colaborativa de retroproyección que permite la interacción mediante el uso de TUI que incorporan reconocimiento de estado. La adición de diferentes botones a las TUI permite funciones adicionales asociadas a las TUI. Las versiones más nuevas de la tecnología pueden incluso integrarse en pantallas LC [19] mediante el uso de sensores infrarrojos detrás de la matriz LC.
El sistema Tangible Disaster [20] permite al usuario analizar medidas de desastre y simular diferentes tipos de desastres (incendios, inundaciones, tsunamis, etc.) y escenarios de evacuación durante sesiones de planificación colaborativa. Los objetos físicos permiten posicionar los desastres colocándolos en el mapa interactivo y, además, ajustando parámetros (es decir, la escala) mediante diales adjuntos a ellos.
Recientemente se ha identificado el potencial comercial de las TUI. El premiado Reactable [21] , un instrumento interactivo tangible de sobremesa, es distribuido comercialmente por Reactable Systems, una empresa derivada de la Universidad Pompeu Fabra, donde fue desarrollado. Con Reactable, los usuarios pueden configurar su propio instrumento de forma interactiva, colocando físicamente diferentes objetos (que representan osciladores, filtros, moduladores...) y parametrizándolos mediante rotación y entrada táctil.
Microsoft distribuye su novedosa plataforma basada en Windows Microsoft Surface [22] (ahora Microsoft PixelSense) desde 2009. Además del seguimiento multitáctil de los dedos, la plataforma admite el reconocimiento de objetos físicos por sus huellas. Se han presentado varias aplicaciones, principalmente para el uso en espacios comerciales. Los ejemplos van desde el diseño de un diseño gráfico individual para una tabla de snowboard o un monopatín hasta el estudio de los detalles de un vino en un restaurante colocándolo en la mesa y navegando por los menús mediante entrada táctil. También se admiten interacciones como la exploración colaborativa de fotografías desde una cámara de mano o un teléfono móvil que se conecta sin problemas una vez colocados en la mesa.
Otra instalación interactiva destacable es Instant City [23] , que combina juegos, música, arquitectura y aspectos colaborativos. Permite al usuario construir estructuras tridimensionales y configurar una ciudad con bloques de construcción rectangulares, lo que simultáneamente da como resultado el ensamblaje interactivo de fragmentos musicales de diferentes compositores.
El desarrollo de Reactable y el posterior lanzamiento de su tecnología de seguimiento reacTIVision [24] bajo la licencia GNU/GPL, así como las especificaciones abiertas del protocolo TUIO , han desencadenado una enorme cantidad de desarrollos basados en esta tecnología.
En los últimos años, se han iniciado muchos proyectos amateurs y semiprofesionales fuera del ámbito académico y comercial. Gracias a las tecnologías de rastreo de código abierto (reacTIVision [24] ) y a la creciente potencia computacional disponible para los consumidores finales, la infraestructura necesaria ahora es accesible para casi todo el mundo. Una PC estándar, una cámara web y algo de trabajo manual permiten a las personas configurar sistemas tangibles con un mínimo esfuerzo de programación y material. Esto abre las puertas a nuevas formas de percibir la interacción entre humanos y computadoras y permite que el público experimente con nuevas formas de creatividad. [ cita requerida ]
Es difícil seguir la pista y pasar por alto el número rápidamente creciente de todos estos sistemas y herramientas, pero mientras que muchos de ellos parecen utilizar únicamente las tecnologías disponibles y se limitan a experimentos y pruebas iniciales con algunas ideas básicas o simplemente reproducen sistemas existentes, algunos de ellos se abren a interfaces e interacciones novedosas y se implementan en el espacio público o se integran en instalaciones de arte. [25]
Tangible Factory Planning [26] es una tabla tangible basada en reacTIVision [24] que permite planificar y visualizar de forma colaborativa los procesos de producción en combinación con los planos de nuevos edificios de fábrica y fue desarrollada dentro de una tesis de diploma.
Otro ejemplo de los numerosos tableros de mesa basados en reacTIVision es la mesa interactiva ImpulsBauhaus [27] , que se expuso en la Universidad Bauhaus de Weimar con motivo del 90º aniversario de la fundación de la Bauhaus. Los visitantes podían navegar y explorar las biografías, las relaciones complejas y las redes sociales entre los miembros del movimiento.
Se ha demostrado que el uso de principios derivados de la cognición incorporada , la teoría de la carga cognitiva y el diseño incorporado de las TUI aumenta el rendimiento del aprendizaje al ofrecer retroalimentación multimodal. [28] Sin embargo, estos beneficios para el aprendizaje requieren formas de diseño de interacción que dejen la mayor capacidad cognitiva posible para el aprendizaje.
Un icono físico , o phicon , es el equivalente informático tangible de un icono en una interfaz gráfica de usuario tradicional, o GUI . Los phicones contienen una referencia a algún objeto digital y, por lo tanto, transmiten un significado. [29] [30] [31]
Los iconos físicos se utilizaron por primera vez como interfaces tangibles en el proyecto metaDesk creado en 1997 por el grupo de investigación de bits tangibles del profesor Hiroshi Ishii en el MIT . [32] [33] El metaDesk consistía en una mesa cuya superficie mostraba una imagen de vídeo retroproyectada. Al colocar un phicon sobre la mesa se activaban sensores que alteraban la proyección del vídeo. [34]