Medios por los cuales un usuario interactúa con una máquina y la controla
En el campo del diseño industrial de la interacción hombre-computadora , una interfaz de usuario ( IU ) es el espacio donde ocurren las interacciones entre humanos y máquinas. El objetivo de esta interacción es permitir la operación y el control efectivos de la máquina desde el extremo humano, mientras que la máquina simultáneamente retroalimenta información que ayuda al proceso de toma de decisiones de los operadores . Ejemplos de este concepto amplio de interfaces de usuario incluyen los aspectos interactivos de los sistemas operativos de computadora , herramientas manuales , controles de operador de maquinaria pesada y controles de proceso . Las consideraciones de diseño aplicables al crear interfaces de usuario están relacionadas con, o involucran disciplinas como, la ergonomía y la psicología .
En general, el objetivo del diseño de la interfaz de usuario es producir una interfaz de usuario que permita operar una máquina de manera fácil, eficiente y agradable (amigable para el usuario) de manera que produzca el resultado deseado (es decir, máxima usabilidad ). Esto generalmente significa que el operador debe proporcionar una entrada mínima para lograr el resultado deseado y también que la máquina minimice las salidas no deseadas para el usuario.
Las interfaces de usuario se componen de una o más capas, incluida una interfaz hombre-máquina ( HMI ) que normalmente conecta las máquinas con hardware de entrada física (como teclados, ratones o mandos de juegos) y hardware de salida (como monitores de ordenador , altavoces e impresoras ). Un dispositivo que implementa una HMI se denomina dispositivo de interfaz humana (HID). Las interfaces de usuario que prescinden del movimiento físico de partes del cuerpo como paso intermedio entre el cerebro y la máquina no utilizan dispositivos de entrada o salida excepto electrodos; se denominan interfaces cerebro-ordenador (BCI) o interfaces cerebro-máquina (BMI).
Otros términos para las interfaces hombre-máquina son interfaz hombre-máquina ( MMI ) y, cuando la máquina en cuestión es una computadora, interfaz hombre-computadora . Las capas de IU adicionales pueden interactuar con uno o más sentidos humanos, incluyendo: IU táctil ( tacto ), IU visual ( vista ), IU auditiva ( sonido ), IU olfativa ( olfato ), IU de equilibrio ( balance ) e IU gustativa ( gusto ).
Las interfaces de usuario compuestas ( CUI ) son IU que interactúan con dos o más sentidos. La CUI más común es una interfaz gráfica de usuario (GUI), que se compone de una IU táctil y una IU visual capaz de mostrar gráficos . Cuando se agrega sonido a una GUI, se convierte en una interfaz de usuario multimedia (MUI). Hay tres categorías amplias de CUI: estándar , virtual y aumentada . La CUI estándar utiliza dispositivos de interfaz humana estándar como teclados, ratones y monitores de computadora. Cuando la CUI bloquea el mundo real para crear una realidad virtual , la CUI es virtual y utiliza una interfaz de realidad virtual . Cuando la CUI no bloquea el mundo real y crea realidad aumentada , la CUI es aumentada y utiliza una interfaz de realidad aumentada . Cuando una IU interactúa con todos los sentidos humanos, se denomina interfaz qualia, llamada así por la teoría de qualia . [ cita requerida ] Las CUI también pueden clasificarse según la cantidad de sentidos con los que interactúan como una interfaz de realidad virtual X-sense o una interfaz de realidad aumentada X-sense, donde X es la cantidad de sentidos con los que interactúan. Por ejemplo, una Smell-O-Vision es una CUI estándar de 3 sentidos (3S) con pantalla visual, sonido y olores; cuando las interfaces de realidad virtual interactúan con olores y tacto, se dice que es una interfaz de realidad virtual de 4 sentidos (4S); y cuando las interfaces de realidad aumentada interactúan con olores y tacto, se dice que es una interfaz de realidad aumentada de 4 sentidos (4S).
Descripción general
La interfaz de usuario o interfaz hombre-máquina es la parte de la máquina que gestiona la interacción hombre-máquina. Los interruptores de membrana, los teclados de goma y las pantallas táctiles son ejemplos de la parte física de la interfaz hombre-máquina que podemos ver y tocar. [1]
En los sistemas complejos, la interfaz hombre-máquina suele estar informatizada. El término interfaz hombre-ordenador se refiere a este tipo de sistema. En el contexto de la informática, el término suele extenderse también al software dedicado a controlar los elementos físicos utilizados para la interacción hombre-ordenador .
Existe una diferencia entre una interfaz de usuario y una interfaz de operador o una interfaz hombre-máquina (HMI).
El término "interfaz de usuario" se utiliza a menudo en el contexto de sistemas informáticos (personales) y dispositivos electrónicos .
Donde una red de equipos o computadoras están interconectadas a través de un MES (Sistema de Ejecución de Manufactura) o Host para mostrar información.
Una interfaz hombre-máquina (HMI) es típicamente local para una máquina o equipo, y es el método de interfaz entre el humano y el equipo/máquina. Una interfaz de operador es el método de interfaz mediante el cual se accede o controla a múltiples equipos, vinculados por un sistema de control host. [ aclaración necesaria ]
El sistema puede ofrecer varias interfaces de usuario para atender a distintos tipos de usuarios. Por ejemplo, una base de datos de biblioteca informatizada puede ofrecer dos interfaces de usuario: una para los usuarios de la biblioteca (conjunto limitado de funciones, optimizada para facilitar su uso) y otra para el personal de la biblioteca (conjunto amplio de funciones, optimizada para la eficiencia). [3]
La interfaz de usuario de un sistema mecánico , un vehículo o una instalación industrial a veces se denomina interfaz hombre-máquina (HMI). [4] HMI es una modificación del término original MMI (interfaz hombre-máquina). [5] En la práctica, la abreviatura MMI todavía se usa con frecuencia [5] aunque algunos pueden afirmar que MMI significa algo diferente ahora. [ cita requerida ] Otra abreviatura es HCI, pero se usa más comúnmente para la interacción hombre-computadora . [5] Otros términos utilizados son consola de interfaz de operador (OIC) y terminal de interfaz de operador (OIT). [6] Independientemente de cómo se abrevie, los términos se refieren a la "capa" que separa a un humano que opera una máquina de la máquina misma. [5] Sin una interfaz limpia y utilizable, los humanos no podrían interactuar con los sistemas de información.
En la ciencia ficción , HMI se utiliza a veces para referirse a lo que se describe mejor como una interfaz neuronal directa . Sin embargo, este último uso se está aplicando cada vez más en el uso real de prótesis (médicas) : la extensión artificial que reemplaza una parte faltante del cuerpo (por ejemplo, implantes cocleares ). [7] [8]
La historia de las interfaces de usuario se puede dividir en las siguientes fases según el tipo de interfaz de usuario dominante:
1945–1968: Interfaz de lotes
En la era de los lotes, la potencia de procesamiento era extremadamente escasa y costosa. Las interfaces de usuario eran rudimentarias. Los usuarios tenían que adaptarse a las computadoras, en lugar de lo contrario; las interfaces de usuario se consideraban una sobrecarga y el software se diseñaba para mantener el procesador al máximo uso con la menor sobrecarga posible.
Para enviar un trabajo a una máquina de procesamiento por lotes, primero había que preparar una baraja de tarjetas perforadas que describían un programa y su conjunto de datos. Las tarjetas de programa no se perforaban en la propia computadora, sino en perforadoras de teclado , máquinas especializadas similares a las máquinas de escribir que eran notoriamente voluminosas, implacables y propensas a fallas mecánicas. La interfaz del software era igualmente implacable, con sintaxis muy estrictas diseñadas para ser analizadas por los compiladores e intérpretes más pequeños posibles.
Una vez perforadas las tarjetas, se colocaban en una cola de trabajos y se esperaba. Finalmente, los operadores introducían la tarjeta en la computadora, tal vez montando cintas magnéticas para suministrar otro conjunto de datos o software auxiliar. El trabajo generaba una impresión que contenía los resultados finales o un aviso de cancelación con un registro de errores adjunto. Las ejecuciones exitosas también podían escribir un resultado en una cinta magnética o generar algunas tarjetas de datos para utilizarlas en un cálculo posterior.
El tiempo de respuesta para un solo trabajo solía durar días enteros. Si uno tenía mucha suerte, podían ser horas; no había respuesta en tiempo real. Pero había destinos peores que la cola de tarjetas; algunas computadoras requerían un proceso aún más tedioso y propenso a errores de alternar programas en código binario usando interruptores de consola. Las primeras máquinas tuvieron que ser parcialmente reconectadas para incorporar la lógica del programa en sí mismas, usando dispositivos conocidos como tableros de conexiones .
Los primeros sistemas por lotes asignaban a la tarea que se estaba ejecutando el ordenador entero; las cintas y los módulos de programas tenían que incluir lo que hoy consideraríamos código de sistema operativo para comunicarse con los dispositivos de E/S y realizar cualquier otra tarea de mantenimiento que fuera necesaria. A mediados del período por lotes, después de 1957, varios grupos comenzaron a experimentar con los llamados sistemas de " carga y listo ". Estos utilizaban un programa de monitorización que siempre residía en el ordenador. Los programas podían llamar al monitor para solicitar servicios. Otra función del monitor era realizar una mejor comprobación de errores en los trabajos enviados, detectando errores antes y de forma más inteligente y generando una retroalimentación más útil para los usuarios. Por lo tanto, los monitores representaron el primer paso hacia los sistemas operativos y las interfaces de usuario diseñadas explícitamente.
1969-presente: Interfaz de usuario de línea de comandos
Las interfaces de línea de comandos ( CLI ) evolucionaron a partir de monitores de lotes conectados a la consola del sistema. Su modelo de interacción era una serie de transacciones de solicitud-respuesta, con solicitudes expresadas como comandos textuales en un vocabulario especializado. La latencia era mucho menor que para los sistemas de lotes, bajando de días u horas a segundos. En consecuencia, los sistemas de línea de comandos permitían al usuario cambiar de opinión sobre etapas posteriores de la transacción en respuesta a la retroalimentación en tiempo real o casi en tiempo real sobre resultados anteriores. El software podía ser exploratorio e interactivo de maneras que antes no eran posibles. Pero estas interfaces aún colocaban una carga mnemotécnica relativamente pesada en el usuario, requiriendo una importante inversión de esfuerzo y tiempo de aprendizaje para dominarlas. [11]
Los primeros sistemas de línea de comandos combinaban teleimpresoras con ordenadores, adaptando una tecnología madura que había demostrado ser eficaz para mediar en la transferencia de información a través de cables entre seres humanos. Las teleimpresoras se habían inventado originalmente como dispositivos para la transmisión y recepción telegráfica automática; su historia se remontaba a 1902 y ya se habían consolidado en las salas de redacción y otros lugares en 1920. Al reutilizarlas, sin duda se tuvo en cuenta la economía, pero también la psicología y la regla de la menor sorpresa ; las teleimpresoras proporcionaban un punto de interfaz con el sistema que resultaba familiar para muchos ingenieros y usuarios.
La adopción generalizada de terminales de visualización de vídeo (VDT) a mediados de los años 70 marcó el comienzo de la segunda fase de los sistemas de línea de comandos. Estos redujeron aún más la latencia, porque los caracteres podían proyectarse sobre los puntos de fósforo de una pantalla más rápidamente de lo que se puede mover un cabezal o un carro de impresión. Ayudaron a sofocar la resistencia conservadora a la programación interactiva al eliminar los consumibles de tinta y papel del cuadro de costos, y fueron para la primera generación de televisores de finales de los años 50 y 60 incluso más icónicos y cómodos de lo que lo habían sido los teleimpresores para los pioneros de la informática de los años 40.
Igualmente importante fue que la existencia de una pantalla accesible (una presentación bidimensional de texto que podía modificarse de forma rápida y reversible) hizo que fuera económico para los diseñadores de software implementar interfaces que pudieran describirse como visuales en lugar de textuales. Las aplicaciones pioneras de este tipo fueron los juegos de computadora y los editores de texto; los descendientes cercanos de algunos de los primeros ejemplos, como rogue (6) y vi (1), siguen siendo una parte viva de la tradición Unix .
1985: Interfaz de usuario SAA o interfaz de usuario basada en texto
Esto definió que un sistema de menú desplegable debería estar en la parte superior de la pantalla, la barra de estado en la parte inferior y las teclas de acceso directo deberían permanecer iguales para todas las funciones comunes (F2 para abrir, por ejemplo, funcionaría en todas las aplicaciones que siguieran el estándar SAA). Esto ayudó mucho a la velocidad con la que los usuarios podían aprender a usar una aplicación, por lo que se popularizó rápidamente y se convirtió en un estándar de la industria. [12]
1981 – Xerox Star : se centra en el WYSIWYG . Fracaso comercial (25.000 unidades vendidas) debido al coste (16.000 dólares cada una), el rendimiento (se tardaban unos minutos en guardar un archivo, un par de horas en recuperarse de un fallo) y una mala comercialización.
1982 – Rob Pike y otros en Bell Labs diseñaron Blit , que fue lanzado en 1984 por AT&T y Teletype como terminal DMD 5620.
1984 – Sistema X Window del MIT : plataforma independiente del hardware y protocolo de red para desarrollar GUI en sistemas tipo UNIX
1985 – Windows 1.0 : se agregó una interfaz gráfica de usuario a MS-DOS. No se superpusieron ventanas (en lugar de eso, se colocaron en mosaico).
1985 – Microsoft e IBM comienzan a trabajar en OS/2, que con el tiempo reemplazaría a MS-DOS y Windows.
1986 – Apple amenaza con demandar a Digital Research porque su escritorio GUI se parecía demasiado al Mac de Apple.
1987 – Windows 2.0 – Ventanas superpuestas y redimensionables, mejoras en el teclado y el mouse
1987 – Macintosh II: primer Mac a todo color
1988 – OS/2 1.10 Standard Edition (SE) tiene una GUI escrita por Microsoft, se parece mucho a Windows 2
Diseño de interfaz
Los métodos principales utilizados en el diseño de la interfaz incluyen la creación de prototipos y la simulación.
El diseño típico de la interfaz hombre-máquina consta de las siguientes etapas: especificación de la interacción, especificación del software de la interfaz y creación de prototipos:
Las prácticas comunes para la especificación de la interacción incluyen el diseño centrado en el usuario , el diseño orientado a la persona , el diseño orientado a la actividad, el diseño basado en escenarios y el diseño de resiliencia.
Las prácticas comunes para la especificación de software de interfaz incluyen casos de uso y restringen la aplicación de protocolos de interacción (destinados a evitar errores de uso).
Las prácticas comunes de creación de prototipos se basan en bibliotecas de elementos de interfaz (controles, decoración, etc.).
Principios de calidad
En términos generales, las interfaces que se consideran generalmente fáciles de usar, eficientes, intuitivas, etc. se caracterizan por una o más cualidades particulares. A modo de ejemplo, se ofrece a continuación una lista no exhaustiva de dichas características:
Claridad: La interfaz evita la ambigüedad al dejar todo claro a través del lenguaje, el flujo, la jerarquía y las metáforas de los elementos visuales.
Concisión : [16] Sin embargo, irónicamente, la clarificación excesiva de la información (por ejemplo, etiquetando la mayoría, si no la totalidad, de los elementos que se muestran en pantalla a la vez, y sin tener en cuenta si el usuario necesita o no un indicador visual de algún tipo para identificar un elemento determinado) puede, y, en la mayoría de las circunstancias normales, muy probablemente conducirá a la ofuscación de cualquier información.
Familiaridad: [17] Incluso si alguien utiliza una interfaz por primera vez, ciertos elementos pueden resultarle familiares. Se pueden utilizar metáforas de la vida real para comunicar significados.
Capacidad de respuesta : [18] Una buena interfaz no debe resultar lenta. Esto significa que la interfaz debe proporcionar una buena retroalimentación al usuario sobre lo que está sucediendo y si la entrada del usuario se está procesando correctamente.
Coherencia: [19] Mantener la interfaz consistente en toda la aplicación es importante porque permite a los usuarios reconocer patrones de uso.
Estética : si bien no es necesario que una interfaz sea atractiva para que haga su trabajo, hacer que algo se vea bien hará que el tiempo que los usuarios pasan usando su aplicación sea más agradable; y tener usuarios más felices solo puede ser algo bueno.
Eficiencia : El tiempo es dinero y una buena interfaz debe hacer que el usuario sea más productivo a través de atajos y un buen diseño.
Perdón : una buena interfaz no debe castigar a los usuarios por sus errores, sino proporcionarles los medios para remediarlos.
Principio del menor asombro
El principio del mínimo asombro (POLA) es un principio general en el diseño de todo tipo de interfaces. Se basa en la idea de que los seres humanos solo pueden prestar plena atención a una cosa a la vez, [20] lo que lleva a la conclusión de que la novedad debe minimizarse.
Principio de formación de hábitos
Si una interfaz se utiliza de forma persistente, el usuario desarrollará inevitablemente hábitos de uso de la misma. Por tanto, el papel del diseñador puede definirse como el de garantizar que el usuario adquiera buenos hábitos. Si el diseñador tiene experiencia con otras interfaces, también desarrollará hábitos y, a menudo, hará suposiciones inconscientes sobre cómo interactuará el usuario con la interfaz. [20] [21]
Un modelo de criterios de diseño: User Experience Honeycomb
Peter Morville de Google diseñó el marco User Experience Honeycomb en 2004 cuando dirigía las operaciones de diseño de interfaz de usuario. El marco se creó para guiar el diseño de la interfaz de usuario y actuaría como guía para muchos estudiantes de desarrollo web durante una década. [23]
Utilizable: ¿El diseño del sistema es fácil y sencillo de utilizar? La aplicación debe resultar familiar y fácil de utilizar. [23] [22]
Útil: ¿La aplicación satisface una necesidad? El producto o servicio de una empresa debe ser útil. [22]
Deseable: ¿El diseño de la aplicación es elegante y conciso? La estética del sistema debe ser atractiva y fácil de traducir. [22]
Fácil de encontrar: ¿Los usuarios pueden encontrar rápidamente la información que buscan? La información debe ser fácil de encontrar y de navegar. Un usuario nunca debería tener que buscar su producto o información. [22]
Accesible : ¿La aplicación admite texto ampliado sin romper el marco? Una aplicación debe ser accesible para personas con discapacidades. [22]
Credibilidad: ¿La aplicación muestra datos de seguridad y de la empresa que son confiables? Una aplicación debe ser transparente, segura y honesta. [22]
Valioso: ¿el usuario final cree que es valioso? Si se cumplen los seis criterios, el usuario final encontrará valor y confianza en la aplicación. [22]
Tipos
Las interfaces de usuario atentas gestionan la atención del usuario decidiendo cuándo interrumpirlo, el tipo de advertencias y el nivel de detalle de los mensajes presentados al usuario.
Las interfaces por lotes son interfaces de usuario no interactivas, en las que el usuario especifica todos los detalles del trabajo por lotes antes de que se realice el procesamiento por lotes y recibe el resultado cuando se completa todo el procesamiento. La computadora no solicita más información una vez que se ha iniciado el procesamiento.
Las interfaces de línea de comandos (CLI) solicitan al usuario que ingrese datos escribiendo una cadena de comandos con el teclado de la computadora y responden enviando texto al monitor de la computadora. Las utilizan programadores y administradores de sistemas, en entornos científicos y de ingeniería, y usuarios de computadoras personales con conocimientos técnicos avanzados.
Las interfaces conversacionales permiten a los usuarios dar órdenes a la computadora con texto en inglés simple (por ejemplo, mediante mensajes de texto o chatbots) o comandos de voz, en lugar de elementos gráficos. Estas interfaces a menudo emulan conversaciones entre personas. [24]
Los agentes de interfaz conversacional intentan personificar la interfaz de la computadora en forma de una persona animada, un robot u otro personaje (como Clippy, el clip de Microsoft) y presentan interacciones en forma conversacional.
Las interfaces basadas en cruces son interfaces gráficas de usuario en las que la tarea principal consiste en cruzar límites en lugar de señalar.
La interfaz de manipulación directa es el nombre de una clase general de interfaces de usuario que permiten a los usuarios manipular los objetos que se les presentan, utilizando acciones que corresponden, al menos vagamente, al mundo físico.
Las interfaces de hardware son las interfaces físicas y espaciales que encontramos en productos del mundo real, desde tostadoras hasta tableros de instrumentos de automóviles y cabinas de aviones. Por lo general, son una combinación de perillas, botones, controles deslizantes, interruptores y pantallas táctiles.
Las interfaces de usuario holográficas proporcionan entrada a dispositivos electrónicos o electromecánicos al pasar un dedo a través de imágenes holográficas reproducidas de lo que de otro modo serían controles táctiles de esos dispositivos, flotando libremente en el aire, detectados por una fuente de ondas y sin interacción táctil.
Las interfaces de usuario inteligentes son interfaces hombre-máquina que tienen como objetivo mejorar la eficiencia, la eficacia y la naturalidad de la interacción hombre-máquina al representar, razonar y actuar sobre modelos del usuario, el dominio, la tarea, el discurso y los medios (por ejemplo, gráficos, lenguaje natural, gestos).
Las interfaces de seguimiento de movimiento monitorean los movimientos del cuerpo del usuario y los traducen en comandos, actualmente en desarrollo por Apple. [27]
Las interfaces multipantalla emplean múltiples pantallas para brindar una interacción más flexible. Esto se emplea a menudo en la interacción con juegos de computadora, tanto en las salas de juegos comerciales como, más recientemente, en los mercados de dispositivos portátiles.
Las interfaces de lenguaje natural se utilizan en los motores de búsqueda y en las páginas web. El usuario escribe una pregunta y espera una respuesta.
Interfaces de usuario sin comandos , que observan al usuario para inferir sus necesidades e intenciones, sin requerir que formulen comandos explícitos. [28]
Las interfaces de usuario basadas en permisos muestran u ocultan opciones o funciones del menú según el nivel de permisos del usuario. El sistema está pensado para mejorar la experiencia del usuario eliminando elementos que no están disponibles para el usuario. Un usuario que ve funciones que no están disponibles para su uso puede sentirse frustrado. También proporciona una mejora en la seguridad al ocultar elementos funcionales a personas no autorizadas.
Interfaces de usuario reflexivas en las que los usuarios controlan y redefinen todo el sistema únicamente a través de la interfaz de usuario, por ejemplo, para cambiar sus verbos de comando . Normalmente, esto solo es posible con interfaces de usuario gráficas muy sofisticadas.
La interfaz de búsqueda es la forma en que se muestra el cuadro de búsqueda de un sitio, así como la representación visual de los resultados de la búsqueda.
Interfaces de usuario de voz , que aceptan entradas y brindan salidas mediante la generación de indicaciones de voz. La entrada del usuario se realiza presionando teclas o botones, o respondiendo verbalmente a la interfaz.
Las interfaces de entrada cero obtienen entradas de un conjunto de sensores en lugar de consultar al usuario con cuadros de diálogo de entrada. [29]
Las interfaces de usuario con zoom son interfaces gráficas de usuario en las que los objetos de información se representan en diferentes niveles de escala y detalle, y donde el usuario puede cambiar la escala del área visualizada para mostrar más detalles.
^ "Hardware de enlace SSD Parker Eurotherm L5392 | Automatización industrial". l5392.com . Consultado el 11 de enero de 2024 .
^ Cohen, Philip R. (1992). "El papel del lenguaje natural en una interfaz multimodal". Actas del quinto simposio anual de la ACM sobre software y tecnología de interfaz de usuario - UIST '92 . págs. 143–149. doi :10.1145/142621.142641. ISBN0897915496.S2CID 9010570 .
^ "La experiencia del usuario de las bibliotecas: al servicio del bien común Revista User Experience". uxpamagazine.org . 7 de mayo de 2017 . Consultado el 23 de marzo de 2022 .
^ Griffin, Ben; Baston, Laurel. "Interfaces" (Presentación) : 5. Archivado desde el original el 14 de julio de 2014. Consultado el 7 de junio de 2014. La interfaz de usuario de un sistema mecánico, un vehículo o una instalación industrial a veces se denomina interfaz hombre-máquina (HMI).{{cite journal}}: Requiere citar revista |journal=( ayuda )
^ abcd "Diseño de interfaz de usuario y ergonomía" (PDF) . Curso Cit 811 . UNIVERSIDAD NACIONAL ABIERTA DE NIGERIA: ESCUELA DE CIENCIA Y TECNOLOGÍA: 19. Archivado (PDF) del original el 14 de julio de 2014 . Consultado el 7 de junio de 2014 . En la práctica, la abreviatura MMI todavía se utiliza con frecuencia, aunque algunos pueden afirmar que MMI significa algo diferente ahora.
^ "Sección de Introducción". Avances recientes en la administración de empresas . [Sl]: Wseas. 2010. p. 190. ISBN978-960-474-161-8Otros términos utilizados son consola de interfaz del operador (OIC) y terminal de interfaz del operador (OIT) .
^ Cipriani, Christian; Segil, Jacob; Birdwell, Jay; Weir, Richard (2014). "Control diestro de una mano protésica utilizando electrodos intramusculares de alambre fino en músculos extrínsecos específicos". IEEE Transactions on Neural Systems and Rehabilitation Engineering . 22 (4): 828–36. doi :10.1109/TNSRE.2014.2301234. ISSN 1534-4320. PMC 4501393 . PMID 24760929. Están presentes coactivaciones neuronales que a su vez generan niveles significativos de EMG y, por lo tanto, movimientos no deseados en el caso de la actual interfaz hombre-máquina (HMI).
^ Citi, Luca (2009). "Desarrollo de una interfaz neuronal para el control de una mano robótica" (PDF) . Scuola Superiore Sant'Anna, Pisa, Italia: IMT Institute for Advanced Studies Lucca: 5. Consultado el 7 de junio de 2014 .{{cite journal}}: Requiere citar revista |journal=( ayuda )
^ Jordan, Joel. "Análisis de la dirección de la mirada para la investigación de la presencia en entornos virtuales inmersivos" (Tesis presentada para el grado de Doctor en Filosofía) . Universidad de Londres: Departamento de Ciencias de la Computación: 5. Archivado (PDF) del original el 14 de julio de 2014. Consultado el 7 de junio de 2014. El objetivo de esta tesis es investigar la idea de que la dirección de la mirada puede utilizarse como un dispositivo para detectar una sensación de presencia en entornos virtuales inmersivos (IVE) en algunos contextos.{{cite journal}}: Requiere citar revista |journal=( ayuda )
^ Ravi (agosto de 2009). "Introducción de HMI". Archivado desde el original el 14 de julio de 2014. Consultado el 7 de junio de 2014. En algunas circunstancias , las computadoras pueden observar al usuario y reaccionar de acuerdo con sus acciones sin comandos específicos. Se requiere un medio para rastrear partes del cuerpo, y se han utilizado experimentalmente sensores que registran la posición de la cabeza, la dirección de la mirada, etc. Esto es particularmente relevante para las interfaces inmersivas.
^ "Guía de HMI". Archivado desde el original el 20 de junio de 2014.
^ Richard, Stéphane. «Text User Interface Development Series Part One – TUI Basics». Archivado desde el original el 16 de noviembre de 2014. Consultado el 13 de junio de 2014 .
^ abc McCown, Frank. "Historia de la interfaz gráfica de usuario (GUI)". Universidad Harding. Archivado desde el original el 8 de noviembre de 2014.{{cite journal}}: Requiere citar revista |journal=( ayuda )
^ "La visita de Xerox a PARC". web.stanford.edu . Consultado el 8 de febrero de 2019 .
^ "apple-history.com / Interfaz gráfica de usuario (GUI)". apple-history.com . Consultado el 8 de febrero de 2019 .
^ Raymond, Eric Steven (2003). "11". El arte de la programación Unix . Thyrsus Enterprises. Archivado desde el original el 20 de octubre de 2014. Consultado el 13 de junio de 2014 .
^ CA D'H Gough; R. Green; M. Billinghurst. "Contabilización de la familiaridad del usuario en las interfaces de usuario" (PDF) . Consultado el 13 de junio de 2014 .{{cite journal}}: Requiere citar revista |journal=( ayuda )
^ Sweet, David (octubre de 2001). «9 – Construcción de una interfaz de usuario responsiva». Desarrollo de KDE 2.0 . Sams Publishing. Archivado desde el original el 23 de septiembre de 2013. Consultado el 13 de junio de 2014 .
^ John W. Satzinger; Lorne Olfman (marzo de 1998). "Consistencia de la interfaz de usuario en las aplicaciones de usuario final: los efectos en los modelos mentales". Journal of Management Information Systems . Gestión de lugares de trabajo virtuales y teletrabajo con tecnología de la información. 14 (4). Armonk, NY: 167–193. doi :10.1080/07421222.1998.11518190.
^ ab Raskin, Jef (2000). La interfaz humana: nuevas direcciones para el diseño de sistemas interactivos (1.ª edición). Reading, Mass. [ua]: Addison Wesley. ISBN0-201-37937-6.
^ Udell, John (9 de mayo de 2003). «Las interfaces crean hábito». Infoworld . Archivado desde el original el 4 de abril de 2017. Consultado el 3 de abril de 2017 .
^ abcdefgh «Diseño de interfaz de usuario y experiencia de usuario | Oryzo | UI/UX para pequeñas empresas». Oryzo . Consultado el 19 de noviembre de 2019 .
^ abc Wesolko, Dane (27 de octubre de 2016). «Peter Morville's User Experience Honeycomb». Medium . Consultado el 19 de noviembre de 2019 .
^ Errett, Joshua. "A medida que la fatiga de las aplicaciones se instala, los ingenieros de Toronto pasan a los chatbots". CBC . CBC/Radio-Canada. Archivado desde el original el 22 de junio de 2016 . Consultado el 4 de julio de 2016 .
^ Martinez, Wendy L. (23 de febrero de 2011). "Interfaces gráficas de usuario: Interfaces gráficas de usuario". Wiley Interdisciplinary Reviews: Computational Statistics . 3 (2): 119–133. doi :10.1002/wics.150. S2CID 60467930.
^ Lamb, Gordana (2001). "Mejore su proceso de diseño de interfaz de usuario con técnicas orientadas a objetos". Revista Visual Basic Developer . Archivado desde el original el 14 de agosto de 2013. Tabla 1. Diferencias entre los enfoques tradicionales orientados a aplicaciones y orientados a objetos para el diseño de interfaz de usuario.
^ appleinsider.com Archivado el 19 de junio de 2009 en Wayback Machine.
^ Jakob Nielsen (abril de 1993). «Noncommand User Interfaces» (Interfaces de usuario no relacionadas con los comandos). Communications of the ACM (Comunicaciones de la ACM) . 36 (4). ACM Press: 83–99. doi : 10.1145/255950.153582 . S2CID 7684922. Archivado desde el original el 10 de noviembre de 2006.
^ Sharon, Taly, Henry Lieberman y Ted Selker. "Una interfaz de entrada cero para aprovechar la experiencia grupal en la navegación web Archivado el 8 de septiembre de 2017 en Wayback Machine ." Actas de la octava conferencia internacional sobre interfaces de usuario inteligentes. ACM, 2003.
Enlaces externos
Busque interfaz de usuario en Wikcionario, el diccionario libre.
Wikimedia Commons tiene medios relacionados con Interfaces de usuario .
Serie de conferencias: abarca una amplia área de publicaciones sobre interfaz de usuario
Capítulo 2. Historia: Una breve historia de las interfaces de usuario