Dispositivo generador de voz

Dispositivo de aumento de voz

Stephen Hawking (1942-2018), astrofísico y destacado usuario del SGD

Los dispositivos generadores de voz ( SGD ), también conocidos como ayudas para la comunicación con salida de voz , son sistemas electrónicos de comunicación aumentativa y alternativa (CAA) que se utilizan para complementar o reemplazar el habla o la escritura en personas con discapacidades graves del habla , lo que les permite comunicarse verbalmente. [1] Los SGD son importantes para las personas que tienen medios limitados para interactuar verbalmente, ya que les permiten convertirse en participantes activos en las interacciones de comunicación. Son particularmente útiles para pacientes con esclerosis lateral amiotrófica (ELA), pero recientemente se han utilizado para niños con deficiencias del habla previstas. [2]

Existen varios métodos de entrada y visualización para que los usuarios de distintas capacidades puedan utilizar los SGD. Algunos SGD tienen varias páginas de símbolos para dar cabida a una gran cantidad de enunciados, por lo que solo una parte de los símbolos disponibles son visibles en un momento dado, y el comunicador navega por las distintas páginas. Los dispositivos generadores de voz pueden producir una salida de voz electrónica mediante grabaciones digitalizadas de voz natural o mediante síntesis de voz , que puede contener menos información emocional pero puede permitir al usuario pronunciar mensajes novedosos. [3]

El contenido, la organización y la actualización del vocabulario de un dispositivo de voz digital están influenciados por una serie de factores, como las necesidades del usuario y los contextos en los que se utilizará el dispositivo. [4] El desarrollo de técnicas para mejorar el vocabulario disponible y la velocidad de producción del habla es un área de investigación activa. Los elementos de vocabulario deben ser de gran interés para el usuario, ser de aplicación frecuente, tener una variedad de significados y ser pragmáticos en su funcionalidad. [5]

Existen múltiples métodos para acceder a los mensajes en los dispositivos: de forma directa o indirecta, o mediante dispositivos de acceso especializados, aunque el método de acceso específico dependerá de las habilidades y capacidades del usuario. [1] La salida de SGD suele ser mucho más lenta que la del habla, aunque las estrategias de mejora de la velocidad pueden aumentar la velocidad de salida del usuario, lo que da como resultado una mayor eficiencia de la comunicación. [6]

El primer SGD conocido se diseñó a mediados de la década de 1970 y, gracias a los rápidos avances en el desarrollo de hardware y software, ahora es posible integrar las capacidades de los SGD en dispositivos como los teléfonos inteligentes . Entre los usuarios destacados de los SGD se incluyen Stephen Hawking , Roger Ebert , Tony Proudfoot y Pete Frates (fundador del ALS Ice Bucket Challenge ).

Los sistemas de generación de voz pueden ser dispositivos dedicados desarrollados exclusivamente para CAA, o dispositivos no dedicados, como computadoras que ejecutan software adicional para permitirles funcionar como dispositivos CAA. [7] [8]

Historia

El mecanismo selector operado por el paciente (POSM o POSSUM), fue desarrollado a principios de la década de 1960.

Los SGD tienen sus orígenes en los primeros dispositivos electrónicos de comunicación. El primero de ellos fue un controlador de máquina de escribir de sorber y soplar llamado mecanismo selector operado por el paciente (Naman), prototipado por Reg Maling en el Reino Unido en 1960. [9] [10] POSSUM escaneaba un conjunto de símbolos en una pantalla iluminada. [9] Investigadores de la Universidad de Delft en los Países Bajos crearon la máquina de escribir operada por puntos de luz (LOT) en 1970, que utilizaba pequeños movimientos de la cabeza para apuntar un pequeño punto de luz a una matriz de caracteres, cada uno equipado con una célula fotoeléctrica. Aunque no tuvo éxito comercial, la LOT fue bien recibida por sus usuarios. [11]

En 1966, Barry Romich, un estudiante de primer año de ingeniería en la Universidad Case Western Reserve, y Ed Prentke, un ingeniero del Hospital Highland View en Cleveland, Ohio, formaron una sociedad y crearon la Prentke Romich Company. [12] En 1969, la empresa produjo su primer dispositivo de comunicación, un sistema de mecanografía basado en una máquina de teletipo desechada.

En 1979, Mark Dahmke desarrolló un software para un programa de ayuda a la comunicación vocal utilizando el sintetizador de voz analógico Computalker CT-1 con una microcomputadora. [13] [14] [15] [16] [17] [18] [19] El software utilizaba fonemas para generar el habla, ayudando a las personas con problemas de comunicación a construir palabras y oraciones. [20] El trabajo de Dahmke contribuyó al avance de la tecnología de asistencia para personas con discapacidades. En particular, diseñó el "Sistema de gestión de vocabulario" para Bill Rush, un estudiante con parálisis cerebral . [21] [20] [22] [23] Esta temprana tecnología de síntesis de voz facilitó una mejor comunicación para Rush y apareció en un número de 1980 de la revista LIFE. [24] [25] Las contribuciones de Dahmke han influido en el desarrollo de tecnologías de comunicación aumentativa y alternativa (CAA).

Durante la década de 1970 y principios de la de 1980, comenzaron a surgir otras empresas que desde entonces se han convertido en importantes fabricantes de SGD. Toby Churchill fundó Toby Churchill Ltd en 1973, después de perder el habla a causa de una encefalitis. [26] En los EE. UU., Dynavox (entonces conocida como Sentient Systems Technology) surgió de un proyecto estudiantil en la Universidad Carnegie-Mellon , creado en 1982 para ayudar a una joven con parálisis cerebral a comunicarse. [27] A partir de la década de 1980, las mejoras en la tecnología llevaron a un gran aumento en la cantidad, la variedad y el rendimiento de los dispositivos de comunicación disponibles comercialmente, y a una reducción de su tamaño y precio. Los métodos alternativos de acceso, como el escaneo de destino (también conocido como apuntamiento con los ojos), calibran el movimiento de los ojos de un usuario para dirigir un SGD para producir la fase de habla deseada. El escaneo, en el que se presentan alternativas al usuario de forma secuencial, estuvo disponible en los dispositivos de comunicación. [10] [28] Las posibilidades de salida de voz incluían tanto voz digitalizada como sintetizada. [10]

El desarrollo de hardware y software continuó con un rápido progreso , incluidos proyectos financiados por la Comunidad Europea . Los primeros dispositivos de generación de voz con pantalla dinámica disponibles comercialmente se desarrollaron en la década de 1990. Se desarrollaron programas de software que permitieron la producción basada en computadora de tableros de comunicación . [10] [28] Los dispositivos de alta tecnología han seguido volviéndose más pequeños y livianos, [28] al tiempo que aumenta la accesibilidad y la capacidad; se puede acceder a los dispositivos de comunicación mediante sistemas de seguimiento ocular , funcionan como una computadora para procesamiento de textos y uso de Internet, y como un dispositivo de control ambiental para acceso independiente a otros equipos como TV, radio y teléfonos. [29]

Stephen Hawking llegó a ser asociado con la voz única de su particular equipo de síntesis. Hawking no podía hablar debido a una combinación de discapacidades causadas por ELA y una traqueotomía de emergencia . [30] En los últimos 20 años, los SGD han ganado popularidad entre los niños pequeños con deficiencias del habla, como autismo, síndrome de Down y daño cerebral previsto debido a una cirugía.

A principios de la década de 2000, los especialistas se dieron cuenta de los beneficios de utilizar dispositivos de lenguaje digital no solo para adultos, sino también para niños. Los neurolingüistas descubrieron que los dispositivos de lenguaje digital eran igual de eficaces para ayudar a los niños que corrían el riesgo de sufrir déficits lingüísticos temporales después de someterse a una cirugía cerebral que para los pacientes con ELA. En particular, los dispositivos de lenguaje digitalizado se han utilizado como ayudas de comunicación para pacientes pediátricos durante el proceso de recuperación.

Métodos de acceso

Existen muchos métodos para acceder a los mensajes en los dispositivos: directamente, indirectamente y con dispositivos de acceso especializados. Los métodos de acceso directo implican contacto físico con el sistema, mediante el uso de un teclado o una pantalla táctil. Los usuarios que acceden a los SGD de forma indirecta y a través de dispositivos especializados deben manipular un objeto para acceder al sistema, como maniobrar un joystick , un ratón de cabeza, un puntero óptico de cabeza, un puntero de luz, un puntero infrarrojo o un escáner de acceso por interruptor . [1]

El método de acceso específico dependerá de las habilidades y capacidades del usuario. Con la selección directa se podría utilizar una parte del cuerpo, un puntero, un ratón adaptado , un joystick o el seguimiento ocular, [31] mientras que el escaneo de acceso por interruptor se utiliza a menudo para la selección indirecta. [8] [32] A diferencia de la selección directa (por ejemplo, escribir en un teclado, tocar una pantalla), los usuarios de Target Scanning solo pueden hacer selecciones cuando el indicador de escaneo (o cursor) del dispositivo electrónico está en la opción deseada. [33] Aquellos que no pueden señalar normalmente calibran sus ojos para utilizar la mirada como una forma de señalar y el bloqueo como una forma de seleccionar las palabras y frases deseadas. La velocidad y el patrón de escaneo, así como la forma en que se seleccionan los elementos, se individualizan según las capacidades físicas, visuales y cognitivas del usuario. [33]

Construcción de mensajes

Una captura de pantalla del programa de mejora de velocidad de Dasher

La comunicación aumentativa y alternativa suele ser mucho más lenta que el habla, [6] y los usuarios generalmente producen entre 8 y 10 palabras por minuto. [34] Las estrategias de mejora de la velocidad pueden aumentar la velocidad de producción del usuario a alrededor de 12 a 15 palabras por minuto, [34] y, como resultado, mejorar la eficiencia de la comunicación.

En cualquier SGD puede haber una gran cantidad de expresiones vocales que faciliten una comunicación eficiente y eficaz, incluidos saludos, expresiones de deseos y formulación de preguntas. [35] Algunos SGD tienen varias páginas de símbolos para dar cabida a una gran cantidad de expresiones vocales y, por lo tanto, solo una parte de los símbolos disponibles son visibles en un momento dado, y el comunicador navega por las distintas páginas. [36] Los dispositivos generadores de voz generalmente muestran un conjunto de selecciones utilizando una pantalla que cambia dinámicamente o una pantalla fija. [37]

Hay dos opciones principales para aumentar la tasa de comunicación de un SGD: codificación, un traductor como Nicole Schatzmann y predicción. [6]

La codificación permite que un usuario produzca una palabra, oración o frase utilizando solo una o dos activaciones de su SGD. [6] Las estrategias de codificación icónica como la compactación semántica combinan secuencias de íconos (símbolos de imágenes) para producir palabras o frases. [38] En la codificación numérica, alfanumérica y de letras (también conocida como expansión de abreviaturas), las palabras y oraciones se codifican como secuencias de letras y números. Por ejemplo, al escribir "HH" o "G1" (para Saludo 1) se puede obtener "Hola, ¿cómo estás?". [38]

La predicción es una estrategia de mejora de la velocidad en la que el SGD intenta reducir la cantidad de pulsaciones de teclas utilizadas al predecir la palabra o frase que está escribiendo el usuario. El usuario puede entonces seleccionar la predicción correcta sin necesidad de escribir la palabra completa. El software de predicción de palabras puede determinar las opciones que se ofrecerán en función de su frecuencia en el lenguaje, la asociación con otras palabras, las elecciones anteriores del usuario o la idoneidad gramatical. [6] [38] [39] Sin embargo, se ha demostrado que los usuarios producen más palabras por minuto (utilizando una interfaz de escaneo) con un diseño de teclado estático que con un diseño de cuadrícula predictiva, lo que sugiere que la sobrecarga cognitiva de revisar una nueva disposición anula los beneficios del diseño predictivo cuando se utiliza una interfaz de escaneo. [40]

Otro enfoque para la mejora de la velocidad es Dasher [41] , que utiliza modelos de lenguaje y codificación aritmética para presentar objetivos de letras alternativos en la pantalla con un tamaño relativo a su probabilidad dada la historia. [42] [43]

La velocidad de las palabras producidas puede depender en gran medida del nivel conceptual del sistema: el sistema TALK, que permite a los usuarios elegir entre un gran número de enunciados a nivel de oración, demostró velocidades de salida superiores a 60 ppm. [44]

Dispositivos de visualización fijos y dinámicos

Dispositivos de visualización fijos

Un dispositivo de generación de voz con una pantalla fija

Los dispositivos de visualización fijos se refieren a aquellos en los que los símbolos y elementos están "fijos" en un formato particular; algunas fuentes se refieren a estos como pantallas "estáticas". [45] Estos dispositivos de visualización tienen una curva de aprendizaje más simple que otros dispositivos.

Los dispositivos de pantalla fija replican la disposición típica de los dispositivos AAC de baja tecnología (se define como baja tecnología a aquellos dispositivos que no necesitan baterías, electricidad o electrónica), como los tableros de comunicación . Comparten algunas desventajas; por ejemplo, generalmente están restringidos a un número limitado de símbolos y, por lo tanto, mensajes. [37] Es importante señalar que con los avances tecnológicos realizados en el siglo XXI, los SGD de pantalla fija ya no se usan comúnmente.

Dispositivos de visualización dinámicos

Los dispositivos de visualización dinámica suelen ser también dispositivos de pantalla táctil . Normalmente generan símbolos visuales producidos electrónicamente que, al presionarlos, cambian el conjunto de selecciones que se muestran. El usuario puede cambiar los símbolos disponibles mediante enlaces de página para navegar a las páginas de vocabulario y mensajes correspondientes.

Un dispositivo generador de voz con pantalla dinámica, capaz de emitir voz sintetizada y digitalizada.

La página de "inicio" de un dispositivo de visualización dinámico puede mostrar símbolos relacionados con muchos contextos o temas de conversación diferentes. Al presionar cualquiera de estos símbolos se puede abrir una pantalla diferente con mensajes relacionados con ese tema. [37] Por ejemplo, al mirar un partido de voleibol, un usuario puede presionar el símbolo de "deporte" para abrir una página con mensajes relacionados con el deporte y luego presionar el símbolo que muestra un marcador para pronunciar la frase "¿Cuál es el resultado?".

Las ventajas de los dispositivos de visualización dinámica incluyen la disponibilidad de un vocabulario mucho más amplio y la capacidad de ver la oración en construcción [35]. Una ventaja adicional de los dispositivos de visualización dinámica es que el sistema operativo subyacente es capaz de proporcionar opciones para múltiples canales de comunicación, incluidos el teléfono celular , la mensajería de texto y el correo electrónico. [46] El trabajo de la Universidad de Linköping ha demostrado que tales prácticas de escritura de correos electrónicos permitieron a los niños que eran usuarios de SGD desarrollar nuevas habilidades sociales y aumentar su participación social. [47]

Teclados parlantes

Teclado utilizado para crear voz a través de un teléfono utilizando un convertidor de texto a voz.

Los sistemas de bajo costo también pueden incluir una combinación de teclado y altavoz de audio sin una pantalla dinámica o visual. Este tipo de teclado envía el texto escrito directamente a un altavoz de audio. Puede permitir que se diga cualquier frase sin la necesidad de una pantalla visual que no siempre es necesaria. Una ventaja simple es que un teclado parlante, cuando se usa con un teléfono estándar o un altavoz, puede permitir que una persona con problemas de voz mantenga una conversación bidireccional por teléfono. [ cita requerida ]

Producción

La salida de un SGD puede ser digitalizada y/o sintetizada: los sistemas digitalizados reproducen directamente palabras o frases grabadas, mientras que el habla sintetizada utiliza un software de texto a voz que puede transportar menos información emocional, pero permite al usuario decir mensajes nuevos escribiendo palabras nuevas. [48] [49] Hoy en día, las personas utilizan una combinación de mensajes grabados y técnicas de texto a voz en sus SGD. [49] Sin embargo, algunos dispositivos están limitados a un solo tipo de salida.

Discurso digitalizado

Dispositivo generador de voz operado por interruptor simple

Las palabras, frases o mensajes completos se pueden digitalizar y almacenar en el dispositivo para que el usuario active la reproducción. [1] Este proceso se conoce formalmente como Voice Banking. [50] Las ventajas del habla grabada incluyen que (a) proporciona prosodia natural y naturalidad en el habla para el oyente [3] (p. ej., se puede seleccionar a una persona de la misma edad y género que el usuario de CAA para grabar los mensajes), [3] y (b) proporciona sonidos adicionales que pueden ser importantes para el usuario, como la risa o el silbido. Además, los SGD digitalizados proporcionan un grado de normalidad tanto para el paciente como para sus familias cuando pierden la capacidad de hablar por sí mismos.

Una desventaja importante de usar solo voz grabada es que los usuarios no pueden producir mensajes nuevos; están limitados a los mensajes pregrabados en el dispositivo. [3] [51] Dependiendo del dispositivo, puede haber un límite en la duración de las grabaciones. [3] [51]

Discurso sintetizado

Los SGD que utilizan voz sintetizada aplican las reglas fonéticas del lenguaje para traducir el mensaje del usuario en una salida de voz ( síntesis de voz ). [1] [49] Los usuarios tienen la libertad de crear palabras y mensajes nuevos y no están limitados a aquellos que otros han grabado previamente en su dispositivo. [49]

El uso de voz sintetizada ha aumentado debido a la creación de software que aprovecha las computadoras y teléfonos inteligentes existentes del usuario . Las aplicaciones de CAA como Spoken o Avaz están disponibles en Android e iOS , lo que proporciona una forma de usar un dispositivo generador de voz sin tener que visitar un consultorio médico o aprender a usar maquinaria especializada. En muchos casos, estas opciones también son más asequibles que un dispositivo dedicado.

Los SGD sintetizados pueden permitir múltiples métodos de creación de mensajes que pueden usarse individualmente o en combinación: los mensajes pueden crearse a partir de letras, palabras, frases, oraciones, imágenes o símbolos. [1] [51] Con el habla sintetizada existe una capacidad de almacenamiento prácticamente ilimitada para mensajes con pocas demandas de espacio de memoria. [3]

Los motores de voz sintetizada están disponibles en muchos idiomas, [49] [51] y los parámetros del motor, como la velocidad del habla, el rango de tono, el género, los patrones de acento, las pausas y las excepciones de pronunciación pueden ser manipulados por el usuario. [51]

Dispositivo generador de texto a voz mediante teclado

Conjunto de selección y vocabulario

El conjunto de selección de un SGD es el conjunto de todos los mensajes, símbolos y códigos que están disponibles para una persona que utiliza ese dispositivo. [52] El contenido, la organización y la actualización de este conjunto de selección son áreas de investigación activa y están influenciados por una serie de factores, incluida la capacidad, los intereses y la edad del usuario. [4] El conjunto de selección para un sistema de CAA puede incluir palabras que el usuario aún no conoce; se incluyen para que el usuario "crezca en ellas". [4] El contenido instalado en cualquier SGD determinado puede incluir una gran cantidad de páginas preestablecidas proporcionadas por el fabricante, con una cantidad de páginas adicionales producidas por el usuario o el equipo de atención del usuario según las necesidades del usuario y los contextos en los que se utilizará el dispositivo. [4]

Selección inicial de contenidos

Los investigadores Beukelman y Mirenda enumeran una serie de posibles fuentes (como miembros de la familia, amigos, maestros y personal de atención) para la selección del contenido inicial de un SGD. Se requiere una variedad de fuentes porque, en general, una persona no tendría el conocimiento y la experiencia para generar todas las expresiones vocales necesarias en un entorno determinado. [4] Por ejemplo, los padres y los terapeutas podrían no pensar en agregar términos de jerga, como "innit". [53]

En trabajos anteriores se ha analizado tanto el uso del vocabulario de hablantes con un desarrollo normal como el uso de palabras de usuarios de CAA para generar contenido para nuevos dispositivos de CAA. Estos procesos funcionan bien para generar un conjunto básico de enunciados o expresiones vocales, pero son menos eficaces en situaciones en las que se necesita un vocabulario particular (por ejemplo, términos relacionados directamente con el interés de un usuario por la equitación). El término "vocabulario marginal" se refiere al vocabulario que es específico o exclusivo de los intereses o necesidades personales del individuo. Una técnica típica para desarrollar vocabulario marginal para un dispositivo es realizar entrevistas con múltiples "informantes": hermanos, padres, maestros, compañeros de trabajo y otras personas involucradas. [4]

Otros investigadores, como Musselwhite y St. Louis, sugieren que los elementos iniciales del vocabulario deben ser de gran interés para el usuario, ser de aplicación frecuente, tener una variedad de significados y ser pragmáticos en su funcionalidad. [5] Estos criterios se han utilizado ampliamente en el campo de la CAA como una verificación ecológica del contenido de la DGS. [4]

Mantenimiento automático de contenidos

Usuario de CAA con dispositivo personalizado

Beukelman y Mirenda enfatizan que la selección de vocabulario también implica un mantenimiento continuo del vocabulario; [4] sin embargo, una dificultad en AAC es que los usuarios o sus cuidadores deben programar manualmente cualquier expresión nueva (por ejemplo, nombres de nuevos amigos o historias personales) y no existen soluciones comerciales para agregar contenido automáticamente. [34] Una serie de enfoques de investigación han intentado superar esta dificultad, [54] estos van desde "entrada inferida", como generar contenido basado en un registro de conversación con los amigos y familiares de un usuario, [55] hasta datos extraídos de Internet para encontrar materiales lingüísticos, como el Proyecto Webcrawler. [56] Además, al hacer uso de enfoques basados ​​​​en Lifelogging , el contenido de un dispositivo se puede cambiar en función de los eventos que le ocurren a un usuario durante su día. [54] [57] Al acceder a más datos de un usuario, se pueden generar mensajes de mayor calidad con el riesgo de exponer datos confidenciales del usuario. [54] Por ejemplo, al hacer uso de sistemas de posicionamiento global , el contenido de un dispositivo se puede cambiar en función de la ubicación geográfica. [58] [59]

Preocupaciones éticas

Muchos de los SGD desarrollados recientemente incluyen herramientas de medición y análisis de rendimiento para ayudar a monitorear el contenido utilizado por un individuo. Esto genera inquietudes sobre la privacidad , y algunos argumentan que el usuario del dispositivo debería participar en la decisión de monitorear el uso de esta manera. [60] [61] Se han planteado inquietudes similares con respecto a las propuestas de dispositivos con generación automática de contenido, [57] y la privacidad es cada vez más un factor en el diseño de los SGD. [53] [62] Como los dispositivos de CAA están diseñados para usarse en todas las áreas de la vida de un usuario, existen cuestiones legales, sociales y técnicas delicadas centradas en una amplia familia de problemas de gestión de datos personales que se pueden encontrar en contextos de uso de CAA. Por ejemplo, los SGD pueden tener que diseñarse de modo que respalden el derecho del usuario a eliminar registros de conversaciones o contenido que se haya agregado automáticamente. [63]

Desafíos

La programación de dispositivos generadores de voz dinámicos suele estar a cargo de especialistas en comunicación aumentativa. Los especialistas deben atender las necesidades de los pacientes, ya que estos suelen elegir el tipo de palabras o frases que desean. Por ejemplo, los pacientes utilizan frases diferentes en función de su edad, discapacidad, intereses, etc. Por lo tanto, la organización del contenido requiere mucho tiempo. Además, las compañías de seguros médicos rara vez cubren los dispositivos generadores de voz dinámicos. Como resultado, los recursos son muy limitados en lo que respecta a la financiación y la dotación de personal. El Dr. John Costello, del Boston Children's Hospital, ha sido el impulsor de la solicitud de donaciones para mantener estos programas en funcionamiento y con personal suficiente, tanto en su hospital como en los hospitales de todo el país.

Véase también

Referencias

  1. ^ abcdef Aetna Inc. (2010)
  2. ^ Blischak y otros (2003)
  3. ^ abcdef Glennen y Decoste págs. 88–90
  4. ^ abcdefgh Beukelman y Mirenda, Capítulo 2
  5. ^ de Musselwhite y Louis
  6. ^ abcde Universidad de Washington (2009)
  7. ^ Glennen, págs. 62–63.
  8. ^ ab Jans y Clark (1998), págs.
  9. ^ de Vanderheide (2002)
  10. ^ abcd Zangari (1994)
  11. ^ Stassen y otros, pág. 127
  12. ^ Historia de la República Popular China
  13. ^ "Computadoras antiguas: la MIKE III, por Mark Dahmke". 15 de julio de 2015. Archivado desde el original el 15 de julio de 2015 . Consultado el 2 de junio de 2024 .
  14. ^ "El sintetizador de voz Computallaker - Mark Dahmke". www.mark.dahmke.com . 14 de enero de 2024 . Consultado el 4 de junio de 2024 .
  15. ^ "Dahmke Using Concurrent PC DOS 1986 pdf" (Dahmke con PC concurrente DOS 1986 pdf). 1library.net . Consultado el 4 de junio de 2024 .
  16. ^ Revista Byte Volumen 08 Número 01 - Mirando hacia el futuro. 1983.
  17. ^ "Oracle v. Google - Escrito de Amici Curiae Computer Scientists" (PDF) .
  18. ^ Sinergista. Programa Nacional de Voluntariado Estudiantil. 1980.
  19. ^ "Lista de libros de informática de LateBlt".
  20. ^ ab "J noticias - UNIVERSIDAD DE NEBRASKA–LINCOLN" (PDF) .
  21. ^ Rush, William (2008). Viaje fuera del silencio. Lulu.com. ISBN 978-1-4357-1497-7.
  22. ^ "BYTE - la revista de pequeños sistemas" (PDF) .
  23. ^ "Historia de Minspeak™". Academia Minspeak . Consultado el 4 de junio de 2024 .
  24. ^ "Revista LIFE de enero de 1980 en Original LIFE Magazines.com, idea de regalo única, revista LIFE vintage, revista LIFE clásica". Revistas originales Life . Consultado el 4 de junio de 2024 .
  25. ^ "byte en 1981". empichon72.free.fr . Consultado el 4 de junio de 2024 .
  26. ^ Toby Churchill (Sobre nosotros)
  27. ^ Dynavox (Historia de la empresa)
  28. ^abc Horacade (2004).
  29. ^ Robitaille, págs. 151-153.
  30. ^ Stephen Hawking y la ELA
  31. ^ Mathematica (2000)
  32. ^ Glennen y Decoste págs. 62–63
  33. ^ ab Beukelman y Mirenda, págs. 97-101
  34. ^ abc Higginbotham y otros (2007)
  35. ^ Por Beukelman y Mirenda
  36. ^ Hochstein y otros (2004)
  37. ^ abc Beukelman y Mirenda p. 84-85
  38. ^abc Venkatagiri (1995)
  39. ^ Comunicación Aumentativa, Incorporada
  40. ^ Johansen y otros (2003)
  41. ^ Ward y otros (2000)
  42. ^ Roark y otros (2010)
  43. ^ MacKey (2003), pág. 119
  44. ^ Todman (2000)
  45. ^ Hochstein y otros (2003)
  46. ^ Dynavox en www.speechbubble.org.uk
  47. ^ Sundqvist y Rönnberg (2010)
  48. ^ Schlosser, Blischak y Koul (2003)
  49. ^ abcde Beukelman y Mirenda p. 105-106
  50. ^ Beukelman y Mirenda, pag. 105.
  51. ^ abcde Radomski y otros (2007)
  52. ^ Beukelman y Mirenda pág. 83
  53. ^ ab Wickenden, M. (2011). "¿De quién es esa voz?: Cuestiones de identidad, voz y representación que surgen en un estudio etnográfico de las vidas de adolescentes discapacitados que utilizan la comunicación aumentativa y alternativa (CAA)". Disability Studies Quarterly . 31 (4). doi : 10.18061/dsq.v31i4.1724 .
  54. ^abc Reddington y Tintarev (2011)
  55. ^ Ashraf y otros (2002)
  56. ^ Luo y otros (2007)
  57. ^ de Black y otros (2010)
  58. ^ Dominowska y otros
  59. ^ Patel y Radhakrishnan
  60. ^ Beukelman y Mirenda, pág. 30
  61. ^ Blackstone y otros (2002)
  62. ^ Rackensperger y otros (2005)
  63. ^ Reddington y Coles-Kemp (2011)

Bibliografía

  • Aetna Inc. (2010). “Boletín de políticas clínicas: dispositivos generadores de voz”.{{cite web}}: CS1 maint: nombres numéricos: lista de autores ( enlace )
  • Ashraf, S.; Warden, A.; Shearer, AJ; Judson, A.; Ricketts, IW; Waller, A.; Alm, N.; Gordon, B.; MacAulay, F.; Brodie, JK; Etchels, M. (2002). "Captura de frases para ICU-Talk, una ayuda de comunicación para pacientes intubados en cuidados intensivos". Actas de la quinta conferencia internacional de la ACM sobre tecnologías de asistencia - Assets '02 . pág. 213. doi :10.1145/638249.638288. ISBN 1581134649. Número de identificación del sujeto  4474005.
  • Beukelman, D. ; Mirenda, P. (15 de junio de 2005). Comunicación aumentativa y alternativa: apoyo a niños y adultos con necesidades de comunicación complejas (3.ª ed.). Paul H. Brookes Pub. Co. ISBN 978-1-55766-684-0.
  • Black, R., Reddington, J., Reiter, E., Tintarev, N. y Waller A. 2010. Uso de NLG y sensores para apoyar la narrativa personal de niños con necesidades de comunicación complejas. En Actas del taller NAACL HLT 2010 sobre procesamiento del habla y el lenguaje para tecnologías de asistencia (SLPAT '10). Asociación de Lingüística Computacional, Stroudsburg, PA, EE. UU., 1–9.
  • Blackstone, SW; Williams, MB; Joyce, M. (2002). "Necesidades futuras de tecnología de CAA: perspectivas del consumidor". Tecnología de asistencia . 14 (1): 3–16. doi :10.1080/10400435.2002.10132051. PMID  12739846. S2CID  42895721.
  • Blischak, DM, Lombardino, LJ y Dyson, AT (2003). Uso de dispositivos generadores de voz: en apoyo del habla natural. Comunicación aumentativa y alternativa, 19
  • Brewer, N (8 de febrero de 2011). "La tecnología da voz a los niños".
  • Dempster, M., Alm, N., y Reiter, E.. 2010. Generación automática de enunciados conversacionales y narrativa para comunicación aumentativa y alternativa: un sistema prototipo. En Actas del taller NAACL HLT 2010 sobre procesamiento del habla y el lenguaje para tecnologías de asistencia (SLPAT '10). Asociación de Lingüística Computacional, Stroudsburg, PA, EE. UU., 10-18.
  • Dominowska, E., Roy, D. y Patel, R. (2002). Una ayuda adaptativa y sensible al contexto para la comunicación. Actas de la Conferencia Internacional de la CSUN sobre Tecnología y Personas con Discapacidades, Northridge, CA.
  • Centro ACE. «Dynavox Serie 5». Archivado desde el original el 25 de abril de 2012.
  • «Historia de la empresa Dynavox». Archivado desde el original el 5 de agosto de 2016. Consultado el 26 de diciembre de 2011 .
  • Lund, J. "El diario de Roger Ebert: Encontrando mi propia voz 8/12/2009". Blogs.suntimes.com. Archivado desde el original el 19 de agosto de 2011. Consultado el 17 de octubre de 2009 .
  • Friedman, MB, G. Kiliany, M. Dzmura, D. Anderson. "El sistema de comunicación Eyetracker", Johns Hopkins APL Technical Digest, vol. 3, núm. 3, 1982. 250–252
  • Friedman, MB, Kiliany, G. y Dzmura, M. (1985) Un teclado controlado por la mirada. Actas de la 2.ª Conferencia internacional sobre ingeniería de rehabilitación , 446–447
  • Hanlon, M. (4 de junio de 2004). «Stephen Hawking elige una nueva voz» . Consultado el 10 de agosto de 2009 .
  • Glennen, Sharon L. y Decoste, Denise C. (1997). Manual de comunicación aumentativa y alternativa. Singular Publishing Group, Inc.: San Diego, CA.
  • Hawking, S. "Stephen Hawking y la ELA" . Consultado el 10 de agosto de 2009 .
  • Hedman, Glenn (1990). Tecnología de rehabilitación. Routledge. Págs. 100-01. ISBN. 978-1-56024-033-4.
  • Higginbotham, DJ; Shane, H.; Russell, S.; Caves, K. (2007). "Acceso a la CAA: presente, pasado y futuro". Comunicación aumentativa y alternativa . 23 (3): 243–257. doi :10.1080/07434610701571058. PMID  17701743. S2CID  17891586.
  • Hochstein, DD; McDaniel, MA; Nettleton, S.; Neufeld, KH (2003). "La fecundidad de un enfoque nomotético para investigar la CAA: comparación de dos esquemas de codificación del habla en niños con parálisis cerebral y sin discapacidad". American Journal of Speech-Language Pathology . 12 (1): 110–120. doi :10.1044/1058-0360(2003/057). PMID  12680818.
  • Hochstein, DD; McDaniel, MA; Nettleton, S. (2004). "Reconocimiento de vocabulario en niños y adolescentes con parálisis cerebral: una comparación de dos esquemas de codificación del habla". Comunicación aumentativa y alternativa . 20 (2): 45–62. doi :10.1080/07434610410001699708. S2CID  62243903.
  • Hourcade, J.; Everhart Pilotte, T.; West, E.; Parette, P. (2004). "Una historia de la comunicación aumentativa y alternativa para personas con discapacidades graves y profundas". Focus on Autism and Other Developmental Disabilities . 19 (4): 235–244. doi :10.1177/10883576040190040501. S2CID  73593697.
  • Infinitec.org. «Comunicación alternativa aumentativa». Archivado desde el original el 16 de mayo de 2011. Consultado el 16 de marzo de 2011 .
  • Jans, D.; Clark, S. (1998). "Ayudas de alta tecnología a la comunicación" (PDF) . En Wilson, Allan (ed.). Comunicación aumentativa en la práctica: una introducción . Centro CALL de la Universidad de Edimburgo. ISBN 978-1-898042-15-0. Archivado desde el original (PDF) el 21 de febrero de 2007 . Consultado el 13 de marzo de 2011 .
  • Johansen, AS, Hansen, JP, Hansen, DW, Itoh, K. y Mashino, S. 2003. Tecnología del lenguaje en un teclado predictivo, restringido y con diseño dinámico en pantalla para personas con discapacidades graves. En Actas del Taller EACL de 2003 sobre modelado del lenguaje para métodos de entrada de texto (TextEntry '03). Asociación de Lingüística Computacional, Stroudsburg, PA, EE. UU., 59–66.
  • Luo, F., Higginbotham, DJ y Lesher, G. (2007). Webcrawler: Enhanced augmentative communication. Documento presentado en la Conferencia de CSUN sobre tecnología para discapacitados, marzo, Los Ángeles.
  • Mathy; Yorkston, Guttman (2000). "Comunicación aumentativa para personas con esclerosis lateral amiotrófica". En Beukelman, D.; Yorkston, K.; Reichle, J. (eds.). Trastornos de la comunicación aumentativa y alternativa para adultos con trastornos neurológicos adquiridos . Baltimore: PH Brookes Pub. ISBN 978-1-55766-473-0.
  • David JC MacKay (2003). Teoría de la información, inferencia y algoritmos de aprendizaje. Cambridge University Press. pág. 119. ISBN 978-0-521-64298-9.
  • Musselwhite, CR; St. Louis, KW (mayo de 1988). Programación de la comunicación para personas con discapacidades graves: estrategias vocales y aumentativas. Pro-Ed. ISBN 978-0-89079-388-6.
  • R. Patel y R. Radhakrishnan. 2007. Mejorar el acceso al vocabulario situacional aprovechando el contexto geográfico. Resultados y beneficios de la tecnología de asistencia
  • Rackensperger, T.; Krezman, C.; McNaughton, D.; Williams, MB; d'Silva, K. (2005). ""Cuando lo recibí por primera vez, quería tirarlo por un precipicio": los desafíos y beneficios de aprender tecnologías de CAA según lo describen los adultos que usan CAA". Comunicación aumentativa y alternativa . 21 (3): 165. doi :10.1080/07434610500140360. S2CID  143533447.
  • Radomski, MV y Trombly Latham, CA (2007). Terapia ocupacional para la disfunción física. Lippincott Williams & Wilkins. pág. 527. ISBN 978-0-7817-6312-7.
  • Reddington, J.; Tintarev, N. (2011). "Generación automática de historias a partir de datos de sensores". Actas de la 15.ª conferencia internacional sobre interfaces de usuario inteligentes - IUI '11 . p. 407. doi :10.1145/1943403.1943477. ISBN 9781450304191.S2CID10394365  .
  • Reddington, J., y Coles-Kemp, L. (2011). Trap Hunting: Finding Personal Data Management Issues in Next Generation AAC Devices (Caza de trampas: detección de problemas de gestión de datos personales en dispositivos de CAA de próxima generación). En Proceedings of the Second Workshop on Speech and Language Processing for Assistive Technologies (págs. 32-42). Edimburgo, Escocia, Reino Unido: Association for Computational Linguistics.
  • Roark, B., de Villiers, J., Gibbons, C. y Fried-Oken, M.. 2010. Métodos de escaneo y modelado del lenguaje para tipado binario por conmutación. En Actas del taller NAACL HLT 2010 sobre procesamiento del habla y el lenguaje para tecnologías de asistencia (SLPAT '10). Asociación de Lingüística Computacional, Stroudsburg, PA, EE. UU., 28–36.
  • Schlosser, RW; Blischak, DM; K., Rajinder K. (2003). "Roles of Speech Output in AAC". En RW Schlosser (ed.). La eficacia de la comunicación aumentativa y alternativa: hacia una práctica basada en la evidencia . San Diego: Academic. págs. 472–532. ISBN. 0-12-625667-5.
  • "Recuperando el don de la palabra: las computadoras portátiles NexGen permiten a los mudos conversar". Scientific American . Consultado el 10 de agosto de 2009 .
  • Stassen, HG; Sheridan, tuberculosis; Van Lunteren, T. (1997). Perspectivas sobre el controlador humano: ensayos en honor a Henk G. Stassen. Prensa de Psicología. ISBN 978-0-8058-2190-1.[ enlace muerto permanente ]
  • Sundqvist, A.; Rönnberg, J. (2010). "Un análisis cualitativo de las interacciones por correo electrónico de los niños que utilizan la comunicación aumentativa y alternativa". Comunicación aumentativa y alternativa . 26 (4): 255–266. doi :10.3109/07434618.2010.528796. PMID  21091302. S2CID  29481.
  • Todman, J. (2000). "Ritmo y calidad de conversaciones utilizando un sistema de CAA de almacenamiento de texto: estudio de entrenamiento de caso único". Comunicación aumentativa y alternativa . 16 (3): 164–179. doi :10.1080/07434610012331279024. S2CID  144178797.
  • "Tipos de dispositivos de CAA, comunicación aumentativa, incorporada" . Consultado el 19 de marzo de 2009 .[ enlace muerto permanente ]
  • "Toby Churchill, Acerca de nosotros". Archivado desde el original el 10 de diciembre de 2011. Consultado el 26 de diciembre de 2011 .
  • Vanderheide, GC (2002). "Un viaje a través de la comunicación aumentativa temprana y el acceso a la computadora". Journal of Rehabilitation Research and Development . 39 (6 Suppl): 39–53. PMID  17642032. Archivado desde el original el 1 de octubre de 2011 . Consultado el 21 de octubre de 2011 .
  • Venkatagiri, HS 1995. Técnicas para mejorar la productividad de la comunicación en CAA: una revisión de la investigación. American Journal of Speech-Language Pathology 4, 36–45.
  • Ward, DJ; Blackwell, AF ; MacKay, DJC (2000). "Dasher: una interfaz de entrada de datos que utiliza gestos continuos y modelos de lenguaje". Actas del 13.º simposio anual de la ACM sobre software y tecnología de interfaz de usuario - UIST '00 . pág. 129. doi :10.1145/354401.354427. ISBN 1581132123. Número de identificación del sujeto  189874.
  • "Mejora de la velocidad, comunicación aumentativa y alternativa en la Universidad de Washington, Seattle" . Consultado el 19 de marzo de 2009 .
  • Zangari, C.; Lloyd, L.; Vicker, B. (1994). "Comunicación aumentativa y alternativa: una perspectiva histórica". Comunicación aumentativa y alternativa . 10 (1): 27–59. doi :10.1080/07434619412331276740.
  • Medios relacionados con Dispositivos generadores de voz en Wikimedia Commons

Obtenido de "https://es.wikipedia.org/w/index.php?title=Dispositivo_generador_de_voz&oldid=1247442431"