This article needs additional citations for verification. (December 2022) |
Los subtítulos cerrados ( CC ) son una forma de subtitulado , un proceso de visualización de texto en un televisor, pantalla de video u otro dispositivo visual para proporcionar información adicional o interpretativa, donde el espectador tiene la opción de elegir si se muestra el texto. Los subtítulos cerrados se utilizan normalmente como una transcripción de la parte de audio de un programa tal como se produce (ya sea textualmente o en forma editada), a veces incluyendo descripciones de elementos no hablados. Otros usos han incluido proporcionar una traducción textual alternativa del idioma de audio principal de una presentación que generalmente está incorporada (o "abierta") al video y no se puede seleccionar.
HTML5 define los subtítulos como una "transcripción o traducción del diálogo cuando el sonido está disponible pero no es comprendido" por el espectador (por ejemplo, diálogo en un idioma extranjero) y los subtítulos como una "transcripción o traducción del diálogo, efectos de sonido, pistas musicales relevantes y otra información de audio relevante cuando el sonido no está disponible o no es claramente audible" (por ejemplo, cuando el audio está silenciado o el espectador es sordo o tiene problemas de audición). [1]
El término cerrado indica que los subtítulos no son visibles hasta que el espectador los activa, generalmente a través del control remoto o de una opción del menú. Por otro lado, los términos abierto , grabado , incorporado , codificado o simplemente fijo indican que los subtítulos son visibles para todos los espectadores, ya que están incrustados en el video.
En Estados Unidos y Canadá, los términos subtítulos y leyendas tienen significados diferentes. Los subtítulos presuponen que el espectador puede oír pero no entender el idioma o el acento, o que el habla no es del todo clara, por lo que transcriben solo el diálogo y parte del texto en pantalla. Los subtítulos tienen como objetivo describir a las personas sordas o con dificultades auditivas todo el contenido de audio significativo (diálogos hablados e información no verbal, como la identidad de los hablantes y, ocasionalmente, su forma de hablar), junto con cualquier música o efectos de sonido significativos que utilicen palabras o símbolos. Además, el término subtítulos cerrados se ha utilizado también para referirse a la codificación norteamericana EIA-608 que se utiliza con el vídeo compatible con NTSC.
El Reino Unido , Irlanda y varios otros países no distinguen entre subtítulos y leyendas y usan subtítulos como término general. [ cita requerida ] El equivalente de los subtítulos generalmente se conoce como subtítulos para personas con problemas de audición . Su presencia se hace referencia en la pantalla mediante una notación que dice "Subtítulos", o anteriormente "Subtítulos 888" o simplemente "888" (los dos últimos se refieren al canal de videotexto convencional para subtítulos), por lo que el término subtítulo también se usa para referirse a la codificación de videotexto basada en Ceefax que se usa con videos compatibles con PAL. El término subtítulo ha sido reemplazado por subtítulo en varios mercados, como Australia y Nueva Zelanda, que compran grandes cantidades de material estadounidense importado, y gran parte de ese video ya tenía el logotipo de CC de EE. UU. superpuesto al comienzo. En Nueva Zelanda, las emisoras superponen un logotipo de oreja con una línea que lo atraviesa que representa los subtítulos para personas con problemas de audición, aunque actualmente se los conoce como subtítulos. En el Reino Unido, los servicios de televisión digital modernos tienen subtítulos para la mayoría de los programas, por lo que ya no es necesario resaltar cuáles tienen subtítulos y cuáles no. [ cita requerida ]
Los controles remotos para televisores, reproductores de DVD y dispositivos similares en la mayoría de los mercados europeos a menudo utilizan "SUB" o "SUBTITLE" en el botón que se utiliza para controlar la visualización de subtítulos y subtítulos.
Las transmisiones regulares con subtítulos abiertos comenzaron en The French Chef de PBS en 1972. [2] WGBH comenzó a subtitular los programas Zoom , ABC World News Tonight y Once Upon a Classic poco después.
Los subtítulos se demostraron por primera vez en los Estados Unidos en la Primera Conferencia Nacional sobre Televisión para Personas con Discapacidad Auditiva en la Universidad de Tennessee en Knoxville, Tennessee, en diciembre de 1971. [2] Una segunda demostración de subtítulos se llevó a cabo en el Gallaudet College (ahora Universidad Gallaudet ) el 15 de febrero de 1972, donde ABC y la Oficina Nacional de Normas demostraron subtítulos integrados en una transmisión normal de The Mod Squad . Al mismo tiempo, en el Reino Unido, la BBC estaba demostrando su servicio de transmisión basado en texto Ceefax que ya estaban utilizando como base para el desarrollo de un sistema de producción de subtítulos. Estaban trabajando con el profesor Alan Newell de la Universidad de Southampton, que había estado desarrollando prototipos a fines de la década de 1960.
El sistema de subtítulos fue codificado y transmitido con éxito en 1973 con la cooperación de la estación de PBS WETA . [2] Como resultado de estas pruebas, en 1976 la FCC reservó la línea 21 para la transmisión de subtítulos. Los ingenieros de PBS desarrollaron entonces las consolas de edición de subtítulos que se utilizarían para subtitular programas pregrabados.
La BBC en el Reino Unido fue la primera emisora en incluir subtítulos en 1979, basándose en el marco del teletexto para programación pregrabada.
El subtitulado en tiempo real, un proceso para subtitular transmisiones en vivo, fue desarrollado por el Instituto Nacional de Subtitulado en 1982. [2] En el subtitulado en tiempo real, los operadores de estenotipias que pueden escribir a velocidades de más de 225 palabras por minuto proporcionan subtítulos para programas de televisión en vivo, lo que permite al espectador ver los subtítulos entre dos y tres segundos después de que se dicen las palabras.
Los principales productores de subtítulos en Estados Unidos son WGBH-TV , VITAC , CaptionMax y el National Captioning Institute . En el Reino Unido y Australasia , Ai-Media, Red Bee Media , itfc e Independent Media Support son los principales proveedores.
Las mejoras en la tecnología de reconocimiento de voz significan que los subtítulos en vivo pueden ser total o parcialmente automatizados. Las transmisiones deportivas de la BBC utilizan un "relocutor": un humano entrenado que repite el comentario en curso (con una enunciación cuidadosa y cierta simplificación y marcado ) para ingresarlo al sistema de generación de texto automatizado. Esto es generalmente confiable, aunque los errores no son desconocidos. [3]
El Instituto Nacional de Subtítulos fue creado en 1979 con el fin de conseguir la cooperación de las cadenas de televisión comerciales. [2]
El primer uso de subtítulos programados regularmente en la televisión estadounidense se produjo el 16 de marzo de 1980. [4] Sears había desarrollado y vendido el adaptador Telecaption, una unidad de decodificación que podía conectarse a un televisor estándar. Los primeros programas que se vieron con subtítulos fueron una presentación de Disney's Wonderful World de la película Son of Flubber en NBC , una transmisión de ABC Sunday Night Movie de Semi-Tough y Masterpiece Theatre en PBS . [5]
Desde 2010, la BBC ofrece subtítulos para toda la programación en sus siete canales de transmisión principales: BBC One , BBC Two , BBC Three , BBC Four , CBBC , CBeebies y BBC News .
BBC iPlayer se lanzó en 2008 como el primer servicio de video a pedido con subtítulos de una importante emisora con niveles de subtítulos comparables a los ofrecidos en sus canales de transmisión.
Hasta la aprobación de la Ley de Circuitos Decodificadores de Televisión de 1990, los subtítulos de televisión se realizaban mediante un decodificador fabricado por Sanyo Electric y comercializado por el Instituto Nacional de Subtítulos (NCI). (En ese momento, un decodificador costaba casi tanto como un televisor, aproximadamente 200 dólares). A través de conversaciones con el fabricante se estableció que el circuito adecuado integrado en el televisor sería menos costoso que el decodificador independiente, y Ronald May, entonces empleado de Sanyo, proporcionó el testimonio de testigo experto en nombre de Sanyo y la Universidad Gallaudet en apoyo de la aprobación del proyecto de ley. El 23 de enero de 1991, el Congreso aprobó la Ley de Circuitos Decodificadores de Televisión de 1990. [2] Esta ley le dio a la Comisión Federal de Comunicaciones (FCC) el poder de promulgar reglas sobre la implementación de los subtítulos. Esta Ley requería que todos los receptores de televisión analógica con pantallas de al menos 13 pulgadas o más, ya sea vendidos o fabricados, tuvieran la capacidad de mostrar subtítulos antes del 1 de julio de 1993. [6]
Además, en 1990 se aprobó la Ley de Estadounidenses con Discapacidades (ADA, por sus siglas en inglés) para garantizar la igualdad de oportunidades para las personas con discapacidades. [2] La ADA prohíbe la discriminación contra las personas con discapacidades en lugares públicos o instalaciones comerciales. El Título III de la ADA exige que las instalaciones públicas (como hospitales, bares, centros comerciales y museos, pero no los cines) proporcionen acceso a información verbal en televisores, películas y presentaciones de diapositivas.
La Comisión Federal de Comunicaciones exige a todos los proveedores de programas que subtitulen el material que tenga audio en inglés o español, con ciertas excepciones especificadas en la Sección 79.1(d) de las reglas de la comisión. Estas excepciones se aplican a las nuevas cadenas; programas en idiomas distintos del inglés o el español; cadenas que tengan que gastar más del 2% de sus ingresos en subtitulado; cadenas que tengan ingresos inferiores a US$3.000.000; y ciertos programas locales; entre otras excepciones. [7] Aquellos que no estén cubiertos por las excepciones pueden solicitar una exención por dificultades. [8]
La Ley de Telecomunicaciones de 1996 amplió la Ley de Circuitos Decodificadores para imponer los mismos requisitos a los receptores de televisión digital a partir del 1 de julio de 2002. [9] Todos los distribuidores de programación de TV en los EE. UU. deben proporcionar subtítulos para la programación de video en español a partir del 1 de enero de 2010. [10]
En julio de 2010, la Cámara de Representantes de los Estados Unidos aprobó un proyecto de ley, HR 3101, la Ley de Accesibilidad de las Comunicaciones y el Vídeo del Siglo XXI de 2010. [11] Un proyecto de ley similar, S. 3304, con el mismo nombre, fue aprobado por el Senado de los Estados Unidos el 5 de agosto de 2010 y por la Cámara de Representantes el 28 de septiembre de 2010, y fue firmado por el Presidente Barack Obama el 8 de octubre de 2010. La Ley exige, en parte, que cualquier control remoto de decodificador ATSC tenga un botón para activar o desactivar los subtítulos en la señal de salida. También exige que las emisoras proporcionen subtítulos para los programas de televisión redistribuidos en Internet. [12]
El 20 de febrero de 2014, la FCC aprobó por unanimidad la implementación de estándares de calidad para los subtítulos, [13] que abordan la precisión, el tiempo, la integridad y la ubicación. Esta es la primera vez que la FCC aborda cuestiones de calidad en los subtítulos.
En 2015, se aprobó una ley en Hawái que exige que se realicen dos proyecciones por semana de cada película con subtítulos en la pantalla. En 2022 entró en vigor una ley en la ciudad de Nueva York que exige que los cines ofrezcan subtítulos en la pantalla hasta en cuatro funciones por película por semana, incluidos los fines de semana y las noches de los viernes. [14]
Algunos gobiernos estatales y locales (incluidos Boston, Massachusetts ; Portland, Oregón ; Rochester, Nueva York ; y el estado de Washington ) exigen que los subtítulos estén activados en los televisores de lugares públicos en todo momento, incluso si nadie lo ha solicitado. [15]
Según lo modificado por la RA 10905, todas las cadenas de televisión en Filipinas deben proporcionar subtítulos. [16] A partir de 2018, las tres principales cadenas de televisión del país están probando actualmente el sistema de subtítulos en sus transmisiones. ABS-CBN agregó subtítulos en su programa diario 3 O'Clock Habit por la tarde. TV5 comenzó a implementar subtítulos en sus programas de noticias en vivo del mediodía y de la noche. GMA alguna vez transmitió programas de noticias con subtítulos, pero desde entonces dejó de hacerlo. Solo ciertos dramas coreanos y películas locales o extranjeras, Biyahe ni Drew (título en inglés Drew's Travel Adventure ) e Idol sa Kusina (título en inglés Kitchen Idol ) se transmiten con subtítulos adecuados. [17]
Desde 2016, todas las películas en lengua filipina, así como algunos servicios de streaming, como iWant, han incluido subtítulos en inglés en algunas funciones. La ley al respecto fue propuesta por Gerald Anthony Gullas Jr., un legislador de la ciudad de Cebú, que había implementado las regulaciones para estandarizar los dos idiomas oficiales de Filipinas, ya que la gente no dominaba el vocabulario inglés. [18]
En 1981, el gobierno de Australia proporcionó fondos iniciales para la creación del Centro Australiano de Subtítulos (ACC) y la compra de equipos. El ACC comenzó a realizar subtítulos en 1982 y una subvención adicional del gobierno australiano le permitió al ACC lograr y mantener la autosuficiencia financiera. El ACC, ahora conocido como Media Access Australia , vendió su división de subtítulos comerciales a Red Bee Media en diciembre de 2005. Red Bee Media continúa brindando servicios de subtítulos en Australia en la actualidad. [19] [20] [21]
En 1981, TVNZ organizó un teletón para recaudar fondos para el equipo de codificación de teletexto utilizado para la creación y edición de servicios de transmisión basados en texto para sordos. El servicio comenzó a utilizarse en 1984 con la creación e importación de subtítulos pagada como parte de la tarifa de transmisión pública hasta la creación del fondo de contribuyentes NZ On Air , que se utiliza para proporcionar subtítulos para el contenido de NZ On Air y los programas de noticias de TVNZ y para la conversión de subtítulos EIA-608 US al formato preferido EBU STL solo para TVNZ 1 , TV 2 y TV 3 con subtítulos archivados disponibles para FOUR y programación seleccionada de Sky . Durante la segunda mitad de 2012, TV3 y FOUR comenzaron a proporcionar subtítulos basados en imágenes DVB sin teletexto en su servicio HD y utilizaron el mismo formato en el servicio satelital, lo que desde entonces ha causado importantes problemas de sincronización en relación con la carga del servidor y la pérdida de subtítulos de la mayoría de los receptores DVB-S SD, como los que Sky Television proporciona a sus clientes. A partir del 2 de abril de 2013, solo el servicio de subtítulos de la página 801 del teletexto permanecerá en uso, y se suspenderá el contenido informativo del teletexto sin subtítulos.
Los subtítulos fueron creados para personas sordas o con problemas de audición con el fin de ayudar a la comprensión. También pueden ser utilizados como herramienta por quienes están aprendiendo a leer o a hablar un idioma no nativo, o en entornos donde el audio es difícil de escuchar o está silenciado intencionalmente. Los subtítulos también pueden ser utilizados por espectadores que simplemente desean leer una transcripción junto con el audio del programa.
En Estados Unidos, el Instituto Nacional de Subtítulos señaló que los estudiantes de inglés como lengua extranjera o segunda lengua (ESL) eran el grupo más grande que compraba decodificadores a fines de la década de 1980 y principios de la de 1990, antes de que los decodificadores incorporados se convirtieran en una característica estándar de los televisores estadounidenses. Esto sugirió que la audiencia más grande de subtítulos eran personas cuya lengua materna no era el inglés. En el Reino Unido, de 7,5 millones de personas que usan subtítulos en la televisión (subtítulos), 6 millones no tienen problemas de audición. [22]
Los subtítulos también se utilizan en entornos públicos, como bares y restaurantes, donde los clientes pueden no ser capaces de escuchar debido al ruido de fondo, o donde varios televisores muestran diferentes programas. Además, los vídeos en línea pueden ser tratados mediante el procesamiento digital de su contenido de audio por varios algoritmos robóticos (robots). El resultado son múltiples cadenas de errores. Cuando un vídeo se transcribe de manera verdadera y precisa, la publicación con subtítulos cumple una función útil y el contenido está disponible para que los motores de búsqueda lo indexen y lo pongan a disposición de los usuarios en Internet. [23] [24] [25]
Algunos televisores pueden configurarse para activar automáticamente los subtítulos cuando el volumen está silenciado.
En el caso de los programas en directo, las palabras habladas que componen la banda sonora del programa de televisión son transcritas por un operador humano (un reportero de voz a texto ) utilizando máquinas de estenotipia (o de estenotipo ), cuya salida fonética es traducida instantáneamente a texto por una computadora y mostrada en la pantalla. Esta técnica fue desarrollada en la década de 1970 como una iniciativa del servicio de teletexto Ceefax de la BBC . [26] En colaboración con la BBC, un estudiante universitario asumió el proyecto de investigación de escribir el primer programa de conversión de fonética a texto para este propósito. A veces, los subtítulos de las transmisiones en vivo, como los boletines de noticias, los eventos deportivos, los programas de entretenimiento en vivo y otros programas en vivo, se retrasan unos segundos. Este retraso se debe a que la máquina no sabe qué va a decir la persona a continuación, por lo que después de que la persona en el programa dice la oración, aparecen los subtítulos. [27] El reconocimiento automático de voz por computadora funciona bien cuando se entrena para reconocer una sola voz, y por eso, desde 2003, la BBC hace subtítulos en vivo haciendo que alguien vuelva a decir lo que se está transmitiendo. Los subtítulos en vivo también son una forma de texto en tiempo real . Mientras tanto, los eventos deportivos en ESPN utilizan taquígrafos judiciales , que utilizan un teclado especial (taquigráfico) y "diccionarios" elaborados individualmente.
En algunos casos, la transcripción está disponible de antemano y los subtítulos simplemente se muestran durante el programa después de ser editados. Para los programas que tienen una mezcla de contenido preparado y en vivo, como los boletines de noticias , se utiliza una combinación de técnicas.
En el caso de programas pregrabados, comerciales y videos caseros, el audio se transcribe y los subtítulos se preparan, colocan y cronometran con anticipación.
En todos los tipos de programación NTSC , los subtítulos se codifican en la línea 21 del intervalo de borrado vertical , una parte de la imagen de TV que se encuentra justo encima de la porción visible y que normalmente no se ve. En la programación ATSC ( televisión digital ), se codifican tres secuencias en el video: dos son subtítulos de la línea 21 compatibles con versiones anteriores y la tercera es un conjunto de hasta 63 secuencias de subtítulos adicionales codificadas en formato EIA-708 . [28]
Los subtítulos se modulan y almacenan de forma diferente en los países PAL y SECAM (625 líneas, 50 campos por segundo), donde se utiliza teletexto en lugar de en EIA-608 , pero los métodos de preparación y el campo de línea 21 utilizado son similares. Para las cintas de vídeo Beta y VHS domésticas , se debe realizar un desplazamiento hacia abajo de este campo de línea 21 debido a la mayor cantidad de líneas VBI utilizadas en los países PAL de 625 líneas, aunque solo una pequeña minoría de las máquinas VHS PAL europeas admiten este (o cualquier) formato para la grabación de subtítulos. Al igual que todos los campos de teletexto, los subtítulos de teletexto no se pueden almacenar en una grabadora VHS estándar de 625 líneas (debido a la falta de compatibilidad con desplazamiento de campo); están disponibles en todas las grabaciones S-VHS profesionales debido a que se graban todos los campos. Los campos de subtítulos de teletexto grabados también sufren una mayor cantidad de errores de subtítulos debido al mayor número de bits y una baja relación señal-ruido , especialmente en VHS de bajo ancho de banda. Por este motivo, los subtítulos del teletexto se almacenaban en disquetes, separados de la cinta maestra analógica. Los DVD tienen su propio sistema de subtítulos y leyendas, que se insertan digitalmente en el flujo de datos y se decodifican durante la reproducción en vídeo.
En el caso de los televisores más antiguos, suele ser necesario un decodificador u otro tipo de decodificador. En Estados Unidos, desde la aprobación de la Ley de Circuitos Decodificadores de Televisión, los fabricantes de la mayoría de los receptores de televisión que se venden deben incluir la capacidad de visualización de subtítulos. Los televisores de alta definición, los receptores y las tarjetas sintonizadoras también están incluidos, aunque las especificaciones técnicas son diferentes (las pantallas de visualización de alta definición, a diferencia de los televisores de alta definición, pueden no tener subtítulos). Canadá no tiene una ley similar, pero recibe los mismos equipos que Estados Unidos en la mayoría de los casos.
Durante la transmisión, los errores de un solo byte pueden ser reemplazados por un espacio en blanco que puede aparecer al principio del programa. Más errores de byte durante la transmisión EIA-608 pueden afectar la pantalla momentáneamente, al pasar por defecto a un modo en tiempo real como el estilo "roll up", escribir letras al azar en la pantalla y luego volver a la normalidad. Los errores de byte incorregibles dentro del encabezado de la página de teletexto harán que se pierdan subtítulos completos. EIA-608, debido a que utiliza sólo dos caracteres por fotograma de vídeo, envía estos subtítulos con antelación almacenándolos en un segundo búfer a la espera de un comando para mostrarlos; el teletexto los envía en tiempo real.
El uso de mayúsculas y minúsculas varía entre los proveedores de subtítulos. La mayoría de ellos escriben todas las palabras con mayúscula inicial, mientras que otros, como WGBH y proveedores no estadounidenses, prefieren utilizar letras mayúsculas y minúsculas combinadas.
Hay dos estilos principales de subtítulos en la línea 21:
Servicios de acceso de TVNZ y Red Bee Media para la BBC y Australia, por ejemplo:
Tengo la máquina preparada.
ARRANQUE DEL MOTOR(alejándose a toda velocidad)
Ejemplo de IMS del Reino Unido para ITV y Sky:
(hombre) Tengo la máquina lista. (motor en marcha)
Ejemplo de servicios de acceso de WGBH en EE. UU.:
HOMBRE: Tengo la máquina preparada. (arranca el motor)
Ejemplo del Instituto Nacional de Subtítulos de EE. UU .:
- TENGO LA MÁQUINA LISTA.[ARRANQUE DEL MOTOR]
Ejemplo de CaptionMax en EE. UU .:
-Tengo la máquina preparada.[arranque del motor]
Ejemplo de acumulación interna en tiempo real en EE. UU.:
>> Hombre: TENGO LA MÁQUINA LISTA.[arranque del motor]
Ejemplo de acumulación interna en tiempo real fuera de EE. UU.:
HOMBRE: Tengo la máquina lista.(ARRANQUE DEL MOTOR)
Ejemplo de VITAC de EE. UU .:
[HOMBRE]Tengo la máquina preparada.[arranque del motor]
Para los subtítulos en tiempo real realizados fuera de las instalaciones de subtítulos, se utiliza la siguiente sintaxis:
Estilos de sintaxis que utilizan varios productores de subtítulos:
La especificación original de Line 21 tenía muchas deficiencias desde el punto de vista tipográfico , ya que, por ejemplo, carecía de muchos de los caracteres necesarios para los subtítulos en idiomas distintos del inglés. Desde entonces, el conjunto de caracteres básicos de Line 21 se ha ampliado para incluir bastantes más caracteres, lo que permite cubrir la mayoría de los requisitos de los idiomas comunes en América del Norte y del Sur, como el francés , el español y el portugués , aunque esos caracteres extendidos no son necesarios en todos los decodificadores y, por lo tanto, no son fiables en el uso diario. El problema se ha eliminado casi por completo con un conjunto completo específico para el mercado de caracteres de Europa occidental y una extensión Norpak adoptada de forma privada para los mercados de Corea del Sur y Japón . El estándar completo EIA-708 para televisión digital tiene compatibilidad con conjuntos de caracteres en todo el mundo, pero se ha utilizado poco debido a que el teletexto EBU domina los países DVB , que tiene sus propios conjuntos de caracteres extendidos.
Los subtítulos suelen editarse para facilitar su lectura y reducir la cantidad de texto que se muestra en pantalla. Esta edición puede ser muy menor, con sólo unas pocas líneas sin importancia que se omiten ocasionalmente, o muy severa, donde prácticamente cada línea que dicen los actores se condensa. La medida que se utiliza para guiar esta edición son las palabras por minuto, que suelen variar entre 180 y 300, según el tipo de programa. Las palabras ofensivas también se subtitulan, pero si el programa está censurado para su transmisión por televisión, es posible que la emisora no haya dispuesto que los subtítulos también se editen o censuren. El "Guardián de la TV", un decodificador de televisión , está disponible para los padres que desean censurar el lenguaje ofensivo de los programas: la señal de video se introduce en el decodificador y, si detecta una palabra ofensiva en los subtítulos, la señal de audio se silencia o emite un pitido durante ese período de tiempo.
El flujo de datos de la línea 21 puede constar de datos de varios canales de datos multiplexados juntos. El campo impar 1 puede tener cuatro canales de datos: dos subtítulos sincronizados independientes (CC1, CC2) con texto relacionado con los subtítulos, como las URL de sitios web (T1, T2). El campo par 2 puede tener cinco canales de datos adicionales: dos subtítulos sincronizados independientes (CC3, CC4) con texto relacionado con los subtítulos (T3, T4) y servicios de datos extendidos (XDS) para detalles de EPG de Now/Next . La estructura de datos XDS se define en CEA-608.
Como CC1 y CC2 comparten ancho de banda, si hay muchos datos en CC1, habrá poco espacio para los datos de CC2 y generalmente solo se usa para los subtítulos de audio primarios. De manera similar, CC3 y CC4 comparten el segundo campo par de la línea 21. Dado que algunos decodificadores de subtítulos tempranos solo admitían la decodificación de campo único de CC1 y CC2, los subtítulos para SAP en un segundo idioma a menudo se colocaban en CC2. Esto generó problemas de ancho de banda, y la recomendación de la Comisión Federal de Comunicaciones (FCC) de EE. UU. es que la programación bilingüe debe tener el segundo idioma de subtítulos en CC3. Muchas cadenas de televisión en español como Univision y Telemundo , por ejemplo, brindan subtítulos en inglés para muchos de sus programas en español en CC3. Las emisoras canadienses usan CC3 para SAP traducidos al francés, que también es una práctica similar en Corea del Sur y Japón.
Ceefax y Teletext pueden tener una mayor cantidad de subtítulos para otros idiomas debido al uso de múltiples líneas VBI. Sin embargo, solo los países europeos utilizaron una segunda página de subtítulos para pistas de audio en un segundo idioma donde se utilizó NICAM dual mono o Zweikanalton .
El sistema de televisión digital ATSC de EE. UU. especificó originalmente dos tipos diferentes de estándares de flujo de datos de subtítulos : el original compatible con analógico (disponible por Line 21 ) y los formatos CEA-708 solo digitales más modernos que se entregan dentro del flujo de video. [28] La FCC de EE. UU. exige que las emisoras entreguen (y generen, si es necesario) ambos formatos de flujo de datos con el formato CEA-708 simplemente una conversión del formato Line 21. [28] El CRTC canadiense no ha ordenado que las emisoras transmitan ambos formatos de flujo de datos o exclusivamente en un formato. La mayoría de las emisoras y redes para evitar grandes desembolsos de costos de conversión simplemente proporcionan subtítulos EIA-608 junto con una versión CEA-708 transcodificada encapsulada dentro de paquetes CEA-708 .
Muchos espectadores descubren que cuando adquieren un televisor digital o un decodificador no pueden ver la información de subtítulos (CC), aun cuando la emisora la esté transmitiendo y el televisor pueda mostrarla.
Originalmente, la información CC se incluía en la imagen ("línea 21") a través de una entrada de vídeo compuesto , pero no existe una capacidad equivalente en las interconexiones de vídeo digital (como DVI y HDMI ) entre la pantalla y una "fuente". Una "fuente", en este caso, puede ser un reproductor de DVD o un receptor de televisión digital terrestre o por cable. Cuando la información CC está codificada en el flujo de datos MPEG-2 , solo el dispositivo que decodifica los datos MPEG-2 (una fuente) tiene acceso a la información de subtítulos ; no existe un estándar para transmitir la información CC a un monitor de pantalla por separado. Por lo tanto, si hay información CC, el dispositivo fuente debe superponer la información CC en la imagen antes de transmitirla a la pantalla a través de la salida de vídeo de la interconexión.
La responsabilidad de decodificar la información de los subtítulos y superponerla sobre la imagen de vídeo visible se ha quitado de la pantalla del televisor y se ha puesto en la "fuente" de las interconexiones de vídeo digital DVI y HDMI. Debido a que el televisor se encarga del "silencio" y, cuando se utilizan DVI y HDMI , un dispositivo diferente se encarga de activar y desactivar los subtítulos, esto significa que la función "los subtítulos se activan automáticamente cuando el televisor está silenciado" ya no funciona. Ese dispositivo fuente, como un reproductor de DVD o un decodificador , debe "grabar" la imagen del texto de los subtítulos en los datos de imagen transportados por el cable HDMI o DVI ; no hay otra forma de que el texto de los subtítulos se transporte por el cable HDMI o DVI . [29] [30] [31] [32] [33] [34]
Muchos dispositivos fuente no tienen la capacidad de superponer información de CC, ya que controlar la superposición de CC puede ser complicado. Por ejemplo, los receptores de cable DCT-5xxx y -6xxx de Motorola tienen la capacidad de decodificar la información de CC ubicada en la transmisión MPEG-2 y superponerla en la imagen, pero para activar y desactivar los CC es necesario apagar la unidad y acceder a un menú de configuración especial (no se encuentra en el menú de configuración estándar y no se puede controlar con el control remoto). Históricamente, los reproductores de DVD , las videograbadoras y los sintonizadores de TV no necesitaban realizar esta superposición, ya que simplemente pasaban esta información al televisor y no estaban obligados a realizarla.
Muchos receptores de televisión digital modernos se pueden conectar directamente a los cables, pero a menudo no pueden recibir los canales codificados por los que paga el usuario. Por lo tanto, la falta de una forma estándar de enviar información de CC entre componentes, junto con la falta de una obligación de agregar esta información a una imagen, hace que los CC no estén disponibles para muchos usuarios sordos o con problemas de audición.
Los sistemas de teletexto basados en Ceefax de la EBU son la fuente de las señales de subtítulos, por lo que cuando el teletexto está integrado en DVB-T o DVB-S , se incluye la señal de subtítulos. [35] Sin embargo, para DVB-T y DVB-S, no es necesario que también esté presente una señal de página de teletexto ( ITV1 , por ejemplo, no lleva señales de teletexto analógicas en Sky Digital , pero sí lleva la versión integrada, accesible desde el menú "Servicios" del receptor, o más recientemente, apagándolos/encendiéndolos desde un mini menú accesible desde el botón "ayuda").
Las Directrices editoriales de subtítulos de la BBC nacieron a partir de las capacidades del teletexto , pero ahora son utilizadas por múltiples emisoras europeas como guía de mejores prácticas editoriales y de diseño [36].
En Nueva Zelanda, los subtítulos utilizan un sistema de teletexto basado en EBU Ceefax en las transmisiones DVB vía satélite y televisión por cable, con la excepción de los canales MediaWorks New Zealand que cambiaron completamente a subtítulos DVB RLE en 2012 tanto en las transmisiones por satélite Freeview como en UHF ; esta decisión se tomó en base a la práctica de TVNZ de usar este formato solo en transmisiones DVB UHF (también conocido como Freeview HD ). Esto hizo que los televisores conectados con video compuesto no pudieran decodificar los subtítulos por sí solos. Además, estos subtítulos pre-renderizados usan fondos opacos de estilo de subtítulos clásicos con un tamaño de fuente demasiado grande y oscurecen la imagen más que los fondos parcialmente transparentes más modernos.
La especificación CEA-708 proporciona subtítulos drásticamente mejorados
A partir de 2009, la mayoría de los subtítulos para entornos de televisión digital se realizan utilizando herramientas diseñadas para subtítulos analógicos (que funcionan según la especificación CEA-608 NTSC en lugar de la especificación CEA-708 ATSC ). Los subtítulos se pasan a continuación por transcodificadores fabricados por empresas como EEG Enterprises o Evertz , que convierten el formato de subtítulos analógicos Line 21 al formato digital. Esto significa que no se utiliza ninguna de las funciones CEA-708 a menos que también estuvieran incluidas en CEA-608 .
Los DVD NTSC pueden llevar subtítulos en paquetes de datos de las secuencias de vídeo MPEG-2 dentro de la carpeta Video-TS. Una vez reproducidos en las salidas analógicas de un reproductor de DVD de sobremesa, los datos de subtítulos se convierten al formato de Línea 21. [37] El reproductor los envía al vídeo compuesto (o a un conector RF disponible ) para el decodificador integrado de un televisor conectado o un decodificador de sobremesa, como es habitual. No se pueden enviar a salidas de vídeo S-Video o de vídeo componente debido a la falta de una señal de ráfaga de color en la línea 21. (En realidad, independientemente de esto, si el reproductor de DVD está en modo entrelazado en lugar de progresivo, los subtítulos se mostrarán en el televisor a través de la entrada de vídeo componente si los subtítulos del televisor están activados y configurados en CC1). Cuando se ven en una computadora personal, los datos de subtítulos se pueden ver mediante un software que puede leer y decodificar los paquetes de datos de subtítulos en las secuencias MPEG-2 del disco DVD-Video. El reproductor de Windows Media (anterior a Windows 7 ) en Vista solo admitía los canales de subtítulos 1 y 2 (no 3 ni 4). El reproductor de DVD de Apple no tiene la capacidad de leer y decodificar los datos de subtítulos de Line 21 que se graban en un DVD creado a partir de una transmisión por aire. Puede mostrar algunos subtítulos de películas en DVD.
Además de los subtítulos de la línea 21, los DVD de vídeo también pueden llevar subtítulos, que generalmente se reproducen a partir de los subtítulos EIA-608 como una superposición de mapa de bits que se puede activar y desactivar a través de un reproductor de DVD o un software de reproducción de DVD, al igual que los subtítulos de texto. Este tipo de subtítulos suele incluirse en una pista de subtítulos etiquetada como "Inglés para personas con problemas de audición" o, más recientemente, "SDH" (subtitulado para personas sordas y con problemas de audición). [38] Muchos DVD-Videos populares de Hollywood pueden llevar tanto subtítulos como subtítulos (por ejemplo, el DVD Stepmom de Columbia Pictures). En algunos DVD, los subtítulos de la línea 21 pueden contener el mismo texto que los subtítulos; en otros, solo los subtítulos de la línea 21 incluyen la información adicional no verbal (incluso a veces las letras de las canciones) necesaria para los espectadores sordos y con problemas de audición. Los DVD de la región 2 de Europa no incluyen subtítulos en la línea 21, sino que enumeran los idiomas de subtítulos disponibles: el inglés suele aparecer dos veces, uno como representación del diálogo únicamente y un segundo conjunto de subtítulos que incluye información adicional para la audiencia sorda o con problemas de audición. (Muchos archivos de subtítulos para sordos o con problemas de audición en DVD son reelaboraciones de archivos de subtítulos de teletexto originales).
Los medios Blu-ray normalmente no pueden llevar ningún dato VBI como subtítulos Line 21 debido al diseño de las especificaciones de Interfaz Multimedia de Alta Definición (HDMI) basadas en DVI que solo se extendieron para audio digital sincronizado que reemplazó a estándares analógicos más antiguos, como VGA , S-Video, video componente y SCART . Sin embargo, algunos títulos tempranos de 20th Century Fox Home Entertainment llevaban subtítulos Line 21 que se emiten cuando se usan las salidas analógicas (generalmente video compuesto) de algunos reproductores Blu-ray. Tanto Blu-ray como DVD pueden usar subtítulos de mapa de bits PNG o "subtítulos avanzados" para llevar subtítulos de tipo SDH, siendo este último un formato de texto basado en XML que incluye información de fuente, estilo y posicionamiento, así como una representación Unicode del texto. El subtitulado avanzado también puede incluir características adicionales de accesibilidad de medios como "audio descriptivo".
Existen varias tecnologías que compiten entre sí para proporcionar subtítulos a las películas en los cines. Los subtítulos en el cine se dividen en subtítulos abiertos y cerrados. La definición de subtítulos "cerrados" en este contexto es diferente a la de la televisión, ya que se refiere a cualquier tecnología que permita que tan solo un miembro de la audiencia vea los subtítulos.
Los subtítulos abiertos en una sala de cine se pueden lograr mediante subtítulos incorporados, texto proyectado o mapas de bits o (raramente) una pantalla ubicada encima o debajo de la pantalla de cine. Por lo general, esta pantalla es un gran cartel LED. En una sala de cine digital, la capacidad de visualización de subtítulos abiertos está integrada en el proyector digital. La capacidad de subtítulos cerrados también está disponible, con la posibilidad de que dispositivos de subtítulos cerrados de terceros se conecten al servidor de cine digital.
Probablemente la opción de subtítulos más conocida para las salas de cine es el Rear Window Captioning System del National Center for Accessible Media . Al entrar en la sala, los espectadores que necesitan subtítulos reciben un panel de vidrio o plástico translúcido plano en un tallo de cuello de cisne, que se puede montar frente al asiento del espectador. En la parte trasera de la sala hay una pantalla LED que muestra los subtítulos en una imagen reflejada. El panel refleja los subtítulos para el espectador, pero es casi invisible para los espectadores circundantes. El panel se puede colocar de manera que el espectador vea la película a través del mismo y los subtítulos aparezcan sobre la imagen de la película o cerca de ella. Una empresa llamada Cinematic Captioning Systems tiene un sistema reflectante similar llamado Bounce Back. Un problema importante para los distribuidores ha sido que estos sistemas son propietarios y requieren distribuciones independientes para la sala de cine para que funcionen. Los sistemas propietarios también incurren en tarifas de licencia.
Para los sistemas de proyección de películas, Digital Theater Systems , la empresa que está detrás del estándar de sonido envolvente DTS , ha creado un dispositivo de subtitulado digital llamado DTS-CSS (sistema de subtitulado cinematográfico). Se trata de una combinación de un proyector láser que coloca el subtitulado (palabras, sonidos) en cualquier lugar de la pantalla y un dispositivo de reproducción delgado con un CD que admite varios idiomas. Si se utiliza el sistema de subtitulado Rear Window, también se requiere el reproductor DTS-CSS para enviar el texto del subtitulado al cartel Rear Window ubicado en la parte trasera del cine.
Se ha hecho un esfuerzo especial para incorporar características de accesibilidad en los sistemas de proyección digital (véase cine digital ). A través de SMPTE , ahora existen estándares que dictan cómo se empaquetan los subtítulos abiertos y cerrados, así como el audio narrativo para personas con discapacidad auditiva y visual, con el resto de la película digital. Esto elimina las distribuciones de subtítulos patentadas requeridas para la película y las regalías asociadas. SMPTE también ha estandarizado la comunicación del contenido de subtítulos cerrados entre el servidor de cine digital y los sistemas de subtítulos cerrados de terceros (el protocolo CSP/RPL). Como resultado, ahora están surgiendo nuevos sistemas de subtítulos cerrados competitivos para cine digital que funcionarán con cualquier servidor de cine digital que cumpla con los estándares. Estos dispositivos de subtítulos cerrados más nuevos incluyen pantallas electrónicas montadas en portavasos y anteojos inalámbricos que muestran el texto de los subtítulos frente a los ojos del usuario. [39] También hay dispositivos puente disponibles para permitir el uso de sistemas Rear Window. A mediados de 2010, el desafío restante para la introducción generalizada de la accesibilidad en el cine digital es la transición de toda la industria a SMPTE DCP, el método de empaquetado estandarizado para la distribución segura y de muy alta calidad de películas digitales.
Los sistemas de subtítulos también han sido adoptados por la mayoría de los estadios y arenas de las grandes ligas y universidades de alto perfil , generalmente a través de porciones dedicadas de sus marcadores principales o como parte de los tableros LED de la fascia del balcón . Estas pantallas muestran subtítulos del locutor de megafonía y otro contenido hablado, como los contenidos en segmentos del juego, anuncios de servicio público y letras de canciones que se reproducen en el estadio. En algunas instalaciones, estos sistemas se agregaron como resultado de demandas por discriminación. Después de una demanda bajo la Ley de Estadounidenses con Discapacidades , FedExField agregó pantallas de subtítulos en 2006. [40] [41] Algunos estadios utilizan subtituladores en el lugar, mientras que otros los subcontratan a proveedores externos que subtitulan de forma remota. [42] [43]
La aparición poco frecuente de subtítulos en los videojuegos se convirtió en un problema en la década de 1990, cuando los juegos comenzaron a incluir pistas de voz, que en algunos casos contenían información que el jugador necesitaba para saber cómo progresar en el juego. [44] Los subtítulos de los videojuegos se están volviendo más comunes. Una de las primeras compañías de videojuegos en presentar subtítulos fue Bethesda Softworks en su lanzamiento de 1990 de Hockey League Simulator y The Terminator 2029. [ cita requerida ] Infocom también ofreció Zork Grand Inquisitor en 1997. [45] Muchos juegos desde entonces han ofrecido al menos subtítulos para el diálogo hablado durante las escenas de corte , y muchos incluyen diálogos y efectos de sonido significativos en el juego también en los subtítulos; Por ejemplo, con los subtítulos activados en la serie de juegos de sigilo Metal Gear Solid , no solo están disponibles los subtítulos durante las escenas cinemáticas, sino que también se subtitulan todos los diálogos hablados durante el juego en tiempo real, lo que permite a los jugadores que no pueden escuchar el diálogo saber qué están diciendo los guardias enemigos y cuándo se ha detectado al personaje principal. Además, en muchos de los videojuegos del desarrollador Valve (como Half-Life 2 o Left 4 Dead ), cuando se activan los subtítulos, se subtitulan los diálogos y casi todos los efectos de sonido, ya sean creados por el jugador o de otras fuentes (por ejemplo, disparos, explosiones).
Los videojuegos no ofrecen subtítulos Line 21, que se decodifican y muestran en el propio televisor, sino que cuentan con una pantalla de subtítulos integrada, más parecida a la de un DVD. Los sistemas de juego tampoco tienen ningún papel en los subtítulos; cada juego debe tener su pantalla de subtítulos programada individualmente.
Reid Kimball, un diseñador de juegos con problemas de audición, está intentando educar a los desarrolladores de juegos sobre los subtítulos para juegos. Reid inició el grupo Games[CC] para subtitular juegos y servir como un equipo de investigación y desarrollo para ayudar a la industria. Kimball diseñó el sistema de subtítulos dinámicos, [ cita requerida ] escribe artículos y habla en conferencias de desarrolladores. El primer proyecto de subtítulos de Games[CC] llamado Doom3[CC] fue nominado para un premio como Mejor Mod de Doom3 del Año para la entrega de premios Choice Awards de IGDA en 2006.
El servicio de transmisión de videos por Internet YouTube ofrece servicios de subtítulos en videos. El autor del video puede cargar un archivo SubViewer (*.SUB), SubRip (*.SRT) o *.SBV. [46] Como función beta, el sitio también agregó la capacidad de transcribir y generar subtítulos automáticamente en videos, con distintos grados de éxito según el contenido del video. [47] Sin embargo, el 30 de agosto de 2020, la compañía anunció que los subtítulos comunitarios finalizarán el 28 de septiembre . [48] Los subtítulos automáticos a menudo son inexactos en videos con música de fondo o emoción exagerada al hablar. Las variaciones en el volumen también pueden resultar en subtítulos generados por máquina sin sentido. Surgen problemas adicionales con acentos fuertes, sarcasmo , contextos diferentes u homónimos . [49]
El 30 de junio de 2010, YouTube anunció una nueva designación "YouTube Ready" para los proveedores de subtítulos profesionales en los Estados Unidos. [50] La lista inicial incluía doce empresas que pasaron una evaluación de calidad de subtítulos administrada por el Described and Captioned Media Project, tienen un sitio web y un canal de YouTube donde los clientes pueden obtener más información sobre sus servicios y han acordado publicar tarifas para la gama de servicios que ofrecen para el contenido de YouTube.
El vídeo Flash también admite subtítulos mediante el perfil de intercambio de distribución (DFXP) del formato de texto temporizado W3C . El software de creación de Flash más reciente añade máscaras de reproductor gratuitas y componentes de subtítulos que permiten a los espectadores activar o desactivar los subtítulos durante la reproducción desde una página web. Las versiones anteriores de Flash dependían del componente y máscara de terceros Captionate para subtitular vídeos Flash. Los reproductores Flash personalizados diseñados en Flex se pueden adaptar para que admitan el perfil de intercambio de texto temporizado, Captionate .XML o archivo SAMI (por ejemplo, subtítulos Hulu ). Este es el método preferido por la mayoría de las redes de televisión por cable y difusión de EE. UU. a las que la Comisión Federal de Comunicaciones de EE. UU. exige que proporcionen contenido subtitulado a pedido. Las empresas de codificación de medios generalmente utilizan software como MacCaption para convertir los subtítulos EIA-608 a este formato. El Silverlight Media Framework [51] también incluye compatibilidad con el perfil de intercambio de texto temporizado tanto para descarga como para transmisión adaptable de medios.
Windows Media Video puede admitir subtítulos tanto para transmisión de video a pedido como para transmisión en vivo. Por lo general, los subtítulos de Windows Media admiten el formato de archivo SAMI , pero también pueden incluir datos de subtítulos integrados.
El formato de distribución EBU-TT-D admite múltiples reproductores en múltiples plataformas.
El video QuickTime admite datos de subtítulos EIA-608 sin procesar a través de pistas de subtítulos patentadas, que son simplemente pares de bytes EIA-608 envueltos en un contenedor de paquetes QuickTime con diferentes identificadores para ambos campos de la línea 21. Estos subtítulos se pueden activar y desactivar y aparecen en el mismo estilo que los subtítulos de TV, con todo el formato estándar (emergente, enrollable, pintado) y se pueden colocar y dividir en cualquier lugar de la pantalla de video. Las pistas de subtítulos QuickTime se pueden ver en versiones macOS o Windows de QuickTime Player, iTunes (a través de QuickTime), iPod Nano , iPod Classic , iPod Touch , iPhone y iPad .
Los navegadores modernos típicos, como Edge y Chrome , y/o los sistemas operativos modernos típicos, como iOS 12+ , Android 10+ , Windows 10+ , pueden administrar el estilo de subtítulos CC. [52] [53]
Las obras en vivo pueden ser subtituladas abiertamente por un subtitulador que muestra líneas del guión e incluye elementos no hablados en una pantalla grande cerca del escenario. [54] Ahora también hay disponible un software que genera automáticamente los subtítulos y los transmite a las personas sentadas en el teatro, que pueden verlos usando anteojos con pantalla grande o en un teléfono inteligente o tableta.
Los subtítulos en pantallas o dispositivos personales pueden resultar difíciles de seguir al mismo tiempo que se desarrolla la actuación en el escenario. Para resolver este problema, el subtitulado creativo se refiere al proceso de integrar subtítulos en el diseño del escenario como parte del proceso creativo. [55] Los subtítulos creativos son una parte visible del espectáculo: el diseñador del escenario o el subtitulador adapta el estilo de los subtítulos a la atmósfera del espectáculo a través de características como la animación, el color, la fuente y el tamaño. [55]
Un teléfono con subtítulos es un teléfono que muestra subtítulos en tiempo real de la conversación actual. Los subtítulos suelen aparecer en una pantalla integrada en la base del teléfono.
Algunos servicios de videoconferencia en línea, como Google Meet , ofrecen la posibilidad de mostrar subtítulos en tiempo real de la conversación actual.
En Estados Unidos, en particular, la mayoría de los servicios de monitoreo de medios capturan e indexan el texto de subtítulos de programas de noticias y asuntos públicos, lo que les permite buscar referencias de clientes en el texto. El uso de subtítulos para el monitoreo de noticias de televisión fue iniciado por Universal Press Clipping Bureau (Universal Information Services) en 1992, [ cita requerida ] y más tarde en 1993 por NewsTrak de Oklahoma con sede en Tulsa (más tarde conocida como Broadcast News of Mid-America, adquirida por el pionero de los comunicados de prensa en video Medialink Worldwide Incorporated en 1997). [ cita requerida ] La patente estadounidense 7.009.657 describe un "método y sistema para la recopilación y el acondicionamiento automáticos de texto de subtítulos que se origina en múltiples ubicaciones geográficas" tal como lo utilizan los servicios de monitoreo de noticias.
Existen programas de software que generan automáticamente subtítulos para conversaciones. Algunos ejemplos de este tipo de conversaciones son las que se mantienen en salas de conferencias, clases o servicios religiosos.
En 2010, Vegas Pro , el editor no lineal profesional, se actualizó para admitir la importación, edición y entrega de subtítulos CEA-608 . [56] Vegas Pro 10, lanzado el 11 de octubre de 2010, agregó varias mejoras al soporte de subtítulos. Los subtítulos CEA-608 similares a los de TV ahora se pueden mostrar como una superposición cuando se reproducen en las ventanas de vista previa y recortadora, lo que facilita la verificación de la ubicación, las ediciones y el tiempo de la información de CC. Los subtítulos estilo CEA708 se crean automáticamente cuando se crean los datos CEA-608. Ahora se admiten subtítulos Line 21, así como la captura e impresión de subtítulos HD-SDI desde tarjetas AJA y Blackmagic Design . La compatibilidad con Line 21 proporciona un flujo de trabajo para los medios heredados existentes. Otras mejoras incluyen un mayor soporte para múltiples tipos de archivos de subtítulos, así como la capacidad de exportar datos de subtítulos para DVD Architect, YouTube, RealPlayer, QuickTime y Windows Media Player.
A mediados de 2009, Apple lanzó la versión 7 de Final Cut Pro y comenzó a admitir la inserción de datos de subtítulos en masters de cinta SD y HD a través de FireWire y tarjetas de captura de video compatibles. [57] Hasta ese momento, los editores de video no podían insertar datos de subtítulos con CEA-608 y CEA-708 en sus masters de cinta. El flujo de trabajo típico incluía primero imprimir el video SD o HD en una cinta y enviarlo a una empresa de servicios de subtítulos profesional que tuviera un codificador de hardware de subtítulos independiente.
Este nuevo flujo de trabajo de subtitulado, conocido como e-Captioning, implica la creación de un vídeo proxy a partir del sistema no lineal para importarlo a un software de subtitulado no lineal de terceros. Una vez finalizado el proyecto del software de subtitulado, debe exportar un archivo de subtitulado compatible con el sistema de edición no lineal . En el caso de Final Cut Pro 7, se pueden aceptar tres formatos de archivo diferentes: un archivo .SCC (archivo de subtítulos de Scenerist) para vídeo de definición estándar, una pista de subtítulos QuickTime 608 (una pista especial con codificación 608 en el contenedor de archivo .mov) para vídeo de definición estándar y, por último, una pista de subtítulos QuickTime 708 (una pista especial con codificación 708 en el contenedor de archivo .mov) para salida de vídeo de alta definición.
Como alternativa, los sistemas de vídeo Matrox idearon otro mecanismo para insertar datos de subtítulos, permitiendo al editor de vídeo incluir CEA-608 y CEA-708 en un canal de audio discreto en la línea de tiempo de edición de vídeo. Esto permite una vista previa en tiempo real de los subtítulos durante la edición y es compatible con Final Cut Pro 6 y 7. [58]
Otros sistemas de edición no lineal admiten indirectamente los subtítulos cerrados solo en la línea 21 de la definición estándar. Los archivos de vídeo en la línea de tiempo de edición deben estar compuestos con una capa gráfica VBI de línea 21 conocida en la industria como "blackmovie" con datos de subtítulos cerrados. [59] Alternativamente, los editores de vídeo que trabajan con los flujos de trabajo FireWire DV25 y DV50 deben codificar su archivo DV .avi o .mov con datos VAUX que incluyen datos de subtítulos cerrados CEA-608.
El logotipo actual y más conocido para los subtítulos consiste en dos C (de "subtitulado") dentro de una pantalla de televisión. Fue creado en WGBH . El otro logotipo, registrado como marca registrada por el Instituto Nacional de Subtítulos , es el de una representación geométrica simple de un televisor fusionado con la cola de un globo de diálogo ; existen dos versiones de este tipo: una con una cola a la izquierda y la otra con una cola a la derecha. [60]
El uso de subtítulos y descripción de audio no se limita a las personas sordas y ciegas. Los subtítulos se pueden utilizar en situaciones de sordera "temporal", como mirar televisiones en áreas públicas donde se ha bajado el sonido (algo común en Estados Unidos y que está empezando a aparecer más en Australia).
que los receptores de televisión ubicados en cualquier parte de una instalación abierta al público en general tengan los subtítulos activados en todo momento cuando la instalación esté abierta y el receptor de televisión esté en uso.
Los subtítulos estarán disponibles en todas las áreas públicas donde haya televisores con subtítulos; los televisores en áreas públicas sin capacidad de subtítulos incorporados serán reemplazados por televisores que tengan dicha capacidad.