Fonética

Estudio de los sonidos del lenguaje humano.

La fonética es una rama de la lingüística que estudia cómo los humanos producen y perciben los sonidos o, en el caso de las lenguas de signos , los aspectos equivalentes de los signos. [1] Los lingüistas que se especializan en estudiar las propiedades físicas del habla son fonetistas . El campo de la fonética se divide tradicionalmente en tres subdisciplinas basadas en las preguntas de investigación involucradas, como cómo los humanos planifican y ejecutan movimientos para producir el habla ( fonética articulatoria ), cómo varios movimientos afectan las propiedades del sonido resultante ( fonética acústica ) o cómo los humanos convierten las ondas sonoras en información lingüística ( fonética auditiva ). Tradicionalmente, la unidad lingüística mínima de la fonética es el fonema , un sonido del habla en un idioma que difiere de la unidad fonológica del fonema ; el fonema es una categorización abstracta de los fonemas y también se define como la unidad más pequeña que discierne el significado entre los sonidos en cualquier idioma determinado. [2]

La fonética se ocupa de dos aspectos del habla humana: la producción (las formas en que los humanos producen sonidos) y la percepción (la forma en que se entiende el habla). La modalidad comunicativa de una lengua describe el método por el cual una lengua produce y percibe lenguas. Las lenguas con modalidades oral-auditivas, como el inglés, producen el habla oralmente y lo perciben auditivamente (usando los oídos). Las lenguas de señas, como la lengua de señas australiana (Auslan) y la lengua de señas estadounidense (ASL), tienen una modalidad manual-visual, produciendo el habla manualmente (usando las manos) y percibiéndolo visualmente. La ASL y algunas otras lenguas de señas tienen además un dialecto manual-manual para uso en la seña táctil por parte de hablantes sordociegos , donde las señas se producen con las manos y también se perciben con las manos.

La producción lingüística consta de varios procesos interdependientes que transforman un mensaje no lingüístico en una señal lingüística hablada o por señas. Después de identificar un mensaje que se va a codificar lingüísticamente, el hablante debe seleccionar las palabras individuales (conocidas como elementos léxicos ) que lo representen en un proceso llamado selección léxica. Durante la codificación fonológica, a la representación mental de las palabras se le asigna su contenido fonológico como una secuencia de fonemas que se van a producir. Los fonemas se especifican para características articulatorias que denotan objetivos particulares, como los labios cerrados o la lengua en una posición particular. Luego, estos fonemas se coordinan en una secuencia de órdenes musculares que se pueden enviar a los músculos y, cuando estas órdenes se ejecutan correctamente, se producen los sonidos deseados.

Estos movimientos alteran y modifican una corriente de aire, lo que da lugar a una onda sonora. La modificación la realizan los articuladores, y los distintos lugares y formas de articulación producen distintos resultados acústicos. Por ejemplo, las palabras tack y sack comienzan con sonidos alveolares en inglés, pero difieren en la distancia que separa la lengua de la cresta alveolar. Esta diferencia tiene grandes efectos en la corriente de aire y, por lo tanto, en el sonido que se produce. De manera similar, la dirección y la fuente de la corriente de aire pueden afectar al sonido. El mecanismo de corriente de aire más común es el pulmonar (que utiliza los pulmones), pero la glotis y la lengua también pueden utilizarse para producir corrientes de aire.

La percepción del lenguaje es el proceso por el cual un oyente decodifica y comprende una señal lingüística. Para percibir el habla, la señal acústica continua debe convertirse en unidades lingüísticas discretas, como fonemas , morfemas y palabras . Para identificar y categorizar correctamente los sonidos, los oyentes priorizan ciertos aspectos de la señal que pueden distinguir de manera confiable entre categorías lingüísticas. Si bien se priorizan ciertas señales sobre otras, muchos aspectos de la señal pueden contribuir a la percepción. Por ejemplo, aunque los lenguajes orales priorizan la información acústica, el efecto McGurk muestra que la información visual se utiliza para distinguir información ambigua cuando las señales acústicas no son confiables.

La fonética moderna tiene tres ramas:

Historia

Antigüedad

El primer estudio conocido de la fonética fue realizado por gramáticos sánscritos en el siglo VI a. C. [3] El erudito hindú Pāṇini es uno de los más conocidos de estos primeros investigadores. Su gramática de cuatro partes, escrita alrededor del  350 a. C. , es influyente en la lingüística moderna y todavía representa "la gramática generativa más completa de cualquier idioma escrito hasta ahora". [4] Su gramática formó la base de la lingüística moderna y describió varios principios fonéticos importantes, incluida la sonorización. Este relato temprano describió la resonancia como producida por el tono, cuando las cuerdas vocales están cerradas, o el ruido, cuando las cuerdas vocales están abiertas. Los principios fonéticos de la gramática se consideran "primitivos" en el sentido de que son la base de su análisis teórico en lugar de los objetos del análisis teórico en sí mismos, y los principios pueden inferirse de su sistema de fonología. [5]

El estudio sánscrito de la fonética se llama Shiksha , que el Taittiriya Upanishad del primer milenio a. C. define de la siguiente manera:

Om! Explicaremos el Shiksha.
Sonidos y acentuación, Cantidad (de vocales) y expresión (de consonantes),
Equilibrio (Saman) y conexión (de sonidos), Mucho sobre el estudio del Shiksha. || 1 |

Taittiriya Upanishad 1.2, Shikshavalli, traducido por Paul Deussen [6] .

Moderno

Los avances en fonética después de Pāṇini y sus contemporáneos fueron limitados hasta la era moderna, salvo algunas investigaciones limitadas de gramáticos griegos y romanos. En los milenios entre los gramáticos índicos y la fonética moderna, el enfoque cambió de la diferencia entre el lenguaje hablado y escrito, que era la fuerza impulsora detrás del relato de Pāṇini, y comenzó a centrarse solo en las propiedades físicas del habla. El interés sostenido en la fonética comenzó de nuevo alrededor de 1800 EC con el término "fonética" siendo utilizado por primera vez en el sentido actual en 1841. [7] [3] Con nuevos desarrollos en medicina y el desarrollo de dispositivos de grabación de audio y video, los conocimientos fonéticos pudieron usar y revisar datos nuevos y más detallados. Este período temprano de la fonética moderna incluyó el desarrollo de un influyente alfabeto fonético basado en posiciones articulatorias por Alexander Melville Bell . Conocido como habla visible , ganó prominencia como herramienta en la educación oral de niños sordos . [3]

Antes de la amplia disponibilidad de equipos de grabación de audio, los fonetistas dependían en gran medida de una tradición de fonética práctica para garantizar que las transcripciones y los hallazgos pudieran ser consistentes entre los fonetistas. Esta capacitación involucraba tanto entrenamiento auditivo (el reconocimiento de los sonidos del habla) como entrenamiento de producción (la capacidad de producir sonidos). Se esperaba que los fonetistas aprendieran a reconocer de oído los diversos sonidos del Alfabeto Fonético Internacional y el IPA todavía prueba y certifica a los hablantes en su capacidad para producir con precisión los patrones fonéticos del inglés (aunque han descontinuado esta práctica para otros idiomas). [8] Como revisión de su método de habla visible, Melville Bell desarrolló una descripción de las vocales por altura y posterioridad que resultó en 9 vocales cardinales . [9] Como parte de su capacitación en fonética práctica, se esperaba que los fonetistas aprendieran a producir estas vocales cardinales para anclar su percepción y transcripción de estos fonemas durante el trabajo de campo. [8] Este enfoque fue criticado por Peter Ladefoged en la década de 1960 basándose en evidencia experimental donde descubrió que las vocales cardinales eran objetivos auditivos en lugar de articulatorios, desafiando la afirmación de que representaban anclas articulatorias por las cuales los fonetistas podían juzgar otras articulaciones. [10]

Producción

La producción lingüística consiste en varios procesos interdependientes que transforman un mensaje no lingüístico en una señal lingüística hablada o de signos. Los lingüistas debaten si el proceso de producción lingüística ocurre en una serie de etapas (procesamiento en serie) o si los procesos de producción ocurren en paralelo. Después de identificar un mensaje para ser codificado lingüísticamente, un hablante debe seleccionar las palabras individuales, conocidas como elementos léxicos , para representar ese mensaje en un proceso llamado selección léxica. Las palabras se seleccionan en función de su significado, que en lingüística se llama información semántica . La selección léxica activa el lema de la palabra , que contiene información semántica y gramatical sobre la palabra. [11] [a]

Una vez que se ha planificado un enunciado, [b] éste pasa por una codificación fonológica. En esta etapa de la producción del lenguaje, a la representación mental de las palabras se le asigna su contenido fonológico como una secuencia de fonemas que se deben producir. Los fonemas se especifican para características articulatorias que denotan objetivos particulares, como los labios cerrados o la lengua en una posición particular. Luego, estos fonemas se coordinan en una secuencia de órdenes musculares que se pueden enviar a los músculos y, cuando estas órdenes se ejecutan correctamente, se producen los sonidos deseados. [13] Por lo tanto, el proceso de producción del mensaje al sonido se puede resumir en la siguiente secuencia: [c]

  • Planificación de mensajes
  • Selección de lemas
  • Recuperación y asignación de formas fonológicas de palabras
  • Especificación articulatoria
  • Comandos musculares
  • Articulación
  • Sonidos del habla

Lugar de articulación

Los sonidos que se producen por una constricción total o parcial del tracto vocal se denominan consonantes . Las consonantes se pronuncian en el tracto vocal, generalmente en la boca, y la ubicación de esta constricción afecta el sonido resultante. Debido a la estrecha relación entre la posición de la lengua y el sonido resultante, el lugar de articulación es un concepto importante en muchas subdisciplinas de la fonética.

Los sonidos se clasifican en parte según la ubicación de la constricción, así como la parte del cuerpo que la realiza. Por ejemplo, en inglés, las palabras fight y thought son un par mínimo que difieren solo en el órgano que realiza la construcción, en lugar de la ubicación de la misma. La "f" de fight es una articulación labiodental que se hace con el labio inferior contra los dientes. La "th" de thought es una articulación linguodental que se hace con la lengua contra los dientes. Las constricciones que se hacen con los labios se llaman labiales, mientras que las que se hacen con la lengua se llaman linguales.

Las constricciones hechas con la lengua pueden realizarse en varias partes del tracto vocal, clasificadas ampliamente en lugares de articulación coronal, dorsal y radical. Las articulaciones coronales se realizan con la parte delantera de la lengua, las articulaciones dorsales se realizan con la parte trasera de la lengua y las articulaciones radicales se realizan en la faringe . [14] Estas divisiones no son suficientes para distinguir y describir todos los sonidos del habla. [14] Por ejemplo, en inglés los sonidos [s] y [ʃ] son ​​ambos coronales, pero se producen en diferentes lugares de la boca. Para explicar esto, se necesitan lugares de articulación más detallados según el área de la boca en la que se produce la constricción. [15]

Labial

Las articulaciones que involucran los labios se pueden hacer de tres maneras diferentes: con ambos labios (bilabial), con un labio y los dientes, por lo que tienen el labio inferior como articulador activo y los dientes superiores como articulador pasivo [16] (labiodental), y con la lengua y el labio superior (linguolabial). [17] Dependiendo de la definición utilizada, algunos o todos estos tipos de articulaciones pueden categorizarse en la clase de articulaciones labiales . Las consonantes bilabiales se hacen con ambos labios. Al producir estos sonidos, el labio inferior se mueve más lejos para encontrarse con el labio superior, que también se mueve ligeramente hacia abajo, [18] aunque en algunos casos la fuerza del aire que se mueve a través de la abertura (abertura entre los labios) puede hacer que los labios se separen más rápido de lo que pueden juntarse. [19] A diferencia de la mayoría de las otras articulaciones, ambos articuladores están hechos de tejido blando, por lo que es más probable que las oclusivas bilabiales se produzcan con cierres incompletos que las articulaciones que involucran superficies duras como los dientes o el paladar. Las oclusivas bilabiales también son inusuales en el sentido de que un articulador en la sección superior del tracto vocal se mueve activamente hacia abajo, ya que el labio superior muestra algún movimiento activo hacia abajo. [20] Las consonantes linguolabiales se forman con la hoja de la lengua acercándose o contactando el labio superior. Al igual que en las articulaciones bilabiales, el labio superior se mueve ligeramente hacia el articulador más activo. Las articulaciones de este grupo no tienen sus propios símbolos en el Alfabeto Fonético Internacional, sino que se forman combinando un símbolo apical con un diacrítico colocándolos implícitamente en la categoría coronal. [21] [22] Existen en varios idiomas indígenas de Vanuatu, como el tangoa .

Las consonantes labiodentales se forman cuando el labio inferior se eleva hasta los dientes superiores. Las consonantes labiodentales suelen ser fricativas, mientras que las nasales labiodentales también son tipológicamente comunes. [23] Existe un debate sobre si las oclusivas labiodentales verdaderas ocurren en cualquier idioma natural, [24] aunque se informa que varias lenguas tienen oclusivas labiodentales, entre ellas el zulú , [25] el tonga , [26] y el shubi . [24]

Coronal

Las consonantes coronales se hacen con la punta o la lámina de la lengua y, debido a la agilidad de la parte delantera de la lengua, representan una variedad no solo en el lugar sino también en la postura de la lengua. Los lugares coronales de articulación representan las áreas de la boca donde la lengua hace contacto o hace una constricción, e incluyen ubicaciones dentales, alveolares y post-alveolares. Las posturas de la lengua que utilizan la punta de la lengua pueden ser apicales si se utiliza la parte superior de la punta de la lengua, laminales si se hacen con la lámina de la lengua, o sub-apical si la punta de la lengua está curvada hacia atrás y se utiliza la parte inferior de la lengua. Las consonantes coronales son únicas como grupo en el sentido de que cada forma de articulación está atestiguada. [21] [27] Las lenguas australianas son bien conocidas por la gran cantidad de contrastes coronales exhibidos dentro y entre las lenguas de la región. [28] Las consonantes dentales se hacen con la punta o la lámina de la lengua y los dientes superiores. Se dividen en dos grupos según la parte de la lengua que se utiliza para producirlas: las consonantes dentales apicales se producen con la punta de la lengua tocando los dientes; las consonantes interdentales se producen con la hoja de la lengua cuando la punta de la lengua sobresale frente a los dientes. No se conoce ningún idioma que utilice ambas de forma contrastiva, aunque pueden existir alofónicamente . Las consonantes alveolares se producen con la punta o la hoja de la lengua en la cresta alveolar justo detrás de los dientes y, de manera similar, pueden ser apicales o laminares. [29]

En términos interlingüísticos, las consonantes dentales y las consonantes alveolares se contrastan con frecuencia, lo que da lugar a una serie de generalizaciones de patrones interlingüísticos. Los diferentes lugares de articulación también tienden a contrastarse en la parte de la lengua utilizada para producirlos: la mayoría de las lenguas con oclusivas dentales tienen dentales laminales, mientras que las lenguas con oclusivas apicales suelen tener oclusivas apicales. Las lenguas rara vez tienen dos consonantes en el mismo lugar con un contraste en laminalidad, aunque Taa (ǃXóõ) es un contraejemplo de este patrón. [30] Si una lengua tiene solo una oclusiva dental o una oclusiva alveolar, normalmente será laminal si es una oclusiva dental, y la oclusiva normalmente será apical si es una oclusiva alveolar, aunque, por ejemplo, el temne y el búlgaro [31] no siguen este patrón. [32] Si una lengua tiene tanto una oclusión apical como una laminal, entonces es más probable que la oclusión laminal esté africada como en isoko , aunque el dahalo muestra el patrón opuesto, con oclusivas alveolares más africadas. [33]

Las consonantes retroflejas tienen varias definiciones diferentes dependiendo de si se le da prominencia a la posición de la lengua o a la posición en el paladar. En general, representan un grupo de articulaciones en las que la punta de la lengua está curvada hacia arriba hasta cierto punto. De esta manera, las articulaciones retroflejas pueden ocurrir en varias ubicaciones diferentes en el paladar, incluidas las regiones alveolar, postalveolar y palatina. Si la parte inferior de la punta de la lengua hace contacto con el paladar, es subapical, aunque los sonidos postalveolares apicales también se describen como retroflejos. [34] Los ejemplos típicos de oclusivas retroflejas subapicales se encuentran comúnmente en las lenguas dravídicas , y en algunas lenguas indígenas del suroeste de los Estados Unidos, la diferencia contrastiva entre las oclusivas dentales y alveolares es una ligera retroflexión de la oclusiva alveolar. [35] Acústicamente, la retroflexión tiende a afectar a los formantes más altos. [35]

Las articulaciones que se producen justo detrás de la cresta alveolar, conocidas como consonantes postalveolares , se han denominado con varios términos diferentes. Las consonantes postalveolares apicales suelen denominarse retroflejas, mientras que las articulaciones laminales a veces se denominan palatoalveolares; [36] en la literatura australiana, estas oclusivas laminales a menudo se describen como "palatales", aunque se producen más adelante que la región del paladar que normalmente se describe como palatal. [28] Debido a la variación anatómica individual, la articulación precisa de las oclusivas palatoalveolares (y de las coronales en general) puede variar ampliamente dentro de una comunidad de habla. [37]

Dorsal

Las consonantes dorsales son aquellas consonantes que se hacen usando el cuerpo de la lengua en lugar de la punta o la lámina y se producen típicamente en el paladar, el velo o la úvula. Las consonantes palatales se hacen usando el cuerpo de la lengua contra el paladar duro en el techo de la boca. Con frecuencia se contrastan con las consonantes velares o úvulas, aunque es raro que una lengua contraste las tres simultáneamente, con el jaqaru como un posible ejemplo de un contraste triple. [38] Las consonantes velares se hacen usando el cuerpo de la lengua contra el velo . Son increíblemente comunes entre lenguas; casi todas las lenguas tienen una oclusión velar. Debido a que tanto las velares como las vocales se hacen usando el cuerpo de la lengua, se ven muy afectadas por la coarticulación con las vocales y se pueden producir tan adelante como el paladar duro o tan atrás como la úvula. Estas variaciones se dividen típicamente en velares frontales, centrales y posteriores en paralelo con el espacio vocálico. [39] Pueden ser difíciles de distinguir fonéticamente de las consonantes palatales, aunque se producen ligeramente detrás del área de las consonantes palatales prototípicas. [40] Las consonantes uvulares se forman cuando el cuerpo de la lengua entra en contacto o se acerca a la úvula. Son raras, se producen en un 19 por ciento de los idiomas, y grandes regiones de las Américas y África no tienen idiomas con consonantes uvulares. En los idiomas con consonantes uvulares, las oclusivas son las más frecuentes seguidas de las continuas (incluidas las nasales). [41]

Faringe y laringe

Las consonantes producidas por constricciones de la garganta se denominan faríngeas, y las producidas por una constricción de la laringe se denominan laríngeas. Las laríngeas se producen utilizando los pliegues vocales, ya que la laringe está demasiado abajo en la garganta para alcanzarla con la lengua. Sin embargo, las faríngeas están lo suficientemente cerca de la boca como para que partes de la lengua puedan alcanzarlas.

Las consonantes radicales utilizan la raíz de la lengua o la epiglotis durante su producción y se producen muy atrás en el tracto vocal. [42] Las consonantes faríngeas se hacen retrayendo la raíz de la lengua lo suficiente como para casi tocar la pared de la faringe . Debido a las dificultades de producción, solo las fricativas y las aproximantes se pueden producir de esta manera. [43] [44] Las consonantes epiglóticas se hacen con la epiglotis y la pared posterior de la faringe. Se han registrado oclusivas epiglóticas en Dahalo . [44] Las consonantes epiglóticas sonoras no se consideran posibles debido a que la cavidad entre la glotis y la epiglotis es demasiado pequeña para permitir la sonorización. [45]

Las consonantes glotales son aquellas producidas utilizando las cuerdas vocales en la laringe. Debido a que las cuerdas vocales son la fuente de la fonación y están debajo del tracto vocal oronasal, varias consonantes glotales son imposibles, como una oclusiva glotal sonora. Son posibles tres consonantes glotales, una oclusiva glotal sorda y dos fricativas glotales, y todas están atestiguadas en idiomas naturales. [21] Las oclusivas glotales , producidas al cerrar las cuerdas vocales , son notablemente comunes en los idiomas del mundo. [45] Si bien muchos idiomas las usan para demarcar los límites de las frases, algunos idiomas como el árabe y el mazateco huatla las tienen como fonemas contrastivos. Además, las oclusivas glotales se pueden realizar como laringealización de la vocal siguiente en este idioma. [46] Las oclusivas glotales, especialmente entre vocales, generalmente no forman un cierre completo. Las oclusivas glotales verdaderas normalmente ocurren solo cuando están geminadas . [47]

La laringe

Ver subtítulo
Una vista de arriba hacia abajo de la laringe.

La laringe, comúnmente conocida como la "caja de la voz", es una estructura cartilaginosa en la tráquea responsable de la fonación . Las cuerdas vocales (cuerdas) se mantienen juntas para que vibren, o se mantienen separadas para que no lo hagan. Las posiciones de las cuerdas vocales se logran mediante el movimiento de los cartílagos aritenoides . [48] Los músculos laríngeos intrínsecos son responsables de mover los cartílagos aritenoides, así como de modular la tensión de las cuerdas vocales. [49] Si las cuerdas vocales no están lo suficientemente juntas o tensas, vibrarán esporádicamente o no vibrarán en absoluto. Si vibran esporádicamente, el resultado será una voz chirriante o entrecortada, según el grado; si no vibran en absoluto, el resultado será la sordera .

Además de posicionar correctamente las cuerdas vocales, también debe haber aire fluyendo a través de ellas o no vibrarán. La diferencia de presión a través de la glotis necesaria para la sonorización se estima en 1 – 2 cm H 2 O (98,0665 – 196,133 pascales). [50] La diferencia de presión puede caer por debajo de los niveles necesarios para la fonación debido a un aumento de la presión por encima de la glotis (presión superglótica) o una disminución de la presión por debajo de la glotis (presión subglótica). La presión subglótica se mantiene mediante los músculos respiratorios . La presión supraglótica, sin constricciones ni articulaciones, es igual a la presión atmosférica . Sin embargo, debido a que las articulaciones, especialmente las consonantes, representan constricciones del flujo de aire, la presión en la cavidad detrás de esas constricciones puede aumentar, lo que resulta en una presión supraglótica más alta. [51]

Acceso léxico

Según el modelo de acceso léxico, se emplean dos etapas diferentes de cognición; por lo tanto, este concepto se conoce como la teoría de dos etapas del acceso léxico. La primera etapa, la selección léxica, proporciona información sobre los elementos léxicos necesarios para construir la representación a nivel funcional. Estos elementos se recuperan según sus propiedades semánticas y sintácticas específicas, pero las formas fonológicas aún no están disponibles en esta etapa. La segunda etapa, la recuperación de formas de palabras, proporciona la información necesaria para construir la representación a nivel posicional. [52]

Modelos articulatorios

Al producir el habla, los articuladores se mueven a través de lugares específicos del espacio y entran en contacto con ellos, lo que produce cambios en la señal acústica. Algunos modelos de producción del habla toman esto como base para modelar la articulación en un sistema de coordenadas que puede ser interno al cuerpo (intrínseco) o externo (extrínseco). Los sistemas de coordenadas intrínsecas modelan el movimiento de los articuladores como posiciones y ángulos de las articulaciones del cuerpo. Los modelos de coordenadas intrínsecas de la mandíbula suelen utilizar de dos a tres grados de libertad que representan la traslación y la rotación. Estos se enfrentan a problemas con el modelado de la lengua que, a diferencia de las articulaciones de la mandíbula y los brazos, es un hidrostato muscular (como la trompa de un elefante) que carece de articulaciones. [53] Debido a las diferentes estructuras fisiológicas, las trayectorias de movimiento de la mandíbula son líneas relativamente rectas durante el habla y la masticación, mientras que los movimientos de la lengua siguen curvas. [54]

Los movimientos en línea recta se han utilizado para argumentar que las articulaciones se planifican en el espacio extrínseco en lugar del intrínseco, aunque los sistemas de coordenadas extrínsecos también incluyen espacios de coordenadas acústicas, no solo espacios de coordenadas físicas. [53] Los modelos que suponen que los movimientos se planifican en el espacio extrínseco se enfrentan a un problema inverso de explicar las ubicaciones de los músculos y las articulaciones que producen la trayectoria observada o la señal acústica. El brazo, por ejemplo, tiene siete grados de libertad y 22 músculos, por lo que múltiples configuraciones de articulaciones y músculos diferentes pueden conducir a la misma posición final. Para los modelos de planificación en el espacio acústico extrínseco, también se aplica el mismo problema de mapeo de uno a muchos, sin un mapeo único de los objetivos físicos o acústicos a los movimientos musculares necesarios para alcanzarlos. Sin embargo, las preocupaciones sobre el problema inverso pueden ser exageradas, ya que el habla es una habilidad altamente aprendida que utiliza estructuras neurológicas que evolucionaron para ese propósito. [55]

El modelo de punto de equilibrio propone una solución al problema inverso argumentando que los objetivos de movimiento se representan como la posición de los pares de músculos que actúan sobre una articulación. [d] Es importante destacar que los músculos se modelan como resortes y el objetivo es el punto de equilibrio para el sistema de resorte-masa modelado. Al utilizar resortes, el modelo de punto de equilibrio puede explicar fácilmente la compensación y la respuesta cuando se interrumpen los movimientos. Se consideran un modelo de coordenadas porque suponen que estas posiciones musculares se representan como puntos en el espacio, puntos de equilibrio, donde converge la acción similar a un resorte de los músculos. [56] [57]

Los enfoques gestuales para la producción del habla proponen que las articulaciones se representen como patrones de movimiento en lugar de coordenadas particulares que se deben alcanzar. La unidad mínima es un gesto que representa un grupo de "patrones de movimiento articulatorio funcionalmente equivalentes que se controlan activamente con referencia a un objetivo relevante para el habla (por ejemplo, un cierre bilabial)". [58] Estos grupos representan estructuras coordinativas o "sinergias" que consideran los movimientos no como movimientos musculares individuales sino como agrupaciones de músculos dependientes de la tarea que trabajan juntos como una sola unidad. [59] [60] Esto reduce los grados de libertad en la planificación de la articulación, un problema especialmente en los modelos de coordenadas intrínsecas, que permiten cualquier movimiento que logre el objetivo del habla, en lugar de codificar los movimientos particulares en la representación abstracta. La coarticulación está bien descrita por los modelos gestuales ya que las articulaciones a velocidades de habla más rápidas se pueden explicar como compuestos de los gestos independientes a velocidades de habla más lentas. [61]

Acústica

Una forma de onda (arriba), un espectrograma (medio) y una transcripción (abajo) de una mujer diciendo "Wikipedia" mostrados usando el software Praat para análisis lingüístico.

Los sonidos del habla se crean mediante la modificación de una corriente de aire que da lugar a una onda sonora. La modificación la realizan los articuladores, y los distintos lugares y formas de articulación producen distintos resultados acústicos. Dado que la postura del tracto vocal, no solo la posición de la lengua, puede afectar al sonido resultante, la forma de articulación es importante para describir el sonido del habla. Las palabras tack y sack comienzan con sonidos alveolares en inglés, pero difieren en la distancia a la que se encuentra la lengua de la cresta alveolar. Esta diferencia tiene grandes efectos en la corriente de aire y, por lo tanto, en el sonido que se produce. De manera similar, la dirección y la fuente de la corriente de aire pueden afectar al sonido. El mecanismo de corriente de aire más común es el pulmonar (que utiliza los pulmones), pero la glotis y la lengua también pueden utilizarse para producir corrientes de aire.

Tipos de sonoridad y fonación

Una de las principales diferencias entre los sonidos del habla es si son sonoros o no. Los sonidos son sonoros cuando las cuerdas vocales comienzan a vibrar en el proceso de fonación. Muchos sonidos pueden producirse con o sin fonación, aunque las limitaciones físicas pueden dificultar o imposibilitar la fonación en algunas articulaciones. Cuando las articulaciones son sonoras, la principal fuente de ruido es la vibración periódica de las cuerdas vocales. Las articulaciones como las oclusivas sordas no tienen una fuente acústica y se perciben por su silencio, pero otros sonidos sordos como las fricativas crean su propia fuente acústica independientemente de la fonación.

La fonación está controlada por los músculos de la laringe, y los idiomas hacen uso de más detalles acústicos que la sonorización binaria. Durante la fonación, las cuerdas vocales vibran a una determinada velocidad. Esta vibración da como resultado una forma de onda acústica periódica que comprende una frecuencia fundamental y sus armónicos. La frecuencia fundamental de la onda acústica se puede controlar ajustando los músculos de la laringe, y los oyentes perciben esta frecuencia fundamental como tono. Los idiomas utilizan la manipulación del tono para transmitir información léxica en idiomas tonales, y muchos idiomas utilizan el tono para marcar información prosódica o pragmática.

Para que las cuerdas vocales vibren, deben estar en la posición adecuada y debe haber aire fluyendo a través de la glotis. [50] Los tipos de fonación se modelan en un continuo de estados glóticos desde completamente abiertos (sordos) hasta completamente cerrados (oclusión glótica). La posición óptima para la vibración, y el tipo de fonación más utilizado en el habla, la voz modal, existe en el medio de estos dos extremos. Si la glotis es ligeramente más ancha, se produce una voz entrecortada, mientras que al acercar las cuerdas vocales se produce una voz chirriante. [62]

El patrón de fonación normal que se utiliza en el habla típica es la voz modal, en la que las cuerdas vocales se mantienen juntas con una tensión moderada. Las cuerdas vocales vibran como una sola unidad de forma periódica y eficiente con un cierre glótico completo y sin aspiración. [63] Si se separan más, no vibran y producen fonías sordas. Si se mantienen firmemente juntas, producen una oclusión glótica. [62]

Si las cuerdas vocales se mantienen ligeramente más separadas que en la sonoridad modal, producen tipos de fonación como la voz entrecortada (o murmullo) y la voz susurrante. La tensión a través de los ligamentos vocales ( cuerdas vocales ) es menor que en la sonoridad modal, lo que permite que el aire fluya más libremente. Tanto la voz entrecortada como la voz susurrante existen en un continuo que se caracteriza vagamente por ir desde la forma de onda más periódica de la voz entrecortada hasta la forma de onda más ruidosa de la voz susurrante. Acústicamente, ambas tienden a amortiguar el primer formante y la voz susurrante muestra desviaciones más extremas. [64]

Si se mantienen las cuerdas vocales más juntas, se obtiene una voz chirriante. La tensión en las cuerdas vocales es menor que en la voz modal, pero se mantienen juntas con más fuerza, lo que hace que solo vibren los ligamentos de las cuerdas vocales. [e] Los pulsos son muy irregulares, con un tono y una amplitud de frecuencia bajos. [65]

Algunas lenguas no mantienen una distinción de sonoridad para algunas consonantes, [f] pero todas las lenguas utilizan la sonoridad en algún grado. Por ejemplo, no se conoce ninguna lengua que tenga un contraste de sonoridad fonémica para las vocales con todas las vocales conocidas sonoras canónicamente. [g] Otras posiciones de la glotis, como la voz entrecortada y chirriante, se utilizan en varias lenguas, como el mazateco de Jalapa , para contrastar fonemas, mientras que en otras lenguas, como el inglés, existen alofónicamente.

Existen varias formas de determinar si un segmento es sonoro o no, siendo la más sencilla palpar la laringe durante el habla y notar cuando se sienten vibraciones. Se pueden obtener mediciones más precisas mediante el análisis acústico de un espectrograma o corte espectral. En un análisis espectrográfico, los segmentos sonoros muestran una barra de sonorización, una región de alta energía acústica, en las frecuencias bajas de los segmentos sonoros. [66] Al examinar un empalme espectral, el espectro acústico en un punto dado en el tiempo (un modelo de la vocal pronunciada) invierte el filtrado de la boca produciendo el espectro de la glotis. Luego, se ajusta un modelo computacional de la señal glótica sin filtrar a la señal acústica filtrada inversa para determinar las características de la glotis. [67] También se puede realizar un análisis visual utilizando equipo médico especializado como la ecografía y la endoscopia. [66] [h]

Vocales

Las vocales se clasifican en líneas generales según la zona de la boca en la que se producen, pero como se producen sin una constricción en el tracto vocal, su descripción precisa depende de la medición de correlatos acústicos de la posición de la lengua. La ubicación de la lengua durante la producción de vocales cambia las frecuencias en las que resuena la cavidad, y son estas resonancias, conocidas como formantes , las que se miden y se utilizan para caracterizar las vocales.

La altura de las vocales se refiere tradicionalmente al punto más alto de la lengua durante la articulación. [68] El parámetro de altura se divide en cuatro niveles principales: alta (cerrada), cerrada-media, abierta-media y baja (abierta). Las vocales cuya altura está en el medio se denominan medias. Las vocales cerradas ligeramente abiertas y las vocales abiertas ligeramente cerradas se denominan casi cerradas y casi abiertas respectivamente. Las vocales más bajas no solo se articulan con la lengua bajada, sino también bajando la mandíbula. [69]

Si bien el AFI implica que existen siete niveles de altura vocálica, es poco probable que una lengua determinada pueda contrastar mínimamente los siete niveles. Chomsky y Halle sugieren que solo existen tres niveles, [70] aunque parecen necesitarse cuatro niveles de altura vocálica para describir el danés y es posible que algunas lenguas incluso necesiten cinco. [71]

La diferenciación de vocales en el dorso se divide en tres niveles: anterior, central y posterior. Los idiomas no suelen presentar un contraste mínimo de más de dos niveles de diferenciación de vocales en el dorso. Entre algunos idiomas que se afirma que tienen una distinción de triple diferenciación de vocales en el dorso se encuentran el nimborano y el noruego . [72]

En la mayoría de los idiomas, los labios durante la producción de vocales se pueden clasificar como redondeados o no redondeados (abiertos), aunque se han descrito otros tipos de posiciones de los labios, como la compresión y la protrusión. La posición de los labios se correlaciona con la altura y la parte posterior: las vocales anteriores y graves tienden a no estar redondeadas, mientras que las posteriores y altas suelen estar redondeadas. [73] Las vocales pareadas en la tabla AFI tienen la vocal abierta a la izquierda y la vocal redondeada a la derecha. [74]

Junto con las características vocálicas universales descritas anteriormente, algunas lenguas tienen características adicionales como la nasalidad , la longitud y diferentes tipos de fonación como sorda o chirriante . A veces se requieren gestos linguales más especializados como la roticidad , la raíz lingual avanzada , la faringealización , la estridencia y la fricación para describir una determinada vocal. [75]

Manera de articulación

Conocer el lugar de articulación no es suficiente para describir completamente una consonante; la forma en que se produce la constricción es igualmente importante. Las formas de articulación describen exactamente cómo el articulador activo modifica, estrecha o cierra el tracto vocal. [76]

Las oclusivas (también llamadas plosivas) son consonantes en las que el paso del aire está completamente obstruido. La presión se acumula en la boca durante la constricción, que luego se libera como una pequeña ráfaga de sonido cuando los articuladores se separan. El velo se eleva para que el aire no pueda fluir a través de la cavidad nasal. Si el velo se baja y permite que el aire fluya a través de la nariz, el resultado es una oclusiva nasal. Sin embargo, los fonetistas casi siempre se refieren a las oclusivas nasales simplemente como "nasales". [76] Las africadas son una secuencia de oclusivas seguidas de una fricativa en el mismo lugar. [77]

Las fricativas son consonantes en las que la corriente de aire se vuelve turbulenta al obstruir parcialmente, pero no completamente, parte del tracto vocal. [76] Las sibilantes son un tipo especial de fricativa en la que la corriente de aire turbulenta se dirige hacia los dientes, [78] creando un sonido sibilante de tono alto. [79]

Las nasales (a veces llamadas oclusivas nasales) son consonantes en las que hay un cierre en la cavidad oral y el velo se baja, lo que permite que el aire fluya a través de la nariz. [80]

En una aproximación , los articuladores se acercan entre sí, pero no hasta el punto de permitir una corriente de aire turbulenta. [79]

Las laterales son consonantes en las que la corriente de aire está obstruida a lo largo del centro del tracto vocal, lo que permite que la corriente de aire fluya libremente en uno o ambos lados. [79] Las laterales también se han definido como consonantes en las que la lengua está contraída de tal manera que la corriente de aire es mayor alrededor de los lados que sobre el centro de la lengua. [81] La primera definición no permite que el aire fluya sobre la lengua.

Los trinos son consonantes en las que la lengua o los labios se ponen en movimiento por la corriente de aire. [82] La constricción se forma de tal manera que la corriente de aire provoca un patrón repetitivo de apertura y cierre del articulador blando. [83] Los trinos apicales suelen constar de dos o tres períodos de vibración. [84]

Los golpecitos y los aleteos son gestos únicos, rápidos, generalmente apicales , en los que la lengua se lanza contra el paladar, comparable a una parada muy rápida. [82] Estos términos a veces se usan indistintamente, pero algunos fonetistas hacen una distinción. [85] En un golpecito, la lengua contacta el paladar en un solo movimiento, mientras que en un aleteo la lengua se mueve tangencialmente al paladar, golpeándolo al pasar.

Durante un mecanismo de flujo de aire glotálico , la glotis se cierra, atrapando una masa de aire. Esto permite que el aire restante en el tracto vocal se mueva por separado. Un movimiento ascendente de la glotis cerrada expulsará este aire, lo que da como resultado una consonante eyectiva . Alternativamente, la glotis puede descender, succionando más aire hacia la boca, lo que da como resultado una consonante implosiva . [86]

Los chasquidos son paradas en las que el movimiento de la lengua hace que el aire sea succionado en la boca, esto se conoce como corriente de aire velar . [87] Durante el chasquido, el aire se enrarece entre dos cierres articulatorios, produciendo un sonido de "chasquido" fuerte cuando se libera el cierre anterior. La liberación del cierre anterior se conoce como influjo de chasquido. La liberación del cierre posterior, que puede ser velar o uvular, es el eflujo de chasquido. Los chasquidos se utilizan en varias familias de lenguas africanas, como las lenguas khoisan y bantú . [88]

Sistema pulmonar y subglótico

Los pulmones controlan casi toda la producción del habla, y su importancia en la fonética se debe a que crean presión para los sonidos pulmonares. Los tipos de sonido más comunes en todos los idiomas son los de salida pulmonar, donde el aire se exhala desde los pulmones. [89] Lo opuesto es posible, aunque no se sabe de ningún idioma que tenga sonidos pulmonares ingresivos como fonemas. [90] Muchos idiomas como el sueco los usan para articulaciones paralingüísticas como afirmaciones en varios idiomas genética y geográficamente diversos. [91] Tanto los sonidos egresivos como los ingresivos dependen de mantener las cuerdas vocales en una postura particular y usar los pulmones para hacer pasar aire a través de las cuerdas vocales de modo que vibren (sonoros) o no vibren (sordos). [89] Las articulaciones pulmonares están restringidas por el volumen de aire que se puede exhalar en un ciclo respiratorio dado, conocido como capacidad vital .

Los pulmones se utilizan para mantener dos tipos de presión simultáneamente para producir y modificar la fonación. Para producir la fonación, los pulmones deben mantener una presión de 3 a 5 cm de H2O más alta que la presión sobre la glotis. Sin embargo, se realizan pequeños y rápidos ajustes a la presión subglótica para modificar el habla para características suprasegmentales como el estrés. Se utilizan varios músculos torácicos para realizar estos ajustes. Debido a que los pulmones y el tórax se estiran durante la inhalación, las fuerzas elásticas de los pulmones por sí solas pueden producir diferenciales de presión suficientes para la fonación a volúmenes pulmonares superiores al 50 por ciento de la capacidad vital. [92] Por encima del 50 por ciento de la capacidad vital, los músculos respiratorios se utilizan para "controlar" las fuerzas elásticas del tórax para mantener un diferencial de presión estable. Por debajo de ese volumen, se utilizan para aumentar la presión subglótica exhalando aire activamente.

Durante el habla, el ciclo respiratorio se modifica para dar cabida tanto a las necesidades lingüísticas como biológicas. La exhalación, que normalmente supone alrededor del 60 por ciento del ciclo respiratorio en reposo, aumenta hasta aproximadamente el 90 por ciento del ciclo respiratorio. Como las necesidades metabólicas son relativamente estables, el volumen total de aire movido en la mayoría de los casos de habla sigue siendo aproximadamente el mismo que en la respiración tranquila. [93] Un aumento de la intensidad del habla de 18 dB (una conversación en voz alta) tiene un impacto relativamente pequeño en el volumen de aire movido. Como sus sistemas respiratorios no están tan desarrollados como los de los adultos, los niños tienden a utilizar una mayor proporción de su capacidad vital en comparación con los adultos, con inhalaciones más profundas. [94]

Teoría de la fuente-filtro

El modelo de fuente-filtro del habla es una teoría de la producción del habla que explica el vínculo entre la postura del tracto vocal y las consecuencias acústicas. Según este modelo, el tracto vocal puede modelarse como una fuente de ruido acoplada a un filtro acústico. [95] La fuente de ruido en muchos casos es la laringe durante el proceso de sonorización, aunque otras fuentes de ruido pueden modelarse de la misma manera. La forma del tracto vocal supraglótico actúa como filtro, y diferentes configuraciones de los articuladores dan como resultado diferentes patrones acústicos. Estos cambios son predecibles. El tracto vocal puede modelarse como una secuencia de tubos, cerrados en un extremo, con diámetros variables, y mediante el uso de ecuaciones para la resonancia acústica se puede derivar el efecto acústico de una postura articulatoria. [96] El proceso de filtrado inverso utiliza este principio para analizar el espectro de la fuente producido por las cuerdas vocales durante la sonorización. Al tomar la inversa de un filtro previsto, el efecto acústico del tracto vocal supraglótico se puede deshacer dando el espectro acústico producido por las cuerdas vocales. [97] Esto permite el estudio cuantitativo de los diversos tipos de fonación.

Percepción

La percepción del lenguaje es el proceso por el cual una señal lingüística es decodificada y entendida por un oyente. [i] Para percibir el habla, la señal acústica continua debe convertirse en unidades lingüísticas discretas como fonemas , morfemas y palabras . [98] Para identificar y categorizar correctamente los sonidos, los oyentes priorizan ciertos aspectos de la señal que pueden distinguir de manera confiable entre categorías lingüísticas. [99] Si bien ciertas señales se priorizan sobre otras, muchos aspectos de la señal pueden contribuir a la percepción. Por ejemplo, aunque los lenguajes orales priorizan la información acústica, el efecto McGurk muestra que la información visual se utiliza para distinguir información ambigua cuando las señales acústicas no son confiables. [100]

Si bien los oyentes pueden utilizar una variedad de información para segmentar la señal del habla, la relación entre la señal acústica y la percepción de categorías no es una correspondencia perfecta. Debido a la coarticulación , los entornos ruidosos y las diferencias individuales, existe un alto grado de variabilidad acústica dentro de las categorías. [101] Conocido como el problema de la invariancia perceptiva , los oyentes pueden percibir categorías de manera confiable a pesar de la variabilidad en la instanciación acústica. [102] Para hacer esto, los oyentes se adaptan rápidamente a nuevos hablantes y cambiarán sus límites entre categorías para que coincidan con las distinciones acústicas que está haciendo su interlocutor. [103]

Audición

Cómo los sonidos viajan desde la fuente hasta el cerebro

La audición, el proceso de oír sonidos, es la primera etapa de la percepción del habla. Los articuladores provocan cambios sistemáticos en la presión del aire que viajan como ondas sonoras hasta el oído del oyente. Las ondas sonoras luego golpean el tímpano del oyente y lo hacen vibrar. La vibración del tímpano se transmite por los huesecillos (tres huesos pequeños del oído medio) a la cóclea . [104] La cóclea es un tubo en forma de espiral lleno de líquido dividido longitudinalmente por el órgano de Corti que contiene la membrana basilar . La membrana basilar aumenta de grosor a medida que viaja a través de la cóclea, lo que hace que diferentes frecuencias resuenen en diferentes lugares. Este diseño tonotópico permite que el oído analice el sonido de una manera similar a una transformada de Fourier . [105]

La vibración diferencial de la membrana basilar hace que las células pilosas del órgano de Corti se muevan, lo que provoca la despolarización de las células pilosas y, en última instancia, la conversión de la señal acústica en una señal neuronal. [106] Si bien las células pilosas no producen potenciales de acción por sí mismas, liberan neurotransmisores en las sinapsis con las fibras del nervio auditivo , que sí producen potenciales de acción. De esta manera, los patrones de oscilaciones en la membrana basilar se convierten en patrones espaciotemporales de disparos que transmiten información sobre el sonido al tronco encefálico . [107]

Prosodia

Además de las consonantes y las vocales, la fonética también describe las propiedades del habla que no se localizan en segmentos sino en unidades mayores del habla, como sílabas y frases . La prosodia incluye características auditivas como el tono , la velocidad del habla , la duración y la sonoridad . Los idiomas utilizan estas propiedades en diferentes grados para implementar el acento , el tono y la entonación ; por ejemplo, el acento en inglés y español se correlaciona con cambios en el tono y la duración, mientras que el acento en galés se correlaciona de manera más consistente con el tono que con la duración y el acento en tailandés solo se correlaciona con la duración. [108]

Teorías de la percepción del habla

Las primeras teorías de la percepción del habla, como la teoría motora, intentaron resolver el problema de la invariancia perceptiva argumentando que la percepción y la producción del habla estaban estrechamente vinculadas. En su forma más fuerte, la teoría motora sostiene que la percepción del habla requiere que el oyente acceda a la representación articulatoria de los sonidos; [109] para categorizar correctamente un sonido, un oyente realiza ingeniería inversa de la articulación que produciría ese sonido y, al identificar estos gestos, puede recuperar la categoría lingüística deseada. [110] Si bien hallazgos como el efecto McGurk y los estudios de casos de pacientes con lesiones neurológicas han brindado apoyo a la teoría motora, experimentos posteriores no han respaldado la forma fuerte de la teoría motora, aunque existe cierto apoyo para formas más débiles de la teoría motora que afirman una relación no determinista entre la producción y la percepción. [110] [111] [112]

Las teorías posteriores de la percepción del habla se centran en las señales acústicas de las categorías de sonido y se pueden agrupar en dos grandes categorías: teorías abstraccionistas y teorías episódicas. [113] En las teorías abstraccionistas, la percepción del habla implica la identificación de un objeto léxico idealizado basado en una señal reducida a sus componentes necesarios y la normalización de la señal para contrarrestar la variabilidad del hablante. Las teorías episódicas, como el modelo ejemplar, sostienen que la percepción del habla implica el acceso a recuerdos detallados (es decir, recuerdos episódicos ) de elementos escuchados previamente. Las teorías episódicas explican el problema de la invariancia perceptiva como una cuestión de familiaridad: la normalización es un subproducto de la exposición a distribuciones más variables en lugar de un proceso discreto como afirman las teorías abstraccionistas. [113]

Subdisciplinas

Fonética acústica

La fonética acústica estudia las propiedades acústicas de los sonidos del habla. La sensación de sonido es causada por fluctuaciones de presión que hacen que el tímpano se mueva. El oído transforma este movimiento en señales neuronales que el cerebro registra como sonido. Las formas de onda acústicas son registros que miden estas fluctuaciones de presión. [114]

Fonética articulatoria

La fonética articulatoria se ocupa de las formas en que se producen los sonidos del habla.

Fonética auditiva

La fonética auditiva estudia cómo los humanos perciben los sonidos del habla. Debido a que las características anatómicas del sistema auditivo distorsionan la señal del habla, los humanos no experimentan los sonidos del habla como registros acústicos perfectos. Por ejemplo, las impresiones auditivas de volumen , medidas en decibeles (dB), no coinciden linealmente con la diferencia en la presión sonora. [115]

La discordancia entre los análisis acústicos y lo que el oyente oye es especialmente notoria en los sonidos del habla que tienen mucha energía de alta frecuencia, como ciertas fricativas. Para conciliar esta discordancia, se han desarrollado modelos funcionales del sistema auditivo. [116]

Describir sonidos

Los lenguajes humanos utilizan muchos sonidos diferentes y para compararlos los lingüistas deben ser capaces de describir los sonidos de una manera que sea independiente del lenguaje. Los sonidos del habla se pueden describir de varias maneras. La mayoría de los sonidos del habla se conocen por los movimientos de la boca necesarios para producirlos. Las consonantes y las vocales son dos categorías generales que los fonetistas definen por los movimientos en un sonido del habla. Los descriptores más detallados son parámetros como el lugar de articulación. El lugar de articulación , la forma de articulación y la sonoridad se utilizan para describir las consonantes y son las principales divisiones de la tabla de consonantes del Alfabeto Fonético Internacional . Las vocales se describen por su altura, su parte posterior y su redondeo. El lenguaje de señas se describe utilizando un conjunto similar pero distinto de parámetros para describir los signos: ubicación, movimiento, forma de la mano, orientación de la palma y características no manuales. Además de las descripciones articulatorias, los sonidos utilizados en los lenguajes orales se pueden describir utilizando su acústica. Debido a que la acústica es una consecuencia de la articulación, ambos métodos de descripción son suficientes para distinguir los sonidos y la elección entre sistemas depende de la característica fonética que se esté investigando.

Las consonantes son sonidos del habla que se articulan con un cierre total o parcial del tracto vocal . Generalmente se producen por la modificación de una corriente de aire exhalada desde los pulmones. Los órganos respiratorios utilizados para crear y modificar el flujo de aire se dividen en tres regiones: el tracto vocal (supralárgeo), la laringe y el sistema subglótico. La corriente de aire puede ser egresiva (fuera del tracto vocal) o ingresiva (dentro del tracto vocal). En los sonidos pulmonares, la corriente de aire es producida por los pulmones en el sistema subglótico y pasa a través de la laringe y el tracto vocal. Los sonidos glotálicos utilizan una corriente de aire creada por movimientos de la laringe sin flujo de aire desde los pulmones. Las consonantes de clic se articulan a través de la rarefacción del aire utilizando la lengua, seguida de la liberación del cierre hacia adelante de la lengua.

Las vocales son sonidos silábicos del habla que se pronuncian sin ninguna obstrucción en el tracto vocal. [117] A diferencia de las consonantes, que suelen tener lugares definidos de articulación, las vocales se definen en relación con un conjunto de vocales de referencia llamadas vocales cardinales . Se necesitan tres propiedades para definir las vocales: altura de la lengua, dorso de la lengua y redondez de los labios. Las vocales que se articulan con una calidad estable se denominan monoftongos ; una combinación de dos vocales separadas en la misma sílaba es un diptongo . [118] En el AFI , las vocales se representan en una forma trapezoidal que representa la boca humana: el eje vertical representa la boca desde el suelo hasta el techo y el eje horizontal representa la dimensión de delante hacia atrás. [119]

Transcripción

La transcripción fonética es un sistema para transcribir los fonemas que se producen en una lengua, ya sea oral o de signos . El sistema de transcripción fonética más conocido, el Alfabeto Fonético Internacional (AFI), proporciona un conjunto estandarizado de símbolos para los fonemas orales. [120] [121] La naturaleza estandarizada del AFI permite a sus usuarios transcribir de forma precisa y consistente los fonemas de diferentes lenguas, dialectos e idiolectos . [120] [122] [123] El AFI es una herramienta útil no solo para el estudio de la fonética, sino también para la enseñanza de idiomas, la actuación profesional y la patología del habla . [122]

Aunque ninguna lengua de signos tiene un sistema de escritura estandarizado, los lingüistas han desarrollado sus propios sistemas de notación que describen la forma, la ubicación y el movimiento de la mano. El sistema de notación de Hamburgo (HamNoSys) es similar al AFI en el sentido de que permite distintos niveles de detalle. Algunos sistemas de notación, como KOMVA y el sistema Stokoe, fueron diseñados para su uso en diccionarios; también utilizan letras alfabéticas del idioma local para las formas de las manos, mientras que HamNoSys representa la forma de la mano directamente. SignWriting pretende ser un sistema de escritura fácil de aprender para las lenguas de signos, aunque todavía no ha sido adoptado oficialmente por ninguna comunidad de sordos. [124]

Lenguas de signos

A diferencia de los lenguajes hablados, las palabras en los lenguajes de señas se perciben con los ojos en lugar de los oídos. Los signos se articulan con las manos, la parte superior del cuerpo y la cabeza. Los principales articuladores son las manos y los brazos. Las partes relativas del brazo se describen con los términos proximal y distal . Proximal se refiere a una parte más cercana al torso, mientras que una parte distal está más alejada de él. Por ejemplo, un movimiento de muñeca es distal en comparación con un movimiento de codo. Debido a que requieren menos energía, los movimientos distales son generalmente más fáciles de producir. Varios factores, como la flexibilidad muscular y el hecho de ser considerado tabú , restringen lo que puede considerarse un signo. [125] Los señas nativos no miran las manos de su interlocutor. En cambio, su mirada está fija en la cara. Debido a que la visión periférica no está tan enfocada como el centro del campo visual, los signos articulados cerca de la cara permiten percibir diferencias más sutiles en el movimiento y la ubicación de los dedos. [126]

A diferencia de los lenguajes hablados, los lenguajes de señas tienen dos articuladores idénticos: las manos. Los signantes pueden usar la mano que prefieran sin interrupción en la comunicación. Debido a limitaciones neurológicas universales, los signos a dos manos generalmente tienen el mismo tipo de articulación en ambas manos; esto se conoce como la condición de simetría. [125] La segunda restricción universal es la condición de dominancia, que sostiene que cuando se involucran dos formas de mano, una mano permanecerá estacionaria y tendrá un conjunto más limitado de formas de mano en comparación con la mano dominante, en movimiento. [127] Además, es común que una mano en un signo a dos manos se caiga durante conversaciones informales, un proceso conocido como caída débil. [125] Al igual que las palabras en los lenguajes hablados, la coarticulación puede hacer que los signos influyan en la forma de los demás. Los ejemplos incluyen las formas de mano de los signos vecinos que se vuelven más similares entre sí ( asimilación ) o caída débil (un caso de eliminación ). [128]

Véase también

Referencias

Notas

  1. ^ Los lingüistas debaten si estas etapas pueden interactuar o si ocurren en serie (compárense Dell y Reich (1981) y Motley, Camden y Baars (1982)). Para facilitar la descripción, el proceso de producción del lenguaje se describe como una serie de etapas independientes, aunque evidencia reciente muestra que esto es inexacto. [12] Para más descripciones de los modelos de activación interactiva, véase Jaeger, Furth y Hilliard (2012).
  2. ^ o después de que se haya planeado parte de un enunciado; véase Gleitman et al. (2007) para evidencia de producción antes de que se haya planeado completamente un mensaje
  3. ^ adaptado de Sedivy (2019, p. 411) y Boersma (1998, p. 11)
  4. ^ Véase Feldman (1966) para la propuesta original.
  5. ^ Ver #Laringe para más información sobre la anatomía de la fonación.
  6. ^ El hawaiano, por ejemplo, no contrasta las oclusivas sonoras y sordas.
  7. ^ Hay idiomas, como el japonés , donde las vocales se producen como sordas en ciertos contextos.
  8. ^ Consulte #Modelos articulatorios para obtener más información sobre el modelado acústico.
  9. ^ Al igual que con la producción del habla, la naturaleza de la señal lingüística varía según la modalidad del lenguaje . La señal puede ser acústica para el habla oral, visual para las lenguas de señas o táctil para las lenguas de señas manuales-táctiles. Para simplificar, aquí se describe el habla acústica; para la percepción de la lengua de señas en particular, consulte Lengua de señas#Percepción de señas .

Citas

  1. ^ O'Grady 2005, pág. 15.
  2. ^ Lynch, Matthew (7 de abril de 2021). «Las diferencias entre un fonema, un fonema y un alófono». The Edvocate . Consultado el 6 de febrero de 2023 .
  3. ^abcCaffrey 2017.
  4. ^ Kiparsky 1993, pág. 2918.
  5. ^ Kiparsky 1993, págs. 2922-3.
  6. ^ Deussen, Paul (1980). Sesenta Upanishads de los Vedas, volumen I. Motilal Banarasidass. pág. 222. ISBN 978-8120814684.
  7. ^ Diccionario Oxford de inglés 2018.
  8. ^Por Roach 2015.
  9. ^ Ladefoged 1960, pág. 388.
  10. ^ Ladefoged 1960.
  11. ^ Dell y O'Seaghdha 1992.
  12. ^ Sedivy 2019, pág. 439.
  13. ^ Boersma 1998.
  14. ^ desde Ladefoged 2001, pág. 5.
  15. ^ Ladefoged y Maddieson 1996, pág. 9.
  16. ^ "IPA: Labiodentals". home.cc.umanitoba.ca . Consultado el 6 de febrero de 2023 .
  17. ^ Ladefoged y Maddieson 1996, pág. 16.
  18. ^ Maddieson 1993.
  19. ^ Fujimura 1961.
  20. ^ Ladefoged y Maddieson 1996, págs. 16-17.
  21. ^ abc Asociación Fonética Internacional 2015.
  22. ^ Ladefoged y Maddieson 1996, pág. 18.
  23. ^ Ladefoged y Maddieson 1996, págs. 17-18.
  24. ^ desde Ladefoged y Maddieson 1996, pág. 17.
  25. ^ Doke 1926.
  26. ^ Guthrie 1948, pág. 61.
  27. ^ Ladefoged y Maddieson 1996, págs. 19-31.
  28. ^ desde Ladefoged y Maddieson 1996, pág. 28.
  29. ^ Ladefoged y Maddieson 1996, págs. 19-25.
  30. ^ Ladefoged y Maddieson 1996, págs. 20, 40–1.
  31. ^ Scatton 1984, pág. 60.
  32. ^ Ladefoged y Maddieson 1996, pág. 23.
  33. ^ Ladefoged y Maddieson 1996, págs. 23-5.
  34. ^ Ladefoged y Maddieson 1996, págs. 25, 27–8.
  35. ^ desde Ladefoged y Maddieson 1996, pág. 27.
  36. ^ Ladefoged y Maddieson 1996, págs. 27-8.
  37. ^ Ladefoged y Maddieson 1996, pág. 32.
  38. ^ Ladefoged y Maddieson 1996, pág. 35.
  39. ^ Ladefoged y Maddieson 1996, págs. 33-34.
  40. ^ Keating y Lahiri 1993, pág. 89.
  41. ^ Maddieson 2013.
  42. ^ Ladefoged y Maddieson 1996, pág. 11.
  43. ^ Lodge 2009, pág. 33.
  44. ^ desde Ladefoged y Maddieson 1996, pág. 37.
  45. ^ desde Ladefoged y Maddieson 1996, pág. 38.
  46. ^ Ladefoged y Maddieson 1996, pág. 74.
  47. ^ Ladefoged y Maddieson 1996, pág. 75.
  48. ^ Ladefoged 2001, pág. 123.
  49. ^ Seikel, Drumright y King 2016, pág. 222.
  50. ^Ab Ohala 1997, pág. 1.
  51. ^ Chomsky y Halle 1968, págs. 300–301.
  52. ^ Altmann 2002.
  53. ^ desde Löfqvist 2010, pág. 359.
  54. ^ Munhall, Ostry y Flanagan 1991, pág. 299 y siguientes.
  55. ^ Löfqvist 2010, pág. 360.
  56. ^ Bizzi y otros 1992.
  57. ^ Löfqvist 2010, pág. 361.
  58. ^ Saltzman y Munhall 1989.
  59. ^ Mattingly 1990.
  60. ^ Löfqvist 2010, págs. 362–4.
  61. ^ Löfqvist 2010, pág. 364.
  62. ^ por Gordon y Ladefoged 2001.
  63. ^ Gobl y Ní Chasaide 2010, pag. 399.
  64. ^ Gobl y Ní Chasaide 2010, pag. 400-401.
  65. ^ Gobl y Ní Chasaide 2010, pag. 401.
  66. ^ desde Dawson y Phelan 2016.
  67. ^ Gobl & Ní Chasaide 2010, págs. 388 y siguientes .
  68. ^ Ladefoged y Maddieson 1996, pág. 282.
  69. ^ Lodge 2009, pág. 39.
  70. ^ Chomsky y Halle 1968.
  71. ^ Ladefoged y Maddieson 1996, pág. 289.
  72. ^ Ladefoged y Maddieson 1996, pág. 290.
  73. ^ Ladefoged y Maddieson 1996, págs. 292-295.
  74. ^ Lodge 2009, pág. 40.
  75. ^ Ladefoged y Maddieson 1996, pág. 298.
  76. ^ abc Ladefoged y Johnson 2011, pág. 14.
  77. ^ Ladefoged y Johnson 2011, pág. 67.
  78. ^ Ladefoged y Maddieson 1996, pág. 145.
  79. ^ abc Ladefoged y Johnson 2011, pág. 15.
  80. ^ Ladefoged y Maddieson 1996, pág. 102.
  81. ^ Ladefoged y Maddieson 1996, pág. 182.
  82. ^ ab Ladefoged y Johnson 2011, pág. 175.
  83. ^ Ladefoged y Maddieson 1996, pág. 217.
  84. ^ Ladefoged y Maddieson 1996, pág. 218.
  85. ^ Ladefoged y Maddieson 1996, pág. 230-231.
  86. ^ Ladefoged y Johnson 2011, pág. 137.
  87. ^ Ladefoged y Maddieson 1996, pág. 78.
  88. ^ Ladefoged y Maddieson 1996, págs. 246-247.
  89. ^ desde Ladefoged 2001, pág. 1.
  90. ^ Eklund 2008, pág. 237.
  91. ^ Eklund 2008.
  92. ^ Seikel, Drumright y King 2016, pág. 176.
  93. ^ Seikel, Drumright y King 2016, pág. 171.
  94. ^ Seikel, Drumright y King 2016, págs. 168–77.
  95. ^ Johnson 2008, págs. 83–5. sfn error: no target: CITEREFJohnson2008 (help)
  96. ^ Johnson 2008, págs. 104-5. sfn error: no target: CITEREFJohnson2008 (help)
  97. ^ Johnson 2008, pág. 157. sfn error: no target: CITEREFJohnson2008 (help)
  98. ^ Sedivy 2019, págs. 259–60.
  99. ^ Sedivy 2019, pág. 269.
  100. ^ Sedivy 2019, pág. 273.
  101. ^ Sedivy 2019, pág. 259.
  102. ^ Sedivy 2019, pág. 260.
  103. ^ Sedivy 2019, págs. 274–85.
  104. ^ Johnson 2003, págs. 46–7.
  105. ^ Johnson 2003, pág. 47.
  106. ^ Schacter, Gilbert y Wegner 2011, págs. 158-9.
  107. ^ Yost 2003, pág. 130.
  108. ^ Cutler 2005.
  109. ^ Sedivy 2019, pág. 289.
  110. ^ por Galantucci, Fowler y Turvey 2006.
  111. Sedivy 2019, pág. 292–3.
  112. ^ Patrón, Devlin y Lametti 2017.
  113. ^ por Goldinger 1996.
  114. ^ Johnson 2003, pág. 1.
  115. ^ Johnson 2003, págs. 46-49.
  116. ^ Johnson 2003, pág. 53.
  117. ^ Ladefoged y Maddieson 1996, pág. 281.
  118. ^ Gussenhoven y Jacobs 2017, pag. 26-27.
  119. ^ Lodge 2009, pág. 38.
  120. ^ desde O'Grady 2005, pág. 17.
  121. ^ Asociación Fonética Internacional 1999.
  122. ^ desde Ladefoged 2005.
  123. ^ Ladefoged y Maddieson 1996.
  124. ^ Panadero y col. 2016, pág. 242-244.
  125. ^ abc Baker y otros. 2016, págs. 229-235.
  126. ^ Baker y otros. 2016, pág. 236.
  127. ^ Baker y otros. 2016, pág. 286.
  128. ^ Baker y otros. 2016, pág. 239.

Obras citadas

  • Abercrombie, D. (1967). Elementos de fonética general . Edimburgo: Chicago, Aldine Pub. Co.
  • Altmann, Gerry (2002). Psicolingüística: conceptos críticos en psicología . Londres: Routledge. ISBN 978-0415229906.OCLC 48014482  .
  • Panadero, Ana; van den Bogaerde, Beppie; Pfau, Roland; Schermer, Trude (2016). La lingüística de las lenguas de signos . Ámsterdam/Filadelfia: John Benjamins Publishing Company. ISBN 978-90-272-1230-6.
  • Baumbach, EJ M (1987). Gramática analítica del tsonga . Pretoria: Universidad de Sudáfrica.
  • Bizzi, E.; Hogan, N.; Mussa-Ivaldi, F.; Giszter, S. (1992). "¿Utiliza el sistema nervioso el control del punto de equilibrio para guiar los movimientos articulares individuales y múltiples?". Ciencias del comportamiento y del cerebro . 15 (4): 603–13. doi :10.1017/S0140525X00072538. PMID  23302290.
  • Bock, Kathryn; Levelt, Willem (2002). Atlmann, Gerry (ed.). Psicolingüística: conceptos críticos en psicología . Vol. 5. Nueva York: Routledge. Págs. 405–407. ISBN. 978-0-415-26701-4.
  • Boersma, Paul (1998). Fonología funcional: Formalización de las interacciones entre impulsos articulatorios y perceptivos . La Haya: Holland Academic Graphics. ISBN 9055690546.OCLC 40563066  .
  • Caffrey, Cait (2017). "Fonética". Enciclopedia Salem Press . Salem Press.
  • Catford, JC (2001). Introducción práctica a la fonética (2.ª ed.). Oxford University Press. ISBN 978-0-19-924635-9.
  • Chomsky, Noam; Halle, Morris (1968). Patrón sonoro del inglés . Harper and Row.
  • Cutler, Ana (2005). "Estrés léxico" (PDF) . En Pisoni, David B.; Remez, Robert (eds.). El manual de percepción del habla . Blackwell. págs. 264–289. doi :10.1002/9780470757024.ch11. ISBN 978-0-631-22927-8. OCLC  749782145 . Consultado el 29 de diciembre de 2019 .
  • Dawson, Hope; Phelan, Michael, eds. (2016). Archivos de idioma: materiales para una introducción a la lingüística (12.ª ed.). The Ohio State University Press. ISBN 978-0-8142-5270-3.
  • Dell, Gary; O'Seaghdha, Padraig (1992). "Etapas del acceso léxico en la producción lingüística". Cognición . 42 (1–3): 287–314. doi :10.1016/0010-0277(92)90046-k. PMID  1582160. S2CID  37962027.
  • Dell, Gary; Reich, Peter (1981). "Etapas en la producción de oraciones: un análisis de datos de errores del habla". Journal of Memory and Language . 20 (6): 611–629. doi :10.1016/S0022-5371(81)90202-4.
  • Doke, Clemente M (1926). La fonética de la lengua zulú . Estudios bantúes. Johannesburgo: Wiwatersrand University Press.
  • Eklund, Robert (2008). "Fonación ingresiva pulmonar: características diacrónicas y sincrónicas, distribución y función en la producción de sonidos animales y humanos y en el habla humana". Revista de la Asociación Fonética Internacional . 38 (3): 235–324. doi :10.1017/S0025100308003563. S2CID  146616135.
  • Feldman, Anatol G. (1966). "Ajuste funcional del sistema nervioso con control del movimiento o mantenimiento de una postura estable, III: Análisis mecanográfico de la ejecución por el hombre de la tarea motora más simple". Biofísica . 11 : 565–578.
  • Fujimura, Osamu (1961). "Oclusivas bilabiales y consonantes nasales: un estudio cinematográfico y sus implicaciones acústicas". Revista de investigación del habla y la audición . 4 (3): 233–47. doi :10.1044/jshr.0403.233. PMID  13702471.
  • Galantucci, Bruno; Fowler, Carol; Turvey, Michael (2006). "Revisión de la teoría motora de la percepción del habla". Psychonomic Bulletin & Review . 13 (3): 361–377. doi :10.3758/BF03193857. PMC  2746041 . PMID  17048719.
  • Gleitman, Lila; January, David; Nappa, Rebecca; Trueswell, John (2007). "Sobre el intercambio entre la aprehensión de eventos y la formulación de enunciados". Journal of Memory and Language . 57 (4): 544–569. doi :10.1016/j.jml.2007.01.007. PMC  2151743 . PMID  18978929.
  • Gobl, Christer; Ní Chasaide, Ailbhe (2010). "Variación de la fuente de voz y sus funciones comunicativas". The Handbook of Phonetic Sciences (2.ª ed.). págs. 378–424.
  • Goldinger, Stephen (1996). "Palabras y voces: rastros episódicos en la memoria de identificación y reconocimiento de palabras habladas". Revista de Psicología Experimental: Aprendizaje, Memoria y Cognición . 22 (5): 1166–83. doi :10.1037/0278-7393.22.5.1166. PMID  8926483.
  • Gordon, Matthew; Ladefoged, Peter (2001). "Tipos de fonación: una visión general interlingüística". Journal of Phonetics . 29 (4): 383–406. doi :10.1006/jpho.2001.0147.
  • Guthrie, Malcolm (1948). La clasificación de las lenguas bantúes . Londres: Oxford University Press.
  • Gussenhoven, Carlos; Jacobs, Haike (2017). Understanding phonology (Cuarta edición). Londres y Nueva York: Routledge. ISBN 9781138961418.OCLC 958066102  .
  • Hall, Tracy Alan (2001). "Introducción: Representaciones fonológicas e implementación fonética de rasgos distintivos". En Hall, Tracy Alan (ed.). Teoría de los rasgos distintivos . de Gruyter. págs. 1–40.
  • Halle, Morris (1983). "Sobre los rasgos distintivos y su implementación articulatoria". Lenguaje natural y teoría lingüística . 1 (1): 91–105. doi :10.1007/BF00210377. S2CID  170466631.
  • Hardcastle, William; Laver, John; Gibbon, Fiona, eds. (2010). Manual de ciencias fonéticas (2.ª ed.). Wiley-Blackwell. ISBN 978-1-405-14590-9.
  • Asociación Fonética Internacional (1999). Manual de la Asociación Fonética Internacional . Cambridge University Press.
  • Asociación Fonética Internacional (2015). Alfabeto Fonético Internacional . Asociación Fonética Internacional.
  • Jaeger, Florian; Furth, Katrina; Hilliard, Caitlin (2012). "La superposición fonológica afecta la selección léxica durante la producción de oraciones". Revista de psicología experimental: aprendizaje, memoria y cognición . 38 (5): 1439–1449. doi :10.1037/a0027862. PMID  22468803.
  • Jakobson, Roman; Fant, Gunnar; Halle, Morris (1976). Preliminares para el análisis del habla: los rasgos distintivos y sus correlatos . MIT Press. ISBN 978-0-262-60001-9.
  • Johnson, Keith (2003). Fonética acústica y auditiva (2.ª ed.). Blackwell Pub. ISBN 1405101229.OCLC 50198698  .
  • Johnson, Keith (2011). Fonética acústica y auditiva (3.ª ed.). Wiley-Blackwell. ISBN 978-1-444-34308-3.
  • Jones, Daniel (1948). "La escuela de fonética de Londres". Zeitschrift für Phonetik . 11 (3/4): 127–135.(Reimpreso en Jones, WE; Laver, J., eds. (1973). Fonética en lingüística . Longman. págs. 180–186.)
  • Keating, Patricia; Lahiri, Aditi (1993). "Velares frontales, velares palatalizados y palatales". Fonética . 50 (2): 73-101. doi :10.1159/000261928. PMID  8316582. S2CID  3272781.
  • Kingston, John (2007). "La interfaz fonética-fonología". En DeLacy, Paul (ed.). The Cambridge Handbook of Phonology . Cambridge University Press. ISBN 978-0-521-84879-4.
  • Kiparsky, Paul (1993). "Lingüística paniniana". En Asher, RE (ed.). Enciclopedia de lenguas y lingüística . Oxford: Pergamon.
  • Ladefoged, Peter (1960). "El valor de los enunciados fonéticos". Lengua . 36 (3): 387–96. doi :10.2307/410966. JSTOR  410966.
  • Ladefoged, Peter (2001). Un curso de fonética (4.ª ed.). Boston: Thomson/Wadsworth . ISBN 978-1-413-00688-9.
  • Ladefoged, Peter (2005). Un curso de fonética (5.ª ed.). Boston: Thomson/Wadsworth . ISBN 978-1-413-00688-9.
  • Ladefoged, Peter ; Johnson, Keith (2011). Un curso de fonética (6.ª ed.). Wadsworth. ISBN 978-1-42823126-9.
  • Ladefoged, Peter; Maddieson, Ian (1996). Los sonidos de las lenguas del mundo . Oxford: Blackwell. ISBN 978-0-631-19815-4.
  • Levelt, Willem (1999). "Una teoría del acceso léxico en la producción del habla". Ciencias del comportamiento y del cerebro . 22 (1): 3–6. doi :10.1017/s0140525x99001776. hdl : 11858/00-001M-0000-0013-3E7A-A . PMID  11301520. S2CID  152230066.
  • Lodge, Ken (2009). Introducción crítica a la fonética . Nueva York: Continuum International Publishing Group. ISBN 978-0-8264-8873-2.
  • Löfqvist, Anders (2010). "Teorías y modelos de producción del habla". Manual de ciencias fonéticas (2.ª ed.). págs. 353–78.
  • Maddieson, Ian (1993). "Investigando las articulaciones de Ewe con articulografía electromagnética". Forschungberichte des Intituts für Phonetik und Sprachliche Kommunikation der Universität München . 31 : 181–214.
  • Maddieson, Ian (2013). "Consonantes uvulares". En Dryer, Matthew S.; Haspelmath, Martin (eds.). Atlas mundial de estructuras lingüísticas en línea . Leipzig: Instituto Max Planck de Antropología Evolutiva.
  • Mattingly, Ignatius (1990). "El carácter global de los gestos fonéticos". Revista de fonética . 18 (3): 445–52. doi : 10.1016/S0095-4470(19)30372-9 .
  • Motley, Michael; Camden, Carl; Baars, Bernard (1982). "Formulación y edición encubiertas de anomalías en la producción del habla: evidencia de lapsus linguae obtenidos experimentalmente". Journal of Verbal Learning and Verbal Behavior . 21 (5): 578–594. doi :10.1016/S0022-5371(82)90791-5.
  • Munhall, K.; Ostry, D.; Flanagan, J. (1991). "Espacios de coordinación en la planificación del habla". Journal of Phonetics . 19 (3–4): 293–307. doi :10.1016/S0095-4470(19)30346-8.
  • O'Connor, JD (1973). Fonética . Pelican. Págs. 16-17. ISBN. 978-0140215601.
  • O'Grady, William (2005). Lingüística contemporánea: una introducción (5.ª ed.). Bedford/St. Martin's. ISBN 978-0-312-41936-3.
  • Ohala, John (1997). "Aerodinámica de la fonología". Actas de la Conferencia Internacional de Lingüística de Seúl . 92 .
  • "Fonética, n." Diccionario Oxford de inglés en línea . Oxford University Press. 2018.
  • Roach, Peter (2015). "Entrenamiento fonético práctico". Peter Roach . Consultado el 10 de mayo de 2019 .
  • Saltzman, Elliot; Munhall, Kevin (1989). "Enfoque dinámico de los patrones gestuales en la producción del habla" (PDF) . Psicología ecológica . 1 (4): 333–82. doi :10.1207/s15326969eco0104_2. Archivado desde el original (PDF) el 28 de octubre de 2020 . Consultado el 23 de agosto de 2018 .
  • Scatton, Ernest (1984). Gramática de referencia del búlgaro moderno . Slavica. ISBN 978-0893571238.
  • Schacter, Daniel; Gilbert, Daniel; Wegner, Daniel (2011). "Sensación y percepción" . En Charles Linsmeiser (ed.). Psicología . Worth Publishers. ISBN 978-1-4292-3719-2.
  • Schiller, Niels; Bles, Mart; Jansma, Bernadette (2003). "Seguimiento del curso temporal de la codificación fonológica en la producción del habla: un estudio del potencial cerebral relacionado con eventos". Investigación cognitiva del cerebro . 17 (3): 819–831. doi :10.1016/s0926-6410(03)00204-0. hdl : 11858/00-001M-0000-0013-17B1-A . PMID  14561465.
  • Sedivy, Julie (2019). El lenguaje en la mente: una introducción a la psicolingüística (2.ª ed.). Oxford University Press. ISBN 978-1605357058.
  • Seikel, J. Anthony; Drumright, David; King, Douglas (2016). Anatomía y fisiología del habla, el lenguaje y la audición (5.ª ed.). Cengage. ISBN 978-1-285-19824-8.
  • Skipper, Jeremy; Devlin, Joseph; Lametti, Daniel (2017). "El oído que oye siempre se encuentra cerca de la lengua que habla: Revisión del papel del sistema motor en la percepción del habla". Cerebro y lenguaje . 164 : 77–105. doi : 10.1016/j.bandl.2016.10.004 . PMID  27821280.
  • Stearns, Peter; Adas, Michael; Schwartz, Stuart; Gilbert, Marc Jason (2001). Civilizaciones del mundo (3.ª ed.). Nueva York: Longman. ISBN 978-0-321-04479-2.
  • Trask, RL (1996). Diccionario de fonética y fonología . Abingdon: Routledge. ISBN 978-0-415-11261-1.
  • Yost, William (2003). "Audición". En Alice F. Healy; Robert W. Proctor (eds.). Manual de psicología: Psicología experimental . John Wiley and Sons. pág. 130. ISBN 978-0-471-39262-0.
  • Medios relacionados con Fonética en Wikimedia Commons
  • Colección de recursos fonéticos de la Universidad de Carolina del Norte
  • "Una pequeña enciclopedia de fonética" de Peter Roach .
  • Pink Trombone, un simulador de articulación interactivo de Neil Thapen.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Phonetics&oldid=1241536088"