Este artículo tiene varios problemas. Ayúdenos a mejorarlo o a discutir estos problemas en la página de discusión . ( Aprenda cómo y cuándo eliminar estos mensajes )
|
La tecnología de música digital abarca el uso de instrumentos digitales para producir, interpretar [1] o grabar música . Estos instrumentos varían, incluyendo computadoras , unidades de efectos electrónicos , software y equipos de audio digital . La tecnología de música digital se utiliza en la interpretación , reproducción, grabación, composición , mezcla , análisis y edición de música, por profesionales en todas las partes de la industria musical .
A finales del siglo XIX, Thaddeus Cahill introdujo el Telarmonio , que comúnmente se considera el primer instrumento musical electromecánico. [2] A principios del siglo XX, Leon Theremin creó el Theremin , un instrumento electrónico temprano que se tocaba sin contacto físico, creando una nueva forma de creación de sonido.
A mediados del siglo XX surgió el sampling , con artistas como Pierre Schaeffer y Karlheinz Stockhausen manipulando sonidos grabados en cinta para crear composiciones completamente nuevas. Esto sentó las bases para las futuras técnicas de producción de música electrónica.
En la década de 1960, el sintetizador Moog , inventado por Robert Moog , popularizó la síntesis analógica . La música Wendy Carlos demostró la invención de Robert con el álbum Switched-On Bach , que consistía en obras compuestas por Johann Sebastian Bach interpretadas con el sintetizador Moog . [3] Mientras tanto, los estudios basados en cintas, como el BBC Radiophonic Workshop , estaban a la vanguardia del diseño de sonido electrónico.
En la década de 1980 se produjo un importante cambio hacia la tecnología digital con el desarrollo del estándar de interfaz digital de instrumentos musicales ( MIDI ). Esto permitió que los instrumentos electrónicos se comunicaran con las computadoras y entre sí, transformando la producción musical. Los sintetizadores digitales, como el Yamaha DX7 , se volvieron muy populares. [4]
Las décadas de 1990 y 2000 fueron testigos del crecimiento explosivo de la música electrónica de baile y sus diversos subgéneros, impulsados por la accesibilidad de las herramientas de producción musical digital y el auge de los sintetizadores de software basados en computadora.
Los cursos de tecnología musical se ofrecen en muchas universidades diferentes como parte de programas de grado centrados en la interpretación, la composición y la investigación musical a nivel de pregrado y posgrado. El estudio de la tecnología musical generalmente se ocupa del uso creativo de la tecnología para crear nuevos sonidos, interpretar, grabar , programar secuenciadores u otros dispositivos electrónicos relacionados con la música, y manipular, mezclar y reproducir música. Los programas de tecnología musical capacitan a los estudiantes para carreras en "... ingeniería de sonido, música por computadora, producción y posproducción audiovisual, masterización, composición de bandas sonoras para películas y multimedia, audio para juegos , desarrollo de software y producción multimedia". [5] Aquellos que desean desarrollar nuevas tecnologías musicales a menudo se capacitan para convertirse en ingenieros de audio que trabajan en investigación y desarrollo . [6] Debido al papel cada vez mayor del trabajo interdisciplinario en la tecnología musical, las personas que desarrollan nuevas tecnologías musicales también pueden tener antecedentes o capacitación en ingeniería eléctrica , programación informática , diseño de hardware informático , acústica , producción de discos u otros campos.
Las tecnologías de música digital se utilizan ampliamente para ayudar en la educación musical de los estudiantes en programas de música en el hogar, la escuela primaria, la escuela secundaria, la escuela preparatoria, la universidad y la facultad. Los laboratorios de teclado electrónico se utilizan para la instrucción grupal de piano para principiantes de manera rentable en escuelas secundarias, universidades y facultades. Los cursos de software de notación musical y manipulación básica de audio y MIDI pueden ser parte de los requisitos básicos de un estudiante para obtener un título en música. Hay aplicaciones móviles y de escritorio disponibles para ayudar en el estudio de la teoría musical y el entrenamiento auditivo . Algunos pianos digitales brindan lecciones interactivas y juegos que utilizan las funciones integradas del instrumento para enseñar los fundamentos de la música. [7]
Los sintetizadores analógicos clásicos incluyen el Moog Minimoog , ARP Odyssey , Yamaha CS-80 , Korg MS-20 , Sequential Circuits Prophet-5 , Roland TB-303 , Roland Alpha Juno . [8] Uno de los sintetizadores más emblemáticos es el Roland TB-303 , fue ampliamente utilizado en la música acid house .
Los sintetizadores digitales clásicos incluyen el Fairlight CMI , PPG Wave , Nord Modular y Korg M1 . [8]
La combinación de la tecnología informática y la de sintetizadores cambió la forma de hacer música y es uno de los aspectos de la tecnología musical que más rápidamente está cambiando en la actualidad. Max Mathews , un investigador acústico [9] del Departamento de Investigación Acústica y Conductual de Bell Telephone Laboratories , es responsable de algunas de las primeras tecnologías de música digital en los años 50. Max Mathews también fue pionero en una piedra angular de la tecnología musical: la conversión de analógico a digital . [10]
En los Laboratorios Bell, Matthews realizó una investigación para mejorar la calidad de las telecomunicaciones para llamadas telefónicas de larga distancia. Debido a la larga distancia y al bajo ancho de banda, la calidad del audio en las llamadas telefónicas en todo Estados Unidos era deficiente. Por lo tanto, Matthews ideó un método en el que el sonido se sintetizaba a través de una computadora en el extremo distante en lugar de transmitirse. Matthews era un violinista aficionado y durante una conversación con su superior, John Pierce en los Laboratorios Bell, Pierce planteó la idea de sintetizar música a través de una computadora, ya que Matthews ya había sintetizado el habla. Matthews estuvo de acuerdo y, a principios de la década de 1950, escribió una serie de programas conocidos como MUSIC. MUSIC consistía en dos archivos: un archivo de orquesta que contenía datos que le indicaban a la computadora cómo sintetizar el sonido y un archivo de partitura que indicaba al programa qué notas debía tocar utilizando los instrumentos definidos en el archivo de orquesta. Matthews escribió cinco iteraciones de MUSIC, llamándolas MUSIC IV respectivamente. Posteriormente, a medida que el programa se adaptaba y ampliaba a medida que se escribía para ejecutarse en varias plataformas, su nombre cambió para reflejar sus nuevos cambios. Esta serie de programas se conoció como el paradigma MUSIC n . El concepto de MUSIC ahora existe en forma de Csound. [11]
Más tarde, Max Matthews trabajó como asesor del IRCAM (Institut de recherche et negotiation acoustique/musique; en español: Instituto de investigación y coordinación en acústica/música) a finales de los años 1980. Allí, fue profesor de Miller Puckette, un investigador. Puckette desarrolló un programa en el que se podía programar música gráficamente. El programa podía transmitir y recibir mensajes MIDI para generar música interactiva en tiempo real. Inspirado por Matthews, Puckette llamó al programa Max. Más tarde, un investigador llamado David Zicarelli visitó el IRCAM, vio las capacidades de Max y sintió que se podía desarrollar más. Se llevó una copia de Max cuando se fue y finalmente agregó capacidades para procesar señales de audio. Zicarelli llamó a esta nueva parte del programa MSP en honor a Miller Puckette. Zicarelli desarrolló la versión comercial de MaxMSP y la vendió en su empresa, Cycling '74, a principios de 1997. Desde entonces, la empresa ha sido adquirida por Ableton. [11]
La primera generación de instrumentos musicales informáticos profesionales disponibles comercialmente, o estaciones de trabajo como las llamaron posteriormente algunas empresas, eran sistemas muy sofisticados y elaborados que costaban mucho dinero cuando aparecieron por primera vez. Su precio oscilaba entre 25.000 y 200.000 dólares. [12] Los dos más populares fueron el Fairlight y el Synclavier .
No fue hasta la llegada del MIDI que las computadoras de uso general comenzaron a desempeñar un papel en la producción musical. Tras la adopción generalizada del MIDI, se desarrollaron editores y secuenciadores MIDI basados en computadora . Luego se utilizaron convertidores MIDI a CV/Gate para permitir que los sintetizadores analógicos fueran controlados por un secuenciador MIDI. [13]
La reducción de los precios de los ordenadores personales hizo que las masas dejaran de comprar las estaciones de trabajo más caras . Los avances tecnológicos han aumentado la velocidad de procesamiento del hardware y la capacidad de las unidades de memoria. Potentes programas para secuenciar, grabar, escribir y masterizar música.
En el NAMM Show de 1983 en Los Ángeles, se lanzó el MIDI . Una demostración en la convención mostró dos sintetizadores analógicos previamente incompatibles , el Prophet 600 y el Roland Jupiter-6 , que se comunicaban entre sí, lo que permitía a un músico tocar un teclado mientras recibía la salida de ambos. Este fue un gran avance en la década de 1980, ya que permitió que los sintetizadores se superpusieran con precisión en espectáculos en vivo y grabaciones de estudio. El MIDI permite que diferentes instrumentos electrónicos y dispositivos de música electrónica se comuniquen entre sí y con las computadoras. La llegada del MIDI estimuló una rápida expansión de las ventas y la producción de instrumentos electrónicos y software musical.
En 1985, varios de los principales fabricantes de teclados crearon la Asociación de Fabricantes MIDI (MMA) . Esta asociación recién fundada estandarizó el protocolo MIDI generando y difundiendo todos los documentos al respecto. Con el desarrollo de la Especificación de Formato de Archivo MIDI por parte de Opcode , el software de secuenciador MIDI de cada empresa de software musical podía leer y escribir los archivos de las demás.
Desde la década de 1980, las computadoras personales se desarrollaron y se convirtieron en el sistema ideal para aprovechar el enorme potencial de MIDI . Esto ha creado un gran mercado de consumo para software como teclados electrónicos equipados con MIDI , secuenciadores MIDI y estaciones de trabajo de audio digital . Con protocolos MIDI universales, los teclados electrónicos, secuenciadores y cajas de ritmos se pueden conectar entre sí.
La historia de la música por ordenador coincide con la de la síntesis vocal. Antes de que Max Matthews sintetizara el habla con un ordenador, se utilizaban dispositivos analógicos para recrear el habla. En la década de 1930, un ingeniero llamado Holmer Dudley inventó el VODER (Voice Operated Demonstrator), un dispositivo electromecánico que generaba una onda dentada y ruido blanco. Se podían filtrar varias partes del espectro de frecuencia de las formas de onda para generar los sonidos del habla. El tono se modulaba mediante una barra en una correa de muñeca que llevaba el operador. [14] En la década de 1940, Dudley inventó el VOCODER (Voice Operated Coder). En lugar de sintetizar el habla desde cero, esta máquina funcionaba aceptando el habla entrante y dividiéndola en sus componentes espectrales. A finales de la década de 1960 y principios de la de 1970, las bandas y los artistas solistas comenzaron a utilizar el VOCODER para mezclar el habla con las notas tocadas en un sintetizador. [15]
Mientras tanto, en los Laboratorios Bell, Max Matthews trabajó con los investigadores Kelly y Lochbaum para desarrollar un modelo del tracto vocal para estudiar cómo sus propiedades contribuían a la generación del habla. Utilizando el modelo del tracto vocal, Matthews utilizó la codificación predictiva lineal (LPC) [ cita requerida ] —un método en el que una computadora estima los formantes y el contenido espectral de cada palabra basándose en información sobre el modelo vocal, incluidos varios filtros aplicados que representan el tracto vocal— para hacer que una computadora (una IBM 704) cantara por primera vez en 1962. La computadora realizó una interpretación de "Daisy Bell". [16]
En el IRCAM, en Francia, los investigadores desarrollaron un software llamado CHANT (que en francés significa "cantar"), cuya primera versión funcionó entre 1979 y 1983. [17] CHANT se basaba en la síntesis FOF ( Fomant ond Formatique [ cita requerida ] ), en la que las frecuencias pico de un sonido se crean y se moldean utilizando una síntesis granular, en lugar de filtrar frecuencias para crear el habla. [18]
Durante las décadas de 1980 y 1990, cuando los dispositivos MIDI comenzaron a estar disponibles comercialmente, el habla se generaba asignando datos MIDI a muestras de los componentes del habla almacenados en bibliotecas de muestras. [19]
En la década de 2010, la tecnología de síntesis vocal ha aprovechado los recientes avances en inteligencia artificial (escucha profunda y aprendizaje automático) para representar mejor los matices de la voz humana. Las nuevas bibliotecas de muestras de alta fidelidad combinadas con estaciones de trabajo de audio digital facilitan la edición con gran detalle, como el cambio de formatos, el ajuste del vibrato y los ajustes de vocales y consonantes. Hay bibliotecas de muestras disponibles para varios idiomas y varios acentos. Con los avances actuales en síntesis vocal, los artistas a veces usan bibliotecas de muestras en lugar de cantantes de acompañamiento. [20]
Un sintetizador es un instrumento musical electrónico que genera señales eléctricas que se convierten en sonido a través de amplificadores de instrumentos y altavoces o auriculares . Los sintetizadores pueden imitar sonidos existentes (instrumentos, voces, sonidos naturales, etc.) o generar nuevos timbres o sonidos electrónicos que no existían antes. A menudo se tocan con un teclado musical electrónico , pero se pueden controlar a través de una variedad de otros dispositivos de entrada, incluidos secuenciadores musicales , controladores de instrumentos , diapasones, sintetizadores de guitarra , controladores de viento y baterías electrónicas . Los sintetizadores sin controladores incorporados a menudo se denominan módulos de sonido y se controlan mediante un dispositivo controlador.
Los sintetizadores utilizan varios métodos para generar una señal. Entre las técnicas de síntesis de forma de onda más populares se encuentran la síntesis sustractiva , la síntesis aditiva , la síntesis de tabla de ondas , la síntesis de modulación de frecuencia , la síntesis de distorsión de fase , la síntesis de modelado físico y la síntesis basada en muestras . Otros tipos de síntesis menos comunes incluyen la síntesis subarmónica , una forma de síntesis aditiva a través de subarmónicos (utilizada por Mixtur-Trautonium ), y la síntesis granular , síntesis basada en muestras basada en granos de sonido, que generalmente da como resultado paisajes sonoros o nubes . En la década de 2010, los sintetizadores se utilizan en muchos géneros de música pop , rock y dance . Los compositores de música clásica contemporánea de los siglos XX y XXI escriben composiciones para sintetizador.
Una caja de ritmos es un instrumento musical electrónico diseñado para imitar el sonido de tambores , platillos , otros instrumentos de percusión y, a menudo, líneas de bajo . Las cajas de ritmos reproducen muestras pregrabadas de tambores y platillos o recreaciones sintetizadas de sonidos de tambores y platillos en un ritmo y tempo programados por un músico. Las cajas de ritmos se asocian más comúnmente con géneros de música electrónica de baile como la música house , pero también se utilizan en muchos otros géneros. También se utilizan cuando los bateristas de sesión no están disponibles o si la producción no puede afrontar el costo de un baterista profesional. En la década de 2010, la mayoría de las cajas de ritmos modernas son secuenciadores con un componente de reproducción de muestras ( rompler ) o sintetizador que se especializa en la reproducción de timbres de batería . Aunque las características varían de un modelo a otro, muchas cajas de ritmos modernas también pueden producir sonidos únicos y permitir al usuario componer ritmos y patrones de batería únicos.
Las cajas de ritmos electromecánicas se desarrollaron por primera vez en 1949, con la invención del Chamberlin Rhythmate . Las cajas de ritmos electrónicas transistorizadas Seeburg Select-A-Rhythm aparecieron en 1964. [21] [22] [23] [24]
Las cajas de ritmos clásicas incluyen Korg Mini Pops 120 , PAiA Programmable Drum Set, Roland CR-78 , LinnDrum , Roland TR-909 , Oberheim DMX , E-MU SP-12 , Alesis HR-16 y Elektron SPS1 Machinedrum (en orden cronológico). [25]
Este artículo contiene contenido promocional . ( Febrero de 2023 ) |
A finales de los años 1970 y 1980, los fabricantes japoneses, entre ellos Roland y Korg , asumieron papeles fundamentales en la transformación del panorama musical. Las TR-808 y TR-909 de Roland cambiaron significativamente el panorama de la producción rítmica, dando forma a géneros como el hip-hop y la música electrónica de baile. Las KPR-77 y DDD-1 de Korg también tuvieron un impacto. Estas cajas de ritmos eran conocidas por su sonido distintivo y su asequibilidad. Con el tiempo, las empresas japonesas continuaron innovando y produjeron cajas de ritmos cada vez más sofisticadas y fáciles de usar, como la Roland TR-8 y la Korg Volca Beats. Estos instrumentos continúan influyendo en la producción musical contemporánea y siguen siendo parte integral del panorama de la música electrónica en todo el mundo. El álbum de 1971 de Sly and the Family Stone, There's a Riot Goin' On, ayudó a popularizar el sonido de las primeras cajas de ritmos, junto con el éxito de R&B de 1972 de Timmy Thomas " Why Can't We Live Together " y el éxito disco de 1974 de George McCrae " Rock Your Baby ", que utilizaba las primeras máquinas de ritmo Roland. [26]
Las primeras cajas de ritmos sonaban drásticamente diferentes a las cajas de ritmos que alcanzaron su máxima popularidad en los años 80 y definieron toda una década de música pop. La caja de ritmos más emblemática fue la Roland TR-808 , ampliamente utilizada en el hip hop y la música dance .
La tecnología de muestreo digital, introducida en la década de 1970, [27] [28] [29] [30] [31] se ha convertido en un elemento básico de la producción musical en la década de 2000. [ cita requerida ] Los dispositivos que utilizan muestreo , graban un sonido digitalmente (a menudo un instrumento musical, como un piano o una flauta que se toca) y lo reproducen cuando se presiona o activa una tecla o un pad en un dispositivo controlador (por ejemplo, un teclado electrónico , un pad de batería electrónico , etc.). Los samplers pueden alterar el sonido utilizando varios efectos de audio y procesamiento de audio. El muestreo tiene sus raíces en Francia con los experimentos de sonido realizados por practicantes de música concreta .
En la década de 1980, cuando la tecnología estaba todavía en pañales, los samplers digitales costaban decenas de miles de dólares y sólo los utilizaban los mejores estudios de grabación y músicos. Estaban fuera del rango de precios de la mayoría de los músicos. Los primeros samplers incluyen el Electronic Music Studios MUSYS-3 de 8 bits alrededor de 1970, Computer Music Melodian en 1976, Fairlight CMI en 1979, Emulator I en 1981, Synclavier II Sample-to-Memory (STM) option alrededor de 1980, Ensoniq Mirage en 1984 y Akai S612 en 1985. El sucesor de este último, el Emulator II (lanzado en 1984), cotizaba a 8.000 dólares. [12] Los samplers se lanzaron durante este período con etiquetas de precios altos, como el K2000 y el K2500 .
Algunos samplers de hardware importantes incluyen Kurzweil K250 , Akai MPC60 , Ensoniq Mirage , Ensoniq ASR-10 , Akai S1000 , E-mu Emulator y Fairlight CMI . [32]
Uno de los mayores usos de la tecnología de sampling fue por parte de los DJ y los artistas de hip-hop en la década de 1980. Antes de que la tecnología de sampling asequible estuviera fácilmente disponible, los DJ utilizaban una técnica iniciada por Grandmaster Flash para repetir manualmente ciertas partes de una canción haciendo malabarismos entre dos platos separados. Esto puede considerarse un precursor temprano del sampling. A su vez, esta técnica de turntablismo se originó en la música dub jamaiquina de la década de 1960 y se introdujo en el hip hop estadounidense en la década de 1970.
En la década de 2000, la mayoría de los estudios de grabación profesionales utilizan tecnologías digitales. En los últimos años, muchos samplers solo han incluido tecnología digital. Esta nueva generación de samplers digitales son capaces de reproducir y manipular sonidos. El muestreo digital juega un papel integral en algunos géneros musicales, como el hip-hop y el trap. Las bibliotecas de samples avanzadas han hecho posible interpretaciones completas de composiciones orquestales que suenan similares a una interpretación en vivo. [33] Las bibliotecas de sonido modernas permiten a los músicos tener la capacidad de usar los sonidos de casi cualquier instrumento en sus producciones.
Los primeros samplers incluyen el Toshiba LMD-649 de 12 bits en 1981. [34]
El primer sampler asequible en Japón fue el Ensoniq Mirage en 1984. También el AKAI S612 estuvo disponible en 1985, vendido al por menor por US$895. Otras compañías pronto lanzaron samplers asequibles, incluyendo Oberheim DPX-1 en 1987, y más de Korg , Casio , Yamaha y Roland . Algunos samplers de hardware importantes en Japón incluyen Akai Z4/Z8 , Roland V-Synth, Casio FZ-1 . [32]
MIDI ha sido la interfaz estándar de la industria de instrumentos musicales desde la década de 1980 hasta la actualidad. [35] Se remonta a junio de 1981, cuando el fundador de Roland Corporation, Ikutaro Kakehashi, propuso el concepto de estandarización entre instrumentos de diferentes fabricantes, así como computadoras, al fundador de Oberheim Electronics, Tom Oberheim , y al presidente de Sequential Circuits, Dave Smith . En octubre de 1981, Kakehashi, Oberheim y Smith discutieron el concepto con representantes de Yamaha , Korg y Kawai . [36] En 1983, Kakehashi y Smith dieron a conocer el estándar MIDI. [37] [38]
Algunas variedades de aplicaciones de software MIDI aceptadas universalmente incluyen software de instrucción musical, software de secuenciación MIDI, software de notación musical, software de grabación/edición de discos duros , software de edición de parches/biblioteca de sonidos, software de composición asistida por computadora e instrumentos virtuales . Los desarrollos actuales en hardware de computadoras y software especializado continúan expandiendo las aplicaciones MIDI.
Tras la adopción generalizada del MIDI, se desarrollaron editores y secuenciadores MIDI basados en computadora . Luego se utilizaron convertidores MIDI a CV/Gate para permitir que los sintetizadores analógicos fueran controlados por un secuenciador MIDI. [13]
La reducción de los precios de los ordenadores personales hizo que las masas dejaran de comprar las estaciones de trabajo más caras . Los avances tecnológicos han aumentado la velocidad de procesamiento del hardware y la capacidad de las unidades de memoria. Los desarrolladores de software escriben programas nuevos y más potentes para secuenciar, grabar, escribir y masterizar música.
El software de estaciones de trabajo de audio digital, como Pro Tools , Logic y muchos otros, ha ganado popularidad entre la amplia gama de tecnología musical contemporánea en los últimos años. Dichos programas permiten al usuario grabar sonidos acústicos con un micrófono o un instrumento de software, que luego pueden superponerse y organizarse a lo largo de una línea de tiempo y editarse en una pantalla plana de una computadora . Los segmentos grabados se pueden copiar y duplicar hasta el infinito, sin ninguna pérdida de fidelidad o ruido agregado (un gran contraste con la grabación analógica , en la que cada copia conduce a una pérdida de fidelidad y ruido agregado). La música digital se puede editar y procesar utilizando una multitud de efectos de audio. La música clásica contemporánea a veces utiliza sonidos generados por computadora, ya sea pregrabados o generados y manipulados en vivo, junto o yuxtapuestos con instrumentos acústicos clásicos como el violonchelo o el violín. La música se partitura con software de notación disponible comercialmente . [39]
Además de las estaciones de trabajo de audio digital y el software de notación musical, que facilitan la creación de medios fijos (material que no cambia cada vez que se interpreta), sigue surgiendo software que facilita la música interactiva o generativa. La composición basada en condiciones o reglas (composición algorítmica) ha dado lugar a software que puede generar música automáticamente en función de las condiciones o reglas de entrada. Por lo tanto, la música resultante evoluciona cada vez que cambian las condiciones. Algunos ejemplos de esta tecnología incluyen software diseñado para escribir música para videojuegos (donde la música evoluciona a medida que un jugador avanza a través de un nivel o cuando aparecen ciertos personajes) o música generada a partir de inteligencia artificial entrenada para convertir datos biométricos como lecturas de EEG o ECG en música. [40] Debido a que esta música se basa en la interacción del usuario, será diferente cada vez que se escuche. Otros ejemplos de tecnología de música generativa incluyen el uso de sensores conectados a la computadora y la inteligencia artificial para generar música en función de datos capturados, como factores ambientales, los movimientos de los bailarines o entradas físicas de un dispositivo digital como un mouse o un controlador de juegos. Entre las aplicaciones de software que ofrecen capacidades para generar música interactiva se encuentran SuperCollider, MaxMSP/Jitter y Processing. La música interactiva es posible gracias a la computación física, donde los datos del mundo físico afectan la salida de una computadora y viceversa. [11]
Esta sección contiene contenido promocional . ( Febrero de 2023 ) |
Esta sección contiene contenido promocional . ( Febrero de 2023 ) |
Cuando apareció en 1983 el primer instrumento digital de éxito comercial, el Yamaha DX7 (vendió doscientos mil ejemplares durante toda su vida útil)...(Nota: el número de ventas anterior corresponde a toda la serie DX)
[Q]
...Chronometer [3], según tengo entendido, los sonidos de los mecanismos del reloj y todo lo demás eran efectivamente muestreados por un ADC, almacenados y manipulados por la computadora y luego escupidos nuevamente. ¿Cuál fue el avance ...
[A]
Peter siguió comprando las últimas computadoras que salían y, por supuesto, la memoria aumentó. Luego le construí una grabadora de disco duro para que uno pudiera almacenar algunos de los sonidos en este disco duro. ...
1976 / COMPUTER MUSIC MELODIAN / Basado en una computadora DEC PDP-8, tenía una resolución de 12 bits/22 kHz, algo inaudito en ese momento.
FIRSTMAN existió en 1972 y se inauguró en Japón. Dort ist die Firma unter dem Markennamen HILLWOOD bekannt. HILLWOOD nació en 1973 como el primer sintetizador de FIRSTMAN. La empresa MULTIVOX se encuentra en su instrumento de 1976 a 1980 de HILLWOOD bauen. SQ-10/mon sin kmi? (1980) / Monophoner Synthesizer mit wahrscheinlich eingebautem Sequenzer. Die Tastatur umfasst 37 Tasten. Die Klangerzeugung beruht auf two VCO.