Multiplexación |
---|
Modulación analógica |
Temas relacionados |
Passband modulation |
---|
Analog modulation |
Digital modulation |
Hierarchical modulation |
Spread spectrum |
See also |
La radio definida por software ( SDR ) es un sistema de comunicación por radio en el que los componentes que convencionalmente se han implementado en hardware analógico (por ejemplo, mezcladores , filtros , amplificadores , moduladores / demoduladores , detectores , etc.) se implementan mediante software en una computadora o sistema integrado . [1] Si bien el concepto de SDR no es nuevo, las capacidades en rápida evolución de la electrónica digital hacen prácticos muchos procesos que alguna vez solo eran posibles teóricamente.
Un sistema SDR básico puede consistir en una computadora equipada con una tarjeta de sonido u otro convertidor analógico a digital , precedido por algún tipo de interfaz de RF . Una cantidad significativa de procesamiento de señales se transfiere al procesador de propósito general, en lugar de realizarse en hardware de propósito especial ( circuitos electrónicos ). Este diseño produce una radio que puede recibir y transmitir protocolos de radio muy diferentes (a veces denominados formas de onda) basándose únicamente en el software utilizado.
Las radios de software tienen una utilidad significativa para los servicios militares y de telefonía celular , que deben atender una amplia variedad de protocolos de radio cambiantes en tiempo real. A largo plazo, los defensores, como el Foro de Innovación Inalámbrica, esperan que las radios definidas por software se conviertan en la tecnología dominante en las comunicaciones por radio. Los SDR, junto con las antenas definidas por software , son los facilitadores de la radio cognitiva . [2]
Los receptores superheterodinos utilizan un oscilador de frecuencia variable (VFO ), un mezclador y un filtro para sintonizar la señal deseada a una frecuencia intermedia (IF ) o banda base común . Normalmente, en SDR, esta señal es muestreada por el convertidor analógico-digital. Sin embargo, en algunas aplicaciones no es necesario sintonizar la señal a una frecuencia intermedia y la señal de radiofrecuencia es muestreada directamente por el convertidor analógico-digital (después de la amplificación).
Los convertidores analógicos a digitales reales carecen del rango dinámico necesario para captar señales de radio de potencia submicrovoltio o nanovatio producidas por una antena. Por lo tanto, un amplificador de bajo ruido debe preceder al paso de conversión y este dispositivo presenta sus propios problemas. Por ejemplo, si hay señales espurias presentes (lo cual es típico), estas compiten con las señales deseadas dentro del rango dinámico del amplificador . Pueden introducir distorsión en las señales deseadas o pueden bloquearlas por completo. La solución estándar es colocar filtros de paso de banda entre la antena y el amplificador, pero estos reducen la flexibilidad de la radio. Las radios de software reales a menudo tienen dos o tres filtros de canal analógico con diferentes anchos de banda que se activan y desactivan.
La flexibilidad del SDR permite un uso dinámico del espectro, aliviando la necesidad de asignar estáticamente los escasos recursos espectrales a un único servicio fijo. [3]
En 1970, un investigador [ ¿quién? ] de un laboratorio del Departamento de Defensa de los Estados Unidos acuñó el término "receptor digital". Un laboratorio llamado Gold Room en TRW en California creó una herramienta de análisis de banda base de software llamada Midas, cuyo funcionamiento estaba definido en software. [ cita requerida ]
En 1982, mientras trabajaba en el marco de un contrato del Departamento de Defensa de los EE. UU. en la RCA , el departamento de Ulrich L. Rohde desarrolló el primer SDR, que utilizaba el chip COSMAC (Complementary Symmetry Monolithic Array Computer). Rohde fue el primero en presentar este tema con su charla de febrero de 1984, "Radio digital de alta frecuencia: una muestra de técnicas" en la Tercera Conferencia Internacional sobre Sistemas y Técnicas de Comunicación de Alta Frecuencia en Londres. [4]
En 1984, un equipo de la división de E-Systems Inc. (actualmente Raytheon ) en Garland, Texas , acuñó el término "radio de software" para referirse a un receptor de banda base digital, como se publicó en el boletín de la empresa E-Team. El equipo de E-Systems desarrolló un laboratorio de "prueba de concepto de radio de software" que popularizó la radio de software en varias agencias gubernamentales. Esta radio de software de 1984 era un receptor de banda base digital que proporcionaba cancelación de interferencias y demodulación programables para señales de banda ancha, generalmente con miles de tomas de filtro adaptativas , utilizando múltiples procesadores de matriz que accedían a la memoria compartida. [5]
En 1991, Joe Mitola reinventó de forma independiente el término radio de software para un plan de construcción de una estación base GSM que combinaría el receptor digital de Ferdensi con los bloqueadores de comunicaciones controlados digitalmente de E-Systems Melpar para un verdadero transceptor basado en software. E-Systems Melpar vendió la idea de la radio de software a la Fuerza Aérea de los EE. UU. Melpar construyó un prototipo de terminal táctico para comandantes en 1990-1991 que empleaba procesadores Texas Instruments TMS320C30 y conjuntos de chips de receptor digital de Harris Corporation con transmisión sintetizada digitalmente. El prototipo de Melpar no duró mucho porque cuando la División ECI de E-Systems fabricó las primeras unidades de producción limitada, decidieron "descartar esas placas C30 inútiles", reemplazándolas con un filtrado de RF convencional en transmisión y recepción y volviendo a una radio de banda base digital en lugar de los ADC/DAC de FI tipo SpeakEasy del prototipo de Mitola. La Fuerza Aérea no permitió que Mitola publicara los detalles técnicos de ese prototipo, ni tampoco permitió que Diane Wasserman publicara lecciones aprendidas sobre el ciclo de vida del software relacionado porque lo consideraban una "ventaja competitiva de la USAF". [ cita requerida ] Así que en su lugar, con el permiso de la USAF, en 1991, Mitola describió los principios de la arquitectura sin detalles de implementación en un documento, "Software Radio: Survey, Critical Analysis and Future Directions" que se convirtió en la primera publicación del IEEE en emplear el término en 1992. [6] Cuando Mitola presentó el documento en la conferencia, Bob Prill de GEC Marconi comenzó su presentación después de Mitola con: "Joe tiene toda la razón sobre la teoría de una radio de software y estamos construyendo una". [ cita requerida ] Prill presentó un documento de GEC Marconi sobre PAVE PILLAR, un precursor de SpeakEasy. SpeakEasy, la radio de software militar fue formulada por Wayne Bonser, entonces del Rome Air Development Center (RADC), ahora Rome Labs; por Alan Margulies de MITRE Rome, NY; y luego la teniente Beth Kaspar, la directora original del proyecto SpeakEasy de DARPA, y otros en Roma, entre ellos Don Upmal. Aunque las publicaciones de Mitola en el IEEE dieron como resultado la mayor huella global de la radio por software, Mitola atribuye en privado a ese laboratorio del Departamento de Defensa de los años 70, con sus líderes Carl, Dave y John, la invención de la tecnología de receptor digital en la que basó la radio por software una vez que fue posible transmitir a través de software. [ cita requerida ]
Unos meses después de la Conferencia Nacional de Telesistemas de 1992, en una revisión del programa corporativo de E-Systems, un vicepresidente de la División Garland de E-Systems objetó el uso por parte de Melpar (Mitola) del término "radio de software" sin dar crédito a Garland. Alan Jackson, vicepresidente de marketing de Melpar en ese momento, preguntó al vicepresidente de Garland si su laboratorio o sus dispositivos incluían transmisores. El vicepresidente de Garland dijo: "No, por supuesto que no; el nuestro es un receptor de radio de software". Al respondió: "Entonces es un receptor digital, pero sin un transmisor, no es una radio de software". La dirección corporativa estuvo de acuerdo con Al, por lo que la publicación se mantuvo. Muchos operadores de radioaficionados e ingenieros de radio de HF se habían dado cuenta del valor de digitalizar HF en RF y de procesarla con procesadores de señal digital (DSP) TI C30 de Texas Instruments y sus precursores durante la década de 1980 y principios de la de 1990. Los ingenieros de radio de Roke Manor, en el Reino Unido, y de una organización en Alemania habían reconocido los beneficios del ADC en la radiofrecuencia en paralelo. La publicación de Mitola de la radio por software en el IEEE abrió el concepto a la amplia comunidad de ingenieros de radio. Su número especial de mayo de 1995 de la revista IEEE Communications Magazine con la portada "Radio por software" fue considerado un acontecimiento decisivo con miles de citas académicas. Joao da Silva presentó a Mitola en 1997 en la Primera Conferencia Internacional sobre Radio por Software como el "padrino" de la radio por software, en gran parte por su voluntad de compartir una tecnología tan valiosa "en interés público". [ cita requerida ]
Quizás el primer transceptor de radio basado en software fue diseñado e implementado por Peter Hoeher y Helmuth Lang en el Establecimiento Alemán de Investigación Aeroespacial ( DLR , anteriormente DFVLR ) en Oberpfaffenhofen , Alemania, en 1988. [7] Tanto el transmisor como el receptor de un módem satelital digital adaptativo se implementaron de acuerdo con los principios de una radio de software, y se propuso una periferia de hardware flexible. [ cita requerida ]
En 1995, Stephen Blust acuñó el término "radio definida por software", publicando una solicitud de información de Bell South Wireless en la primera reunión del foro Modular Functional Information Transfer Systems (MMITS) en 1996, organizado por la USAF y DARPA en torno a la comercialización de su programa SpeakEasy II. Mitola se opuso al término de Blust, pero finalmente lo aceptó como un camino pragmático hacia la radio de software ideal. Aunque el concepto se implementó por primera vez con un ADC de IF a principios de la década de 1990, las radios definidas por software tienen sus orígenes en los sectores de defensa de EE. UU. y Europa de fines de la década de 1970 (por ejemplo, Walter Tuttlebee describió una radio VLF que usaba un ADC y un microprocesador 8085 ), [8] aproximadamente un año después de la Primera Conferencia Internacional en Bruselas. Una de las primeras iniciativas públicas de radio por software fue el proyecto militar de la DARPA y la Fuerza Aérea de EE. UU. llamado SpeakEasy . El objetivo principal del proyecto SpeakEasy era utilizar procesamiento programable para emular más de 10 radios militares existentes, que operan en bandas de frecuencia entre 2 y 2000 MHz . [9] Otro objetivo de diseño de SpeakEasy era poder incorporar fácilmente nuevos estándares de codificación y modulación en el futuro, para que las comunicaciones militares puedan seguir el ritmo de los avances en técnicas de codificación y modulación. [ cita requerida ]
En 1997, Blaupunkt introdujo el término "DigiCeiver" para su nueva gama de sintonizadores basados en DSP con Sharx en radios de automóvil como el Modena y el Lausanne RD 148.
De 1990 a 1995, el objetivo del programa SpeakEasy era demostrar una radio para el grupo de control aéreo táctico de tierra de la Fuerza Aérea de los EE. UU. que pudiera operar de 2 MHz a 2 GHz y, por lo tanto, pudiera interoperar con radios de la fuerza terrestre ( VHF , FM y SINCGARS con agilidad de frecuencia ), radios de la Fuerza Aérea (VHF AM ), radios navales ( teleimpresoras VHF AM y HF SSB ) y satélites ( QAM de microondas ). Algunos objetivos particulares eran proporcionar un nuevo formato de señal en dos semanas desde cero y demostrar una radio en la que varios contratistas pudieran conectar piezas y software. [ cita requerida ]
El proyecto se demostró en el Ejercicio de Guerra Avanzada TF-XXI y demostró todos estos objetivos en una radio que no era de producción. Hubo cierto descontento con el fracaso de estas primeras radios de software para filtrar adecuadamente las emisiones fuera de banda, para emplear más que el más simple de los modos interoperables de las radios existentes y para perder la conectividad o bloquearse inesperadamente. Su procesador criptográfico no podía cambiar el contexto lo suficientemente rápido para mantener varias conversaciones de radio en el aire a la vez. Su arquitectura de software, aunque bastante práctica, no se parecía a ninguna otra. La arquitectura SpeakEasy se perfeccionó en el Foro MMITS entre 1996 y 1999 e inspiró al equipo de proceso integrado (IPT) del Departamento de Defensa para sistemas de comunicaciones modulares programables (PMCS) para continuar con lo que se convirtió en el Sistema de Radio Táctica Conjunta (JTRS). [ cita requerida ]
La disposición básica del receptor de radio utilizaba una antena que alimentaba a un amplificador y un convertidor descendente (ver Mezclador de frecuencia ) que alimentaba a un control automático de ganancia , que alimentaba a un convertidor analógico a digital que estaba en un bus VME de computadora con muchos procesadores de señales digitales ( Texas Instruments C40). El transmisor tenía convertidores digitales a analógicos en el bus PCI que alimentaban a un convertidor ascendente (mezclador) que conducía a un amplificador de potencia y una antena. El rango de frecuencia muy amplio se dividió en algunas subbandas con diferentes tecnologías de radio analógica que alimentaban a los mismos convertidores analógicos a digitales. Desde entonces, esto se ha convertido en un esquema de diseño estándar para radios de software de banda ancha. [ cita requerida ]
El objetivo era conseguir una arquitectura más rápidamente reconfigurable, es decir , varias conversaciones a la vez, en una arquitectura de software abierta , con conectividad entre canales (la radio puede "unir" diferentes protocolos de radio). Los objetivos secundarios eran hacerla más pequeña, más barata y con menos peso. [ cita requerida ]
El proyecto produjo una radio de demostración apenas quince meses después de que comenzara un proyecto de investigación de tres años. Esta demostración tuvo tanto éxito que se detuvo el desarrollo posterior y la radio entró en producción con un rango de solo 4 MHz a 400 MHz. [ cita requerida ]
La arquitectura del software identificó interfaces estándar para los diferentes módulos de la radio: "control de radiofrecuencia" para gestionar las partes analógicas de la radio, "control de módem" para gestionar los recursos de los esquemas de modulación y demodulación (FM, AM, SSB, QAM, etc.), los módulos de "procesamiento de forma de onda" realizaban las funciones del módem , el "procesamiento de claves" y el "procesamiento criptográfico" gestionaban las funciones criptográficas, un módulo "multimedia" realizaba el procesamiento de voz, una "interfaz humana" proporcionaba controles locales o remotos, había un módulo de "enrutamiento" para los servicios de red y un módulo de "control" para mantener todo en orden. [ cita requerida ]
Se dice que los módulos se comunican sin un sistema operativo central. En cambio, se envían mensajes entre sí a través del bus PCI de la computadora con un protocolo en capas. [ cita requerida ]
Como proyecto militar, la radio distinguía claramente entre "rojo" (datos secretos no seguros) y "negro" (datos asegurados criptográficamente). [ cita requerida ]
El proyecto fue el primero conocido en utilizar FPGAs (field programmable gate arrays) para el procesamiento digital de datos de radio. El tiempo necesario para reprogramarlos era un problema que limitaba la aplicación de la radio. Hoy en día, el tiempo necesario para escribir un programa para un FPGA sigue siendo significativo, pero el tiempo necesario para descargar un programa FPGA almacenado es de alrededor de 20 milisegundos. Esto significa que un SDR podría cambiar los protocolos y frecuencias de transmisión en una quincuagésima de segundo, probablemente una interrupción no intolerable para esa tarea. [ cita requerida ]
El sistema SpeakEasy SDR de 1994 utiliza un procesador de señal digital (DSP) CMOS TMS320C30 de Texas Instruments , junto con varios cientos de chips de circuitos integrados , y la radio ocupa la parte trasera de un camión. A finales de la década de 2000, la aparición de la tecnología RF CMOS hizo que fuera práctico reducir la escala de un sistema SDR completo a un único sistema en chip de señal mixta , lo que Broadcom demostró con el procesador BCM21551 en 2007. El Broadcom BCM21551 tiene aplicaciones comerciales prácticas, para su uso en teléfonos móviles 3G . [10] [11]
El Sistema de Radio Táctica Conjunta (JTRS) fue un programa del ejército estadounidense para producir radios que proporcionaran comunicaciones flexibles e interoperables. Entre los ejemplos de terminales de radio que requieren soporte se incluyen radios portátiles, vehiculares, aerotransportadas y desmontadas, así como estaciones base (fijas y marítimas).
Este objetivo se logra mediante el uso de sistemas SDR basados en una arquitectura de comunicaciones de software (SCA) abierta y avalada internacionalmente . Este estándar utiliza CORBA en sistemas operativos POSIX para coordinar varios módulos de software.
El programa ofrece un nuevo enfoque flexible para satisfacer las diversas necesidades de comunicación de los soldados a través de tecnología de radio programable por software. Toda la funcionalidad y la capacidad de expansión se basan en el SCA.
A pesar de su origen militar, los proveedores de radio comerciales están evaluando la posibilidad de aplicar la SCA en sus dominios. Sin embargo, la adopción de marcos SDR de propósito general fuera de los usos militares, de inteligencia, experimentales y amateurs se ve inherentemente obstaculizada por el hecho de que los usuarios civiles pueden conformarse más fácilmente con una arquitectura fija, optimizada para una función específica y, por lo tanto, más económica en aplicaciones de mercado masivo. Aun así, la flexibilidad inherente de la radio definida por software puede producir beneficios sustanciales a largo plazo, una vez que los costos fijos de implementación hayan disminuido lo suficiente como para superar el costo del rediseño iterativo de sistemas diseñados específicamente para ese fin. Esto explica el creciente interés comercial en la tecnología.
El proyecto Open Source SCA Implementation – Embedded (OSSIE [12] ) ofrece software de infraestructura basado en SCA y herramientas de desarrollo rápido para la educación y la investigación en SDR. El Wireless Innovation Forum financió el proyecto SCA Reference Implementation, una implementación de código abierto de la especificación SCA. ( SCARI ) se puede descargar de forma gratuita.
Un radioaficionado típico utiliza un receptor de conversión directa . A diferencia de los receptores de conversión directa del pasado más lejano, las tecnologías de mezclador utilizadas se basan en el detector de muestreo en cuadratura y el excitador de muestreo en cuadratura. [13] [14] [15] [16]
El rendimiento del receptor de esta línea de SDR está directamente relacionado con el rango dinámico de los convertidores analógico-digitales (ADC) utilizados. [17] Las señales de radiofrecuencia se convierten a la banda de frecuencia de audio, que es muestreada por un ADC de frecuencia de audio de alto rendimiento. Los SDR de primera generación usaban una tarjeta de sonido de PC de 44 kHz para proporcionar la funcionalidad del ADC . Las radios definidas por software más nuevas usan ADC de alto rendimiento integrados que proporcionan un rango dinámico más alto y son más resistentes al ruido y a la interferencia de RF.
Una PC rápida realiza las operaciones de procesamiento de señales digitales (DSP) utilizando software específico para el hardware de radio. Varias implementaciones de radio por software utilizan la biblioteca SDR de código abierto DttSP. [18]
El software SDR realiza toda la demodulación, filtrado (tanto de radiofrecuencia como de audiofrecuencia) y mejora de la señal (ecualización y presentación binaural). Los usos incluyen todas las modulaciones de aficionados comunes: código morse , modulación de banda lateral única , modulación de frecuencia , modulación de amplitud y una variedad de modos digitales como radioteletipo , televisión de barrido lento y radio por paquetes . [19] Los aficionados también experimentan con nuevos métodos de modulación: por ejemplo, el proyecto de código abierto DREAM decodifica la técnica COFDM utilizada por Digital Radio Mondiale .
Existe una amplia gama de soluciones de hardware para radioaficionados y uso doméstico. Existen soluciones de transceptores de nivel profesional, por ejemplo, el Zeus ZS-1 [20] [21] o FlexRadio [22] , soluciones de fabricación casera, por ejemplo, el transceptor PicAStar, el kit SDR SoftRock [23], y soluciones de receptor de inicio o profesionales, por ejemplo, el FiFi SDR [24] para onda corta, o el receptor SDR multicanal coherente Quadrus [25] para onda corta o VHF/UHF en modo de operación digital directo.
Eric Fry descubrió que algunos dispositivos USB DVB-T de bajo coste con el controlador y sintonizador Realtek RTL2832U [26] [27] , por ejemplo, el Elonics E4000 o el Rafael Micro R820T, [28] se pueden utilizar como receptores SDR de banda ancha (3 MHz). Los experimentos demostraron la capacidad de esta configuración para analizar la lluvia de meteoros de las Perseidas utilizando señales de radar de Graves . [29] Este proyecto se mantiene en Osmocom .
El proyecto HPSDR (High Performance Software Defined Radio) utiliza un convertidor analógico a digital de 16 bits y 135 MSPS que proporciona un rendimiento en el rango de 0 a 55 MHz comparable al de una radio analógica de alta frecuencia convencional. El receptor también funcionará en el rango de VHF y UHF utilizando imágenes de mezclador o respuestas alias. La interfaz con un PC se proporciona mediante una interfaz USB 2.0, aunque también se podría utilizar Ethernet . El proyecto es modular y consta de una placa base en la que se conectan otras placas. Esto permite experimentar con nuevas técnicas y dispositivos sin la necesidad de reemplazar todo el conjunto de placas. Un excitador proporciona 1/2 W de RF en el mismo rango o en el rango de VHF y UHF utilizando salidas de imagen o alias. [30]
WebSDR [31] es un proyecto iniciado por Pieter-Tjerk de Boer que proporciona acceso a través de un navegador a múltiples receptores SDR en todo el mundo que cubren todo el espectro de onda corta. De Boer ha analizado las señales del transmisor Chirp utilizando el sistema acoplado de receptores. [32]
KiwiSDR [33] también es un SDR a través del navegador como WebSDR. A diferencia de WebSDR, la frecuencia está limitada a 3 Hz a 30 MHz ( ELF a HF )
Debido a su creciente accesibilidad, a un menor costo del hardware, a más herramientas de software y a una mayor documentación, las aplicaciones de SDR se han expandido más allá de sus casos de uso primarios e históricos. En la actualidad, SDR se utiliza en áreas como el seguimiento de la vida silvestre, la radioastronomía, la investigación de imágenes médicas y el arte.