SISTEMAS DE RADIODIFUSIÓN DIGITAL

 

ÍNDICE


 01- INTRODUCCIÓN

 02- EL SISTEMA DSR ALEMÁN (DIGITALE SATELLITEN-RADIO)
    02.1- El sistema DSR
    02.2- Generación de la señal digital

 03- DIGITAL AUDIO BROADCAST (DAB)
    03.1- Introducción
    03.2- Nuevas prestaciones. Canales de datos
    03.3- Aspectos técnicos
              Características generales
              Robustez del sistema
              Compresión de audio
    03.4- Mejoras del DAB: DAB+ y DMB
              DAB Plus (DAB+)
              DMB (Digital Multimedia Broadcastind)
    03.5- Implantación del DAB/DAB+

 04- ESTÁNDARD NORTEAMERICANO IBOC (HD RADIO)

 05- DIGITAL RADIO MONDIALE (DRM)
    05.1- Generalidades
    05.2- Aspectos técnicos generales
              Canales empleados
              Anchos de banda y simulcast
              Modos de DRM y códigos de corrección de errores
              Compresiones de sonido empleadas: AAC Plus (MPEG-4)
    05.3- Descodificadores y receptores DRM

 06- SISTEMAS DE RADIO DIGITAL POR SATÉLITE
    06.1- ASTRA DIGITAL RADIO (ADR)
    06.2- WORLDSPACE RADIO
    06.3- GLOBAL RADIO
    06.4- SISTEMA XM-SATELLITE RADIO
    06.5- SISTEMA SIRIUS SATELLITE RADIO


 

01- INTRODUCCIÓN

La radio es uno de los medios más importantes de información y entretenimiento, y uno de los que permiten un mejor y más fácil acceso por parte del usuario.

La introducción en 1949 del sistema de transmisión en Frecuencia Modulada (FM) en las bandas de VHF representó un paso importante en la evolución de la radiodifusión de manera que, hoy en día, se ha convertido en un servicio público y de aplicaciones comerciales muy importante.

Desde la década de 1990 una nueva revolución tecnológica aparece en el ámbito de la radiodifusión: la radio digital. Cambia radicalmente la tecnología, de modulaciones analógicas se pasa a utilizar modulaciones digitales, que permiten una mayor calidad de los programas transmitidos, mayor inmunidad a los ruidos, y posibilidad de transmitir junto con los programas de voz y música digitalizados, datos de otros tipos, para su presentación en pantallas o uso por dispositivos conectados a los equipos receptores (transmisión de imágenes, informaciones de texto, códigos de control para otros dispositivos, etc...).

Además, los programas de voz y música se pueden transmitir con alta calidad de audio, y ser bastante inmunes a interferencias y ruidos, cosa que no se puede conseguir en las transmisiones analógicas (si bien la FM proprociona más calidad de audio y protección ante interferencias y ruidos que la AM).

Además, mediante multiplexación de señales digitales es posible transmitir varios programas de audio independientes por el mismo canal de radio, en el mismo flujo digital que modula la portadora de radio, junto con canales de datos asociados a cada programa de audio o al propio flujo digital. Es decir, si en un canal de radio sólo tiene cabida una transmisión de un programa analógico (de AM o FM), en el caso de radio digital se pueden transmitir varios programas independientes y simultáneos en la misma transmisión.

Diversos sistemas de radio digital se han propuesto y algunos se han convertido en estándares internacionales, y son candidatos a sustituir a más o menos largo plazo a los sistemas de radiodifusión analógicos, con los que conviven actualmente. Hay sistemas digitales pensados para la difusión por satélite así como otros pensados para su difusión por estaciones y redes terrestres. Todos ellos suelen ser incompatibles entre sí, ya que tienen sus características técnicas propias debido a las distintas características de la propagación de las señales de radio en cada caso.

Las radiodifusoras mundiales en FM tienen como contrapartida digital los sistemas digitales terrestres DAB europeo, IBOC norteamericano, o ISDB-T japonés. Para los transmisores en las bandas de modulación de amplitud (en Ondas Corta, Media y Larga), el sistema digital altenativo mudialmente aceptado es el sistema DRM (Radio Digital Mundial), sistema que también tiene una versión para ser usada como alternativa digital de la radiodifusión analógica en la banda de FM. También se puede incluir como radio digital terrestre a los canales de sonido de la televisión digital terrestre (TDT) no relaccionados con el programa de vídeo, y que son habilitados como canales de radio digital.

Para radiodifusión digital por satélite hay varios sistemas propuestos por distintas empresas radiodifusoras privadas. Las más conocidas son las europeas Global Radio y WorldSpace Radio, la norteamericana XM Satellite Radio. También existe un estándard internacional, el estándard europeo DAB-S, que es una versión del sistema digital europeo DAB pensada para la difusión por satélite.

 

Volver al índice

 

02- EL SISTEMA DSR ALEMÁN (DIGITALE SATELLITEN-RADIO)

 

02.1- EL SISTEMA DSR

Logotipo del sistema DSR
Logotipo del sistema DSR

El sistema DSR ("Digitales Satelliten-Radio", también conocido como "Numeriqueer Satelliten Rundfunk") fue el primer sistema de radiodifusión digital que funcionó en Europa, surgido antes de la estandarización del DAB europeo, ideado para su transmisión desde satélite, y fue aplicado en algunos de los satélites de difusión que transmitían hacia Alemania en los años 90's.

Las primeras transmisiones se iniciaron oficialmente en agosto de 1989 a través del satélite Kopernikus DFS-1, y se extendieron al satélite TV SAT 2 (que fue apagado a finales de 1994) y a la red de cable de la operadora Deutsche Telekom Bundespost, llevando a todo el país (Alemania) un paquete de 16 programas de radio. Para recibir la señal satelital se necesitaba un receptor especial DSR (que costaba entonces más de 1000 marcos alemanes de la época) y una pequeña antena plana de sólo 30 cm de lado. Este sistema de radio digital satelital estuvo en funcionamiento hasta el 15 de enero de 1999, siendo cerrado (a pesar de las protestas de numerosos oyentes) en favor del desarrollo de la televisión por cable. Las 16 estaciones de radio que operaban en DSR pasaron a difundirse en los canales S2 y S3 (en 118 MHz) de la red de televisión por cable.

Un sistema muy parecido fue aplicado para su difusión por redes de cable en Suiza, bajo el nombre de Radio Super Digital, empleando una portadora de 118 MHz, y ocupando un ancho de banda de ±7 MHz. Estuvo activo en algunas redes de cable suizas hasta 2001.

La radio satelital alemana sucesora del DSR sería a partir de 2005 el nuevo estándard de radiodifusión digital europeo DAB en su modalidad satelital (DAB-S), a través del satélite Astra 19,2º Este. También las redes de cable alemanas cambiaron a la modalidad de radiodifusión digital por cable del DAB europeo (DAB-C).

Pensado para la transmisión por satélite, DSR estaba pensado para la transmisión de hasta 16 canales estéreos multiplexados o 32 monofónicos, transmitidos sobre la frecuencia de portadora satelital de 11,977 MHz (dentro de la banda de radiodifusión satelital de 11 GHz).

El sistema permite, pues, un total de 16 a 32 programas sonoros diferentes e independientes, dependiendo de si son programas monofónicos (1 canal de sonido) o estereofónicos (2 canales de sonido: derecho e izquierdo), ya que el sistema tiene una capacidad de 32 canales de sonido, si bien DSR se empleó sólo para transmisiones estéreas, por tanto soportando 16 programas estéreos independientes, con calidad de sonido de CD de audio. Los distintos programas, equivalentes en el mundo analógico a distintas emisoras o canales de radio (distintos servicios de radiodifusión), una vez digitalizados, son multiplexados para generar un único flujo digital final de 20,48 Mbits/s, que es el que modulará la portadora de radio. La modulación de la portadora de radio empleada es la modulación DQPSK (Diferencial Quadrature Phase Shift Keying, desplazamiento de cuadratura de fase diferencial).

Por tanto, DSR se he empleado para la transmisión de 16 servicios de radiodifusión multiplexados de dos canales de audio. Incluso dentro de un mismo servicio, permite el uso de sus dos canales de audio para los siguientes usos:

El hecho de que la separación o diafonía entre los dos canales de un mismo servicio sea elevada, permite el uso de cualquiera de estas tres opciones sin ningún problema en cuanto a la calidad. Esta separación de los dos canales de audio de un mismo servicio es superior a 60 dB, muy superior a los 20 dB de separación de canales derecho e izquierdo que permite una transmisión de radiodifusión analógica FM estérea convencional de alta calidad. Recordar a este respecto que la "separación entre canales" se refiere al nivel de señal que un canal de audio puede inducir o colar en el otro canal de audio del mismo servicio.

  • Además del audio digitalizado (palabra, música...), el sistema DSR permite además la transmisión en el mismo flujo digital de otros tipos de informaciones digitales adicionales, como son códigos de sincronismo, protecciones frente a errores de transmisión de bits, mensajes informativos relaccionados con el programa, etc...

    Por ejemplo, DSR permite que las fonías correspondientes a los locutores y discjokeys puedan ser tramsmitidas como señales de sonido diferenciadas de la música, ya que a cada tipo de información enviada se le puede asignar un código identificador que es enviado junto con la información digitalizada en las correspondientes tramas digitales. Esto permite que pueda ser empleado por el oyente para realizar diversas acciones (si las permite el equipo receptor), como por ejemplo, controlar por separado el volumen de la música y el volumen de la voz del locutor (esto se puede usar para anular la voz del locutor, o para poder solucionar el problema de desadaptación fisiológica auditiva que se da entre la palabra y la música).

  •  

    Volver al índice

     

    02.2- GENERACIÓN DE LA SEÑAL DIGITAL

    En DSR cada canal individual de sonido es primero limitado en frecuencia a un máximo de 15 kHz (misma limitación que en los canales de audio en la radiodifusión analógica de FM) y es muestreado con una frecuencia de muestreo de 32 kHz. Cada muestra de sonido es digitalizada y codificada a 16 bits, los cuales son reducidos a continuación a 14 bits mediante la técnica del "punto flotante".

    En el primer paso, las muestras de 16 bits están constituidas por una cabecera de 8 bits, que indican si la amplitud de la muestra analógica es positiva o negativa, y los 8 restantes bits codifican el valor de amplitud instantánea de la señal. Esto implica que la codificación de las muestras de audio analógico se realiza sobre 512 niveles preestablecidos de amplitud de señal.

    
          00000000 XXXXXXXX   ------>  Muestra de valor positivo
          11111111 XXXXXXXX   ------>  Muestra de valor negativo
             ¦         ¦
             ¦         '---->  Valor de la señal
             '-------------->  Bits de cabecera
    
    

    Esto conduce a un flujo digital de 512.000 bits/s por canal de audio, o 1 Mbit/s (1.024.000 bits/s) para un programa de dos canales de audio (estereofónico).

    Las muestras de 16 bits se "comprimen" a 14 bits, con resolución de 16 bits, mediante el método del punto flotante. La compresión se realiza sobre los 8 bits de cabecera:

    
            00000000 11011010   ------> Ejemplo de muestra de 16 bits
    
            0 Y 11011010 Z 111   -----> Muestra correspondiente de 14 bits
            ¦ ¦     ¦    ¦  ¦
            ¦ ¦     ¦    ¦  '--->  Código de repetición de la cabecera.
            ¦ ¦     '----¦------>  Valor de la señal
            '-¦----------'------>  Cabecera (amplitud positiva o negativa)
              '----------------->  Bit "vacío"
    
    

    En las muestras de 14 bits la cabecera se codifica con un sólo bit, que indica si la señal es de amplitud positiva o negativa, mientras que el código de repetición indica en binario cuantas veces ha de repetirse más el código de cabecera (7 en este caso, para así obtener los 8 bits de cabecera de la muestra original de 16 bits). Los bits "vacíos" se emplean para dar referencias de sincronismo a los equipos receptores.

    A cada muestra de 14 bits se añade un bit de paridad. El resultado final de comprimir a 14 bits por muestra genera un flujo de audio digital de 2 × (14 + 1) bits × 32 kHz = 1.024.000 bits/s (1 Mbit/s) para un servicio o programa de audio estereofónico (de dos canales de audio).

    Los 32 canales de audio digitalizados (a 14 bits por muestra), correspondientes a 16 servicios independientes de radiodifusión, se multiplexan, añadiendo al flujo generado otras informaciones digitales referidas a sincronizaciones, datos auxiliares, de protección frente a errores de bits, etc..., para así generar el flujo digital final que modulará la portadora de radio, cuya velocidad de modulación o “baud rate” es de 20,84 Mbits/s.

    Entre las informaciones adicionales que se envían junto con los canales de audio digitalizado están las siguientes:

    El sistema introduce cuando hay falta de señal de audio (pausas, silencios...) en alguno de los canales, 308 bits de una secuencia pseudoaleatoria de 511 bits, y que se distribuyen por todo el flujo de bits (excepto en los bits de sincronismo y en los de “datos de estado”), con el fin de minimizar las interferencias producidas por los circuitos digitales del propio receptor. El receptor conoce esta secuencia pseudoaleatoria de “energía dispersa” en el flujo de bits, y extrae estos bits al detectarla para que no sean demodulados como muestras útiles. La secuencia pseudoaleatoria utilizada ya está prefijada de antemano.

    Los bits del flujo digital final se agrupan en tramas de 256 bits, transmitiendo 8.000 tramas por segundo, lo que da el baud rate final de 20,84 Mbits/s para el flujo digital final. Cada una de las tramas está constituida por:

    En el flujo digital final, los bits se toman de dos en dos, cada dos bits forman un "símbolo digital", por lo que cada símbolo digital puede adoptar 4 valores posibles: 00, 01, 10, 11. La portadora de radio es modulada digitalmente mediante modulación DQPSK (Diferencial Quadrature Phase Shift Keying, desplazamiento de fase diferencial en cuadratura) por los símbolos digitales del flujo digital final, de manera que cada símbolo binario modula en fase la portadora, desplazando la fase de ésta valores definidos en función del valor del símbolo binario:

              Símbolo    Cambio de fase de la portadora
              .......    ...............................
                00        Sin cambio de fase
                01        Cambio de 270 grados
                10        Cambio de 90 grados
                11        Cambio de 180 grados
    

    Los cambios de fase de la portadora de radio no se realizan instantáneamente, ya que ello daría lugar a anchos de banda considerables por generación de frecuencias espúreas en el instante de cada cambio brusco de fase. Para ello se añaden unos filtros pasabajos en el modulador que permiten amortiguar este efecto al suavizar la forma de los símbolos digitales moduladores (redondeando un poco la forma de onda cuadrada de los impulsos digitales moduladores) antes de que modulen la portadora de radio.

    El ancho de banda de la señal de radio transmitida cabe perfectamente en el ancho de banda típico de 27 MHz de un canal de TV analógico de los satélites de aquella época.

     

    Volver al índice

     

    03- DIGITAL AUDIO BROADCAST (DAB)

     

    03.1- INTRODUCCIÓN

    En 1989, tras varios años de estudio por parte del Institut für Rundfunktechnik (IRT) en Alemania (desde 1981), nace en Europa el sistema de radiodifusión digital DAB, Digital Audio Broadcasting (Difusión de Radio Digital), fruto del trabajo de un consorcio de radiodifusores, operadores de red, industrias del sector de la electrónica de consumo e institutos de investigación y desarrollo, agrupados en torno a la iniciativa Eureka 147 para la Unión Europea.

    Eureka 147 (EU 147) surge en 1987 por un consorcio fundado el año anterior con el propósito de creación de un estándard europeo de radio digital que permita la recepción móvil o fija con calidad de sonido CD en un entorno de propagación donde las interferencias y los efectos de la propagación multitrayecto son suprimidas. El proyecto se inició en 1987, dando lugar a la creación del estándard de radio digital DAB. Las especificaciones del protocolo DAB fueron completadas en 1993, en 1994 DAB fue adoptado como estándard de radio digital por la ITU-R, por la por la Comunidad Europea en 1995, y por el ETSI (European Telecommunications Standards Institute) en 1997. DAB fue diseñado para la difusión de radio digital tanto terrestre como por satélite y por cable, y en su versión terrestre está diseñado para ser recibido con receptores de radio tanto de uso doméstico como portátiles y en automóvil.

    Las primeras pruebas de DAB se realizaron en Inglaterra en 1991, con demostraciones públicas en 1993, pero no fue hasta 1995 cuando se consolidó el stándard de DAB por la Comunidad Europea, tras unas pruebas en Alemania. Previamente se había introducido el sistema alemán de radio digital DSR (Numeriqueer Satelliten Rundfunk) para la difusión de radio por satélite, y otro sistema similar en Suiza para su difusión por cable. Se había considerado inicialmente que los elevados anchos de banda de la radio digital sólo permitirían su difusión por satélite o cable, y no por canales de radiodifusión terrestre.

    También ya en los años 80 habían algunos sistemas de difusión digitales de sonido asociados a sistemas de difusión analógicos, como es el NICAM 728, empleado para la transmisión de sonido estéreo o dual (bilingüe) en televisión, además del canal de sonido convencional (analógico).

    Reino Unido fue el primer país que implementó un servicio de DAB, por parte de la BBC y varias radioemisoras comerciales, en Londres en 2001, extendiéndose posteriormente a nivel nacional. Actualmente el desarrollo y la difusión del DAB está a cargo de la WorldDAB.

    DAB es un estándard de radio digital pensado como alternativa digital a la radiodifusión de FM convencional (analógica), para Europa, y que tiene varias versiones:

    DAB-T : Versión del DAB para emisiones terrestres,
    DAB-S : Versión del DAB para difusión desde satélite,
    DAB-C : Versión del DAB para difusión por cable.

    La existencia de estas tres versiones se debe a que los requisitos técnicos para cada sistema de difusión (terrestre, satélite, cable) son distintos para cada uno de ellos, entre otras cosas porque las condiciones de propagación en cada caso son diferentes.

    DAB es el estándard de radiodifusión digital europeo, pero también ha sido aceptado en otros países no europeos como sistema de radiodifusión digital, como es el caso de China o Australia, pero su implementación no se espera que sea mundial, ya que hay otros sistemas de radiodifusión digital implementados en países importantes, y no compatibles con el DAB, como son:

    IBOC (In Band On Channel), implementado en Estados Unidos,
    ISDB-T (Integrated Services Digital Broadcasting terrestrial), en Japón.

    Por tanto, el DAB se ha convertido en el avance más importante en el campo de la difusión sonora desde la introducción de la radio estereofónica en FM. Se trata de un sistema de radiodifusión digital robusto, destinado a receptores fijos y móviles, para difusión a frecuencias superiores a 30 MHz, que permite una calidad sonora equivalente al Compact Disc (CD), y por tanto es la alternativa digital a la radiodifusión analógica en FM, con la que puede coexistir, o bien la sustituirá.

    La robustez del sistema, debido al modo de codificación y transmisión de los bits del sonido digitalizado, soluciona en gran parte los problemas que sufre la recepción de señales de radiodifusión analógica de de FM como son las distorsiones y cancelaciones (fading) de la recepción en receptores móviles (portátiles y en vehículos en movimiento) debidas a los efectos del multitrayecto de las ondas, los ruidos y pérdida del estéreo cuando la señal recibida es un poco pobre, y las interferencias por estaciones de FM en canales adyacentes (interferencias co-canal). Todo ello permite la optimización del espectro radioeléctrico por un mayor aprovechamiento en las frecuencias.

    Otra gran ventaja, como en la DTT (Televisión digital Terrestre), es que DAB permite redes de frecuencia única (SFN) (Single-Frequency Networks) (en radiodifusión terrestre), es decir, un programa utilizaría la misma frecuencia en todo el territorio con cobertura, no siendo necesario, como ocurre actualmente con las emisiones analógicas en AM y FM, disponer de transmisores repetidores en distintas frecuencias para cubrir todo el territorio al cual se da cobertura si este es extenso u orográficamente complejo. En una red que da cobertura con “Frecuencia única”, los transmisores distribuidos por todo el territorio trabajan en la misma frecuencia y perfectamente sincronizados en el tiempo (los transmisores funcionan con relojes muy precisos).

    El tipo de modulación empleado garantiza que un territorio pueda ser cubierto por un mismo programa usando varios transmisores trabajando en la misma frecuencia, sin que hayan problemas cuando el equipo receptor esté ubicado en una zona intermedia entre dos transmisores (esto daría lugar a interferencias entre ellos en los receptores en los casos de las transmisiones analógicas de la AM y FM convencional), ni haya que resintonizar los receptores al cambiar de ubicación geográfica para continuar recibiendo un mismo programa. Incluso en estos casos, y gracias al esquema de codificación digital y el tipo de modulación empleados, los receptores situados en una zona intermedia entre dos o más transmisores pueden usar las señales de los distintos transmisores para la correcta descodificación de la señal (en lugar de usar sólo la del transmisor que se reciba con más fuerza). Es decir, en lugar de interferirse las distintas transmisiones en el receptor, éstas colaboran para obtener una señal DAB correcta.

    Las redes de frecuencia única (SFN) permiten optimizar notablemente el uso del espectro radioeléctrico, al requerir cada cadena una única frecuencia para cubrir el territorio al que da cobertura (no necesitando reemisores en otras frecuencias para cubrir parte de este territorio). Este uso eficiente del espectro permite por otro lado que puedan existir un mayor número de emisoras.

    Los requisitos técnicos necesarios para establecer las redes de frecuencia única no son necesarios para la radiodifusión digital por satélite y por cable, de ahí que para estos se usen otras versiones del DAB más sencillas, adaptadas a estos medios. Estas adaptaciones de deben a las características del medio de propagación de las ondas de radio y los problemas que ello puede dar lugar. Así, DAB-S (satelital) no tiene los problemas del DAB-T (Terrestre) de interferencias por otros transmisores en la misma frecuencia y por las propagaciones multitrayectos, pero sí ha de estar adecuado a los muy bajos niveles de las señales recibidas y que pueden dar lugar a frecuentes errores en las tramas recibidas. Por contra, la DAB-C (para difusión por cable), no suele presentar problemas de interferencias ni de nivel bajo de señales recibidas.

    El sistema DAB también optimiza y economiza el uso del espectro radioeléctrico gracias a otra característica: La multiplexación de programas: DAB trabaja con “múltiplex”: varios programas y servicios son asociados a una misma frecuencia o portadora de radio. Cada portadora de radio no soporta un único programa (como cualquier emisora de radio convencional analógica), sino que permite soportar varios programas diferentes: típicamente permite hasta 6 programas estéreos con calidad CD, o un máximo de 10 programas con calidades inferiores. Cada programa es digitalizado para formar un flujo digital individual, y varios programas digitalizados (sus flujos individuales) se multiplexan digitalmente para formar un único flujo digital mayor, que constituye la señal de banda base, que es la que va a modular y transmitirse sobre la portadora de radio. Además, el multiplex puede ser reconfigurado dinámicamente para introducir nuevos servicios temporales o de suscripción, por ejemplo.

    Gracias a los esquemas de codificación y modulación de las señales digitales y de la portadora de radio, DAB garantiza una calidad elevada en recepción con niveles de señal reducidos. Una relación entre la señal recibida y el ruido (S/N) de 9 dB permite ya en el receptor una calidad de señal sonora de calidad, mientras que en las transmisiones analógicas de FM se requiere una relación S/N de la señal recibida para que el receptor entregue un audio de alta calidad. Esto implica que los transmisores de DAB requieren menos potencia de transmisión que los transmisores analógicos de FM para proporcionar una misma cobertura, lo que supone una mayor eficiencia energética (menor consumo eléctrico).

    Se estima que la transmisión de un programa individual en un flujo DAB tiene un coste energético del orden de la novena parte de la transmisión de ese programa mediante la FM convencional. Sin embargo, para pequeñas estaciones de radio locales que utilicen DAB, normalmente para transmitir un único programa, el coste energético de las transmisiones es mayor que para una emisora de FM.

    Para muy bajas relaciones señal/ruido (S/N), la correcta decodificación de las señales digitales recibidas se hace imposible, y se corta la recepción, y esto es típico de cualquier sistema de radiodifusión digital. En otras palabras, la radio digital (DAB u otras) se oye sin ruidos, o no se oye (si bien esto no se cumple del todo en el caso del DAB).

     

    Volver al índice

     

    03.2- NUEVAS PRESTACIONES. CANALES DE DATOS

    DAB tiene una capacidad adicional de transmisión de datos mucho más potente que el sistema RDS (Radio Data System) de las transmisiones de radiodifusión en FM convencional, ya que permite en el flujo digital correspondiente a un programa la incorporación de un canal de datos adicional asociado al de sonido, denominado PAD (Programme Audio Data), con una capacidad 40 veces la del sistema RDS empleado en la radiodifusión analógica en FM.

    El uso de los canales adicionales de datos proporcionan nuevos y mayores servicios de información sobre una pantalla (si la equipa el receptor de radio), lo que constituye sin duda un valor añadido a la programación radiofónica.

    Los canales de datos añadidos a los programas de audio pueden emplearse para transmitir simultáneamente junto con el sonido: datos, textos, imagen e incluso vídeo, lo que permite una serie de novedades que cambian sustancialmente el modo de usar la radio respecto a la radio analógica convencional (AM y FM).

    El canal de datos asociado a programas PAD transporta datos de la configuración del múltiplex transportado por la señal DAB, así como datos y aplicaciones relacionadas con el programa que se está escuchando, y servicios de datos generales, tales como:

    Los servicios de transmisión de textos mediante el canal de datos asociado a programas son similares al servicio de Radiotexto del sistema RDS de las estaciones de FM, solo que en DAB se denominan “Dynamic Label Segment ” (DLS, Segmento Dinámico de Etiqueta), y los textos transmitidos tienen una longitud máxima de 128 caracteres, frente a los 64 caracteres del Radiotexto del sistema RDS.

    Mediante un canal de datos independiente no asociados al audio (canal de datos NPAD, Not Programme Audio Data), se pueden transmitir datos no generados necesariamente por el radiodifusor, para diversas aplicaciones independientes de los programas transmitidos, y se transmiten en formato de velocidad variable en múltiplex de datos de 8 kbps (Múltiplex DAD). Este canal de datos proporcionará un volumen de aplicaciones enorme, que se complementará con informaciones visualizables en pantalla:

    Los receptores de DAB deberán incorporar una pequeña pantalla LCD o similar para poder recibir y presentar los datos transmitidos por los PAD y el NPAD, algo similar a la pantalla usada para la RDS de los radios de FM convencional, aunque las pantallas deberán de ser de mayor tamaño. No obstante, debido al reducido tamaño de estas pantallas, sólo permiten visualizar cortos mensajes de texto así como vídeos e imágenes de pequeño formato y baja resolución.

     

    Volver al índice

     

    03.3- ASPECTOS TÉCNICOS

    Características generales

    El DAB para radiodifusión terrestre (DAB-T) soluciona los problemas que se dan en la radiodifusión en FM convencional debidos a las pérdidas de señal y a la propagación multitrayecto, tales como los ruidos de recepción, pérdidas del estéreo, etc..., que se suelen dar dentro de las ciudades, en terrenos montañosos, y sobre todo cuando se viaja en automóvil.

    Con la radio digital cambia el concepto de radio clásica (analógica), pues se deja de hablar de selectividades, sensibilidades, relacciones de señal/ruido, etc... para pasar a utilizar conceptos manejados en el mundo de los ordenadores y de las transmisiones digitales: BER (Bit Error Rate, Tasa de Errores de Bits), relacción señal/ruido de la señal recibida para un determinado BER, modos de codificación digital de la información transmitida, flujos de bits, multiplexación de flujos de bits, etc...

    La calidad de recepción es mucho mejor que para la FM convencional: La diferencia de niveles señal/ruido de la señal de radio recibida necesaria para una recepción de alta calidad es en la FM convencional de 50 dB, mientras que para la DAB con tan solo 9 dB es suficiente (esta relación proporciona un BER lo suficientemente bajo en el flujo digital recibido como para que no se note degradación alguna en la calidad de los programas recibidos). Esto permite la recepción de las transmisiones DAB con buena calidad en condiciones que ya serían bastante malas para un receptor de FM convencional, tal como la recepción en un sótano, con antenas de bajo rendimiento... También ello implica que los transmisores de DAB pueden usar menos potencia de transmisión que los transmisores de FM convencional para una misma cobertura geográfica, por lo que energéticamente son más eficientes (menor consumo eléctrico).

    Además optimiza el uso del espectro radioeléctrico al permitir la existencia de redes de frecuencia única (SFN) con gran cobertura. También la optimización del espectro se consigue por el multiplexado de programas:

    DAB trabaja con “Multiplex”: varios programas digitalizados y servicios de datos son multiplexados para formar un único flujo de datos o “bloque”, que es la señal de banda base que será transmitida sobre una misma frecuencia o portadora de radio.

    En una transmisión DAB la portadora de radio da soporte a un bloque de 6 programas estéreos con calidad CD (192 Kbps), y cada uno de ellos incorpora, además del sonido, tanto el canal de datos de servicio de la emisora PAD, como canales de datos independientes NPAD. Dado que se pueden transmitir programas de audio con distintas calidades (distintos bit-rates), el número total de programas que se pueden transmitir en un flujo digital o bloque depende de las calidades de audio de cada uno de los programas (monofónico, estereofónico, calidad musical, calidad de voz, etc...). Estas calidades incluso pueden variar a lo largo del día, dependiendo de las programaciones.

    La multiplexación de programas en el sistema DAB contribuye a la mayor eficiencia energética del sistema: Se utiliza un mismo transmisor DAB (y de menor potencia) para transmitir varios programas de audio en lugar de usar un transmisor (de mayor potencia) para transmitir cada uno de esos programas en el caso de las transmisiones analógicas de FM.

    Toda la información transmistida es digital, por lo que se usan técnicas de multiplexación de informaciones digitales para que en el mismo flujo de bits del bloque se transporten (multiplexados) varios flujos de información diferentes y diferenciados (programas de radio, canales de servicio, etc...). La capacidad máxima de transmisión de un bloque es de 2,3 Mbps (es el flujo de datos de banda base), de los cuales 1,2 Mbps son empleados para los servicios de audio y datos, y los bits restantes (1,1 Mbps, 1.184 kbps) son empleados para el sistema de protección contra errores de transmisión.

    Los bloques de DAB asignados a la banda de VHF-III tienen un ancho de 1,537 MHz (aunque se reservan 2,0 MHz para cada bloque, con el fin de mantener un “espacio de guarda” entre bloques vecinos), por lo que en la banda de VHF-III caben 8 bloques, lo que da una capacidad máxima al sistema de hasta 64 programas. Cada programa está asignado a un flujo de bits dentro del bloque, y de hecho los flujos individuales de los distintos programas que se transmiten en un bloque están multiplexados entre ellos para constituir el bloque final que se transmite en el canal de radio.

    Cada flujo de bits puede dividirse a su vez en un momento dado en dos o más flujos de bits, pudiéndose usar uno de ellos para la programación genérica y los demás para otros usos, como son desconexiones para programaciones de ámbito local o programaciones alternativas (las programaciones locales se pueden realizar mejor en la banda L). Pero al dividir un flujo de bits en varios, se puede perder calidad de la información transmitida, es una cosa a tener en cuenta.

    Así, para un programa estéreo de calidad óptima, un flujo de audio de 192 Kbits/s (a los cuales hay que añadir los canales de datos adicionales) es más que suficiente. Con 128 Kbits/s la calidad del audio aún es buena, pero por debajo de este valor ya se ha de usar la monofonía para dar buena calidad de audio, con un límite inferior de 64 Kbits/s. Por debajo de este valor, la calidad del audio monofónico ya empeora apreciablemente. DAB permite acomodar velocidades de transmisión (tanto para audio como para datos) de 8 a 380 Kbps, siendo la velocidad de datos (baud rate) usual la de 192 Kbps. Velocidades superiores, aunque proporcionan mejor calidad de sonido, no se suelen usar, y las velocidades altas dieron lugar a que algunos de los primeros receptores DAB no pudieran descodificar estos flujos, al no estar preparados para manejar señales a tan elevadas velocidades.

    Un problema del DAB es que dado que cada bloque digital tiene una capacidad de transmisión digital máxima, para acomodarla en un ancho de banda de 1,537 MHz, esa capacidad debe ser repartida entre los distintos programas que sean soportados por dicho bloque (6 como máximo), por lo que si un programa demanda mucha calidad de sonido, dgenerará un flujo digital elevado, que requerirá una mayor capacidad de transmisión dentro del bloque, y ello puede ir en detrimento de la calidad de los otros programas del mismo bloque, ya que éstos deberán de repartirse el resto de la capacidad de transmisión del bloque. Esto puede llevar a situaciones de picaresca (que se han dado), en el que una cadena transmita su programa requiriendo una mayor capacidad de transmisión digital que la que realmente necesita mediante el envío de información “basura” (mediante tramas de datos aleatorios), y ello da lugar a que las demás cadenas, de la competencia obviamente, dispongan de menor capacidad de transmisión en el bloque digital y sus programas tengan cierta menor calidad sonora que la primera (lo que favorece que ésta tenga una mayor audiencia).

    En cuanto a la calidad de audio de las transmisiones DAB, es superior a la calidad que ofrecen las emisoras de FM convencionales, ya que el sonido es transmitido digitalmente, con calidad de Compact Disc (CD). Así, en una transmisión estérea, en DAB los dos canales de sonido de un programa se pueden transmitir perfectamente separados, con diafonías entre ellos del orden de 90 dB, mientras que en la radiodifusión analógica convencional en FM, en una transmisión estérea de calidad las diafonías entre los dos canales de sonido son del orden de 20 dB.

     

    Robustez del sistema

    DAB-T presenta una gran robustez y no tiene los problemas de la propagación multitrayecto debida a reflexiones, dispersiones y difracciones de las señales, que en el caso de la radiodifusión analógica en FM dan lugar a fading o desvanecimientos de la señal captada. Este fading se debe a la suma de las distintas señales que llegan desde la misma estación transmisora por multitrayecto, y que llegan con diferencias de fase que tanto pueden reforzar la señal recibida en un momento dado como debilitarla. En el DAB se usa una codificación digital y un tipo de modulación multiportadora que no sólo reduce al mínimo los problemas que causa el fading (en transmisiones digitales el fading puede dar lugar a altas tasas de errores de bits, BER, en las señales recibidas), sino que consigue que la mayoría de las señales recibidas por multitrayecto procedentes del mismo transmisor, e incluso de otros transmisores en el caso de redes de frecuencia única (SFN, Single-Frequency Networks), se complementen para mejorar la recepción (sobre todo en el caso de recepción de señales débiles).

    Para ello DAB usa la codificación-modulación multiportadora OFDM (Orthogonal Frecuency Division Multiplexing, multiplexado por división ortogonal de frecuencia). Básicamente en las modulaciones OFDM lo que se hace es que los bits del flujo digital a transmitir (la banda base) se agrupan en grupos o paquetes de un número determinado de bits, los “símbolos digitales”, y éstos modulan las distintas subportadoras utilizadas típicamente mediante modulación QAM (Quadrature Amplitude Modulation, Modulación de amplitud en cuadratura), que básicamente es una modulación que combina modulación digital de amplitud y modulación digital de fase simultáneas (es lo que se denomina modulación en cuadratura): Según el valor binario de cada símbolo digital, la subportadora es modulada en amplitud (ASK) y en fase (FSK) con unos valores de amplitud y de fase determinados que dependerán del valor binario del símbolo digital. Así, símbolos digitales de dos bits darán lugar a cuatro valores de amplitud-fase (modulación 4-QAM o QPSK) para los distintos valores de los símbolos (00, 01, 10, 11), mientras que los símbolos digitales de 4 bits (que pueden adoptar 16 valores binarios posibles) requerirán un esquema de modulación QAM de 16 valores de amplitud-fase (modulación 16-QAM).

    La señal resultante está constituida por un elevado número de subportadoras poco distanciadas entre sí (dentro del ancho de banda del canal de radio) que se transmiten simultáneamente (en paralelo), y que en conjunto transmiten todo el flujo digital, ya que los bits de éste están repartidos entre todas las subportadoras, y este conjunto de subportadoras es el que modula la portadora de radio que transmitirá la señal por antena. Si se emplean n subportadoras para un sistema de transmisión digital con modulación OFDM, se podrán transmitir simultáneamente n símbolos digitales, cada uno modulando una subportadora mediante modulación QAM.

    En el caso del DAB, para transmitir el flujo digital emplea 1.536 frecuencias subportadoras en el canal de radio. Otros esquemas de modulación OFDM se emplean en la televisión digital terrestre (TDT) para transmitir los programas de televisión (audio y vídeo, con hasta 8.000 subportadoras), así como en otros sistemas de difusión digital o de transmisión de datos que empleen altos anchos de banda.

    En la modulación OFDM empleada en DAB, el tiempo útil de transmisión de cada símbolo digital es de 1 milisegundo, lo que implica que cada subportadora tendrá un ancho de banda de 1 kHz al ser modulada (ya que el ancho de banda es inverso al tiempo de modulación en modulaciones digitales), de ahí que el ancho de banda de toda la transmisión sea de 1.537 kHz (1,537 MHz). El intervalo entre cada transmisión de símbolos digitales es de 246 microsegundos, denominado intervalo de guardia, por lo que el periodo total de transmisión de los símbolos digitales es de 1.246 microsegundos (1,246 milisegundos).

    Este intervalo de guardia introducido en la transmisión de los símbolos digitales es lo que permite crear las redes de frecuencia única, y determina la separación máxima entre transmisores de la misma red sin que sus transmisiones se interfieran. Un receptor recibirá las señales (que transportan el mismo flujo digital) de distintos transmisores de una misma red de frecuencia única con distintos retardos, y el intervalo de guardia impide que se produzcan dificultades en la recepción de las señales. Con el intervalo de guardia de 246 microsegundos, la máxima separación entre dos transmisores de la misma red de frecuencia única es de casi 74 km, ya que es la distancia que recorren las ondas de radio en ese tiempo. A distancias mayores, se solaparán periodos de símbolo sucesivos de ambos transmisores, lo que provocará problemas de recepción en áreas donde ambos transmisores lleguen con intensidades de señal similares si la diferencia de recorridos de las ondas superan los 74 km.

    Un aspecto técnico sobre las redes de frecuencia única (FSN) es que para que todos los transmisores de la red transmitan sus bloques digitales sincronizados en el tiempo, han de introducir retardos en las transmisiones una vez recibido el flujo digital desde el mismo centro de donde se realiza la multiplexación de programas. El multiplexador introduce en el flujo multiplexado marcas de tiempo y a continuación es distribuido a los diferentes transmisores de la red FSN. Dado que se recibiran con distintos retardos debido a la propagación de las señales entre el centro de multiplexación y los distintos transmisores, estos últimos introducen un retardo de entre 1 y 4 segundos desde que reciben las señales multiplexadas hasta el momento que son transmitidas por antena, y siempre teniendo en cuenta las marcas de tiempo que llevan los flujos recibidos, lo que permite a los transmisores sincronizar las transmisiones. Este retardo de 1 a 4 segundos es un poco largo, y aunque cubre perfectamente los tiempos de retardo debidos a la propagación de las señales y los tiempos de latencia de los decodificadores de los equipos de radio receptores de los oyentes, tiene algunas desventajas para los oyentes, como por ejemplo si un mismo programa es transmitido simultáneamente en DAB y FM y es escuchado en distintos receptores de ambos tipos en distintas estancias dentro de un mismo domicilio, el oyente percibirá este importante retardo entre la FM y el DAB.

     

    En la codificación digital de la señal DAB se han tenido en cuenta varios aspectos para proporcionar la gran robustez al sistema:

     

    Compresión de audio

    El sistema DAB original fue pensado en 1989, cuando aún no se contemplaban aspectos de los modernos sistemas de difusión digitales como son los algoritmos modernos de compresión de las informaciones digitales, las calidades según el nivel de compresión de la información, etc..., que se usan por ejemplo hoy en día en los sistemas de Televisión Digital, por lo que con la entrada del siglo XXI, este sistema de radiodifusión digital quedó técnicamente anticuado en su versión original.

    La compresión de la información digital consiste en el empleo de técnicas que permiten reducir el tamaño de la información a transmitir sin pérdida de calidad (al menos aparente), lo que permite requerir un menor ancho de banda para transmitir un mismo flujo de información digital. Las técnicas de compresión actuales se basan en codificar la información redundante (la que se repite en el flujo de bits: por ejemplo, si se transmiten 100 bits seguidos con el mismo valor binario, no es necesario transmitirlos todos uno a uno, se puede transmitir un código de repetición que indique con pocos bits que eso equivale a 100 bits sucesivos del mismo valor; esto disminuye notablemente el número de bits para transmitir la misma información) y también la compresión del propio audio, basado en eliminar del audio a transmitir componentes del sonido que normalmente no son percibidas por el oído (para que no haya sensación de pérdida de calidad). Las técnicas de compresión actualmente más usadas en los modernos sistemas de difusión digitales son las denominadas MPEG.

    DAB usa compresión digital del sonido para conseguir que los distintos programas ocupen el menor espacio posible el el múltiplex DAB manteniendo una buena calidad de audio. La técnica de compresión es un tanto antigua, se conoció en su momento como MUSICAM, pero al estandarizarse en los años 1990, pasó a denominarse “MPEG-1 layer 2” o “MP2”. Fue creada dentro del proyecto Eureka 147 que dio lugar al DAB. La compresión MP2 es similar y anterior a la muy conocida y más avanzada compresión de audio MP3 (MPEG-1 layer 3), pero con una capacidad de compresión inferior: MP2 comprime unas 6 veces el audio original digitalizado no comprimido (como el empleado en los discos CD), de ahí que en la capacidad de flujo digital de un programa digitalizado sin comprimir quepan 6 programas comprimidos mediante MP2.

    La compresión de sonido MP2, igual que otras compresiones MPEG, se basa en eliminar información sonora que el oído no puede apreciar por sus limitaciones psicoacústicas, y que por tanto su eliminación el oído no percibe una pérdida significativa de calidad sonora. Esto ocurre cuando hay dos componentes o tonos en la señal de audio muy próximos en frecuencia, y uno de ellos tiene un nivel bastante mayor que el otro. En estas circunstancias, el oído sólo percibe el tono más fuerte, ya que éste enmascara el tono más débil. Para ello el compresor MPEG deberá analizar en todo momento el espectro de la señal de audio, para determinar las frecuencias presentes, sus niveles, y por tanto, deducir qué información de audio puede eliminar en cada momento al realizar la digitalización con compresión de la señal de audio.

    Sin embargo, la compresión de sonido MP2 es un poco deficiente comparada con compresiones de sonido más modernas, y se requiere compresiones con tasas de bits (“baud rates”) de al menos 160 kbps para proporcionar una calidad de audio parecida a la de la FM analógica. Usualmente se usan tasas de bits de 192 Kbps (menor compresión del audio) para proporcionar calidad de audio de Disco Compacto (CD), y por ello, mejor que la de la FM analógica. Como comparación, se suele indicar que el más popular formato de compresión MP3 puede proporcionar calidad de CD con tasas de bits de 128 kbps (afirmación que puede ser discutible). Tasas de bits de hasta 380 kpbs se pueden usar en MP2, proporcionando la mejor calidad de sonido, pero lo habitual es usar los 192 kbps.

    Y mientras en las transmisiones analógicas de FM el audio es transmitido con un ancho de banda nominal de 15 kHz (0-15 kHz), y aplicando preénfasis a las señales de audio (para realzar las frecuencias más altas, donde el nivel de ruido es mayor), en DAB el audio se transmite con un ancho de banda de 24 kHz y sin aplicar preénfasis.

     

    Volver al índice

     

    03.4- MEJORAS DEL DAB: DAB+ Y DMB

    La norma DAB original es del año 1989, y conforme la técnica fue evolucionando, pronto se hizo obsoleta, incluso antes de que comenzaran las primeras transmisiones comerciales de DAB. DAB no proporcionaba una muy buena calidad de sonido debido al códec de audio empleado (MPEG-1 layer 2 o MP2) si no era con bitrates altos (que implican aumentos del ancho de banda de las transmisiones), y tampoco demostró ser muy robusto en condiciones de recepción débiles, a causa del sistema de detección y corrección de errores empleado (tipo FEC), que es un poco pobre para estas condiciones: Cuando la intensidad de las señales DAB cae por debajo de un umbral crítico, la calidad se degrada rápidamente, mientras que la FM analógica se sigue recibiendo con degradaciones lentas de calidad al ir disminuyendo la intensidad de las señales.

    Por ello aparecieron evoluciones posteriores del sistema DAB original, más acordes a la evolución técnica del momento, como son la norma DMB (Digital Multimedia Broadcastind), desarrollada en Corea e implementada en 2004, y la norma europea DAB Plus o DAB+, cuyas especificaciones se presentaron en 2007.

     

    DAB Plus (DAB+)

    DAB+ es la evolución más moderna del sistema DAB original, desarrollada en Europa, y que fue desarrollada en la segunda mitad de la década de 2000, estando definidas sus especificaciones en la norma europea del ETSI (European Telecommunications Standards Institute) TS 102 563 V1.1.1, de febrero de 2007.

    DAB+ es mucho más avanzado y robusto que el DAB original, el cual es un sistema ya obsoleto, y aunque ambos sistemas pueden coexistir perfectamente, la realidad es que DAB+ es el que se está implantando en numerosos países de Europa y del resto del mundo, en detrimento del DAB original. Con el tiempo es de esperar que los programas de DAB existentes finalmente sean pasados a DAB+.

    DAB+ tiene una mayor robustez que el DAB original debido a las innovaciones que presenta. Una de ellas es el uso del “interleaving” (entremezclado) de bits de las tramas de los distintos programas (P1, P2....P6) al formar el flujo digital final. En lugar de multiplexar las tramas programa cíclicamente en el flujo digital final (flujo que seguiría un esquema de multiplexación del tipo P1-P2-P3-....-P6-P1-P2-P3-.... o similar), con la técnica del interleaving lo que se hace es ir mezclando los distintos bits de las tramas de programa en el flujo digital final (siguiendo un esquema dado de entremezclado).

    El interleaving proporciona una mayor protección contra los errores de bits debidos al ruido y las interferencias que el simple uso de la corrección de errores FEC : Si se produce un ruido o interferencia puntual que provoca errores en el flujo digital recibido, en lugar de afectar severamente a alguna trama de un programa que podría no ser recuperable por sus bits de CRC, los errores se producirían sobre bits sucesivos correspondientes a distintas tramas del programa o de distintos programas, con lo cual los errores se reparten y “diluyen” entre varias tramas de programa con un menor impacto sobre la integridad de éstas, las cuales podrían ser corregidas gracias a sus correspondientes bits de CRC.

    DAB+ también incluye la codificación de corrección de errores (ECC) Reed-Solomon, que es un sistema destinado para la detección y corrección de errores mucho más potente y robusto que el sistema ECC empleado en DAB, siendo esto otro de los motivos de la mayor robustez del DAB+ frente al DAB original.

    Al emplear DAB+ este avanzado sistema de corrección de errores que no tiene el DAB original, esto tiene como consecuencia que el sistema DAB+ sea incompatible con los equipos receptores anteriores de DAB, pero los receptores posteriores sí incluyen las dos modalidades, DAB y DAB+.

    El uso de la ECC Reed-Solomon soluciona también un problema que tenía el DAB original: El ECC de tipo convolucional que empleaba DAB proporcionaba una protección frente a errores que afectaba desigualmente al flujo digital transmitido. Partes del flujo digital estaban menos protegidas frente a errores que otras, lo que implicaba que en condiciones en que la señal recibida comienza a tener bastantes errores de bits (por ejemplo, en áreas marginales de recepción de una transmisión DAB), el audio reproducido comienza a mostrar ciertas alteraciones que deterioran su calidad sonora (una especie de sonido de fondo de tipo burbujeo) y que pueden llegar a producir cortes en la reproducción del audio. Por tanto, el sistema ECC del DAB original en realidad no es muy robusto. Con el ECC Reed-Solomon de DAB+, la protección frente a errores afecta por igual a todos los bits (y no má a unos que a otros), y los problemas en la reproducción del audio sólo aparecen con tasas de errores de bits más elevadas, por lo que es mucho más robusto que el ECC convolucional empleado en DAB original. En el caso del DAB+ se cumple aquello de que la radio digital se oye sin ruidos, o no se oye.

    En realidad, DAB+ usa ambos sistemas de ECC, aunque de forma concatenada: la ECC Reed-Solomon se aplica al flujo final de información antes del proceso de interleaving, y el ECC convolucional se aplica al flujo de bloques de bits resultante tras el proceso de interleaving, obteniéndose así el flujo final de bits que es transmitido por radio mediante modulación multiportadora OFDM.

    DAB+ además emplea el códec de audio AAC (Advanced Audio Codec) versión 2 (HE-AAC v2), más conmunmente conocido como AAC+ o AAC plus, en lugar del códec “MPEG-1 layer 2” (MP2). AAC+ es un códec de audio desarrollado por la firma sueca Coding Technologies, que es unas 3 veces más eficiente que el códec MP2, que proporciona mayor calidad del audio comprimido con menor bit-rate, emplea un algoritmo de compresión mucho más eficiente basado en la denominada “Modified Discrete Cosine Transform” (MDCT, Transformada discreta de coseno modificada), compresión que sigue los estándares de codificación MPEG-4.

    El códec AAC+ proporciona ya calidad de audio estéreo de Disco Compacto (CD) con tasas de bits de sólo 72-80 kpps (dependiendo del contenido sonoro), frente a los 192 kbps de la codificación MP2 empleada en DAB, o de 64 kbps para una calidad sonora similar a la de la FM analógica. Y con anchos de banda de audio de 24 kHz o superior, y sin aplicar preénfasis al audio.

    Todas estas características hacen que DAB+ sea aproximadanente 3 veces más eficiente que el DAB original (además de más robusto frente a ruidos e interferencias), lo que permite que en cada flujo o múltiplex digital quepan más programas que el el DAB original: hasta 12 programas de alta calidad por flujo o canal de radio, o más de 100 programas con calidad de CD en 7 múltiplex.

     

    Logotipo de DAB+
    Logotipo de DAB+

     

    DMB (Digital Multimedia Broadcastind)

    Otra evolución del DAB, anterior al DAB+, es la norma desarrollada fuera de Europa, en Corea del Sur e implementada en 2004, la norma DMB (Digital Multimedia Broadcastind). De hecho, DAB+ es desarrollado como una evolución del DAB aplicando aspectos técnicos del DMB. Pero a diferencia del DAB original, DMB fue desarrollado como sistema de difusión multimedia, ya que también incorpora capacidades de transmisión de vídeo (algo que después no fue incorporado en el DAB+).

    DMB fue desarrollada por el Electronics and Telecommunications Research Institute (ETRI), organismo de investigación científica estatal coreano para la radiodifusión digital terrestre (DMB-T). También Toshiba (japonesa) y LK Telecom (coreana) desarrollaron una versión del DMB para difusión desde satélite (DMB-S). El DMB entró en servicio en Corea en mayo de 2005 para la modalidad DBM-S (tras ser lanzado el satélite MBSat1 un año antes) y en diciembre de 2005 para la modalidad DMB-T.

    Mientras que DAB hace uso de la compresión de sonido MP2 (MPEG-1 layer 2), una norma de compresión de sonido que técnicamente está obsoleta frente a las normas de compresión más potentes como las compresiones MPEG-4, la norma coreana DMB hace uso de la compresión de sonido MPEG-4, empleando los avanzados códecs de compresión BSAC y HE-AAC v2 (o AAC+), que permiten compresiones mayores del sonido que con los códecs MP2 para una misma calidad de sonido.

    Además DMB hace uso de otros avances, como el “interleaving” de las tramas de bits, técnica de entremezclado de bits de diversas tramas o paquetes de bits, y el sistema de corrección de errores Reed-Solomon, lo que permite que el receptor tenga una mayor facilidad para reconstruir las señales digitales originales que se reciben con errores de bits debidos al ruido y a la propagación multitrayecto, etc... (ya fue comentado esto al hablar del DAB+).

    Estos avances técnicos ya están implantados en el otro sistema estándard de radiodifusión digital terrestre, el sistema DRM, empleado para las bandas de onda corta e inferiores, por lo que es un sistema técnicamente mucho más avanzado que el sistema DAB. Por tanto, el sistema DMB es una nueva implementación del DAB, que lo aproxima en cierta manera al DRM, e incluso a los sistemas de TV digital terrestre de pequeño formato (vídeo y audio en formato MPEG-4).

    DMB es, pues, una especie de subnorma del sistema DAB implementada por Corea del Sur en 2004, adaptando el DAB europeo a la situación actual de la técnica en aquellos años, lo que supuso una gran mejora del DAB original. El DMB aporta al DAB el abandono de los códecs de compresión MP2 y usa en su lugar diversos códecs de compresión MPEG-4 (BSAC y HE-AAC v2), introducen los interleaving de bits, así como otros sistemas de tratamiento de datos más avanzados, etc.., y del sistema DAB original sólo conservan las bandas de frecuencias de transmisión y los tipos de modulación empleados.

    Pero DMB está considerado también, como se ha comentado anteriormente, como formato de difusión digital multimedia (de ahí su nombre), ya que en su especificación está contemplado que ofrezca en cada flujo varios canales de audio digital y también y necesariamente un canal con una capacidad mínima de TV digital (en vídeo de baja resolución), algo que después no se contempló en el DAB+. La inclusión del canal de vídeo digital perjudica algo la calidad del audio transmitido, siendo algo inferior a la del DAB+, ya que al emplear parte de la capacidad del flujo para la transmisión de un canal de TV digital, debe destinarse menos capacidad de transporte a los canales de audio. Pero ello también da lugar a que, a diferencia del DAB Plus, el DBM no pueda coexistir con el DAB original.

    Para la transmisión de vídeo, DMB hace uso del códec de vídeo MPEG-4 AVC (o H264). El vídeo es transmitido en un subcanal que fue diseñado para ser añadido fácilmente en cualquier transmisión DAB. Ello hace que el DMB desarrollado en Corea del Sur usara inicialmente el DAB convencional (con códec de audio MPEG-1 Layer II o MP2) con el subcanal de vídeo añadido.

    Esta capacidad de transmitir vídeo está pensada para su presentación en pantallas de pequeño tamaño, como pueden ser las de los receptores DMB, teléfonos móviles con capacidad DMB, tablets, sistemas de navegación GPS y otros dispositivos móviles con sintonizador DMB o que puedan ser conectados a un receptor DMB.

    Las técnicas de compresión empleadas por DMB, basadas en las normas de compresión MPEG-4, proporcionan mayores compresiones de voz y datos que con la compresión MP2 original del DAB, y ello permite, por ejemplo, que en un flujo de 48 Kbits/s puedan caber 6 programas de radio.

    Igual que el DAB original, DMB emplea la modulación multiportadora OFDM con modulación DQPSK en cada subportadora, ocupando el bloque transmitido un ancho de banda de 1,526 MHz. Las transmisiones son en la banda VHF-III, mientras que en la modalidad satelital, se usa la banda S.

    Las tramas de los distintos programas de audio y de vídeo son encapsuladas en tramas de un “flujo de transporte MPEG” (MPEG-TS, MPEG transport stream), y al flujo MPEG-TS resultante se le aplica la codificación de corrección de errores Reed-Solomon, y a continuación el interleavig entre bits del flujo resultante. A las tramas resultantes se aplica la codificación de corrección de errores convolucional utilizada en el DAB, para así generar el flujo digital final que es transmitido en modo similar al DAB original (mediante modulación OFDM-DQPSK).

    El DMB proporciona una mejora bastante apreciable de la sensibilidad de los receptores: La tasa de errores de bits admisible en DMB sin degradación de la calidad de la señal es más alta que para la norma DAB original (como consecuencia de la técnica de “Interleaving” y del sistema de corrección de errores Reed-Solomon), lo que equivale a una mejora de la sensibilidad del receptor, capaz de seguir recibiendo correctamente en situaciones en las que un receptor DAB comienza a tener problemas en la correcta descodificación de las señales recibidas. Concretamente se indica que la recepción de señales con un nivel de -96 dBm garantiza una tasa de errores de bit máxima de 10-4 (un error cada 10.000 bits), más que suficiente para mantener la reprodución de los contenidos (audio, vídeo) en perfectas condiciones.

    Todas estas ventajas del DMB sobre el DAB original hicieron que en 2006 el WorldDAB (la entidad encargada del desarrollo e implementación del estándard DAB) aceptara el DMB-T como una sub-norma del estándard europeo DAB, y por tanto contemplada dentro del estándard. Esto implica que los fabricantes de receptores DAB deban de diseñar y fabricar los receptores DAB contemplando las variantes existentes de DAB, esto es, la DAB original, la DAB+ y la DMB, lo que encarece los receptores.

    En 2007 Francia anunció su intención de adoptar el DMB como sistema de radiodifusión digital, en oposición al resto de los países europeos, que han adoptado el DAB/DAB+ (al menos nominalmente), lo que volvía a repetir en cierta manera la historia que ocurrió cuando Francia implementó la televisión analógica a color, donde, por motivos proteccionistas, adoptó un estándard propio de televisión analógica a color, el SECAM, frente al resto de los países europeos, que adoptaron el sistema PAL. Sin embargo, finalmente en 2015 Francia dejó el DMB y se pasó al DAB+. A fecha de 2017, DMB está adoptado como sistema de radiodifusión digital en Corea del Sur, Noruega, Tailandia y Camboya.

     

    Volver al índice

     

    03.5- IMPLANTACIÓN DEL DAB/DAB+

    Inicialmente en Europa se asignaron inicialmente dos bandas para la radiodifusión digital DAB terrestre:

    Como se puede ver, la banda de radiodifusión analógica de FM (87,5-108 MHz) no está afectada por la implementación del sistema DAB, al usar bandas de frecuencias distintas, y ello permite que puedan coexistir la FM analógica y el DAB, pudiendo los receptores de radio incorporar tanto la DAB como la Onda Media y la FM analógicas convencionales. Pero varios países han mostrado su intención de apagar (cesar) las transmisiones de la FM convencional cuando el DAB esté plenamente implementado en su territorio, lo cual supondrá la desaparición de la radiodifusión convencional en FM. En cuanto a la banda L, pensada más para las emisiones DAB de ámbito local por su menor capacidad de cobertura que la banda VHF-III, finalmente fue descartada en enero de 2017 (en la especificación DAB 2.1.1) para la radiodifusión digital DAB, quedando libre para otros usos. La actual especificación DAB sólo contempla la VHF banda III.

    Evidentemente, para la recepción del DAB es necesario un receptor digital, cuyos primeros modelos se pudieron ver en la IFA de Berlín de agosto de 1997. Son receptores que llevan una pantalla de cristal líquido en la que se puede ver las informaciones que se envíen desde las emisoras. Estos primeros receptores eran muy caros, pero se estimó que conforme se fuera implantando el sistema DAB, los precios de estos receptores se irían haciendo más asequibles. Para el año 2002 se esperaba que saliera ya al mercado el primer chip diseñado específicamente para la descodificación del DAB, lo que permitirá desarrollar receptores de DAB mucho más baratos. Con la implementación del DAB/DAB+ en distintos países desde entonces, ha permitido desarrollar y comercializar a precios bastante asequibles receptores DAB (que además suelen incorporar la AM y FM analógicas), tanto en modelos portátiles (del tamaño de un teléfono móvil) como domésticos para el domicilio del usuario (típicamente para sistemas de alta fidelidad), para el automóvil, y como tarjetas de audio digital para ordenadores PC.

    La implementación del DAB es muy lenta, y sólo desde un principio Reino Unido comenzó a impulsar la implantación del DAB en su territorio. La BBC británica inició los primeros servicios DAB en septiembre de 1995, aunque también los inició ese mes la Sveriges Radio en Suecia. No obstante, el primer canal de DAB que se puso en servicio fue un canal musical de la radiodifusora noruega NRK (Norwegian Broadcasting Corporation) el 1 de junio de 1995.

    En España en diciembre de 1996, tras unas demostraciones primero en Santander (en la Universidad Internacional Menéndez Pelayo, el 26 de junio, por Radio Nacional de España y la empresa alemana Blaupunkt) y meses después en Navarra, se inició una prueba piloto de la tecnología de radio digital DAB en Cataluña por la cadena de radio autonómica Catalunya Ràdio. Durante la prueba piloto se establecieron dos estaciones emisoras: en la Torre de comunicaciones de Collserola (junto a la ciudad de Barcelona) y en Alpicat (Lleida), con una cobertura estimada del 70% de la población de Cataluña.

    Con esta prueba piloto la previsión era de que a mediados de 1998 se iniciara la comercialización del DAB en Cataluña, y se fuera implantando progresivamente en el resto del territorio nacional. Pero el DAB no arrancó en España, y durante 20 años, ha seguido sin arrancar. El DAB/DAB+ hasta 2023 no ha tenido éxito en España, con sólo dos transmisores de DAB en las ciudades de Madrid (desde Torrespaña) y Barcelona (desde la Torre de Collserola), dando una cobertura estimada al 50% de la población española, que se redujo posteriormente (en 2009) a petición de los propios prestadores comerciales del servicio al 20% de la población española. La no comercialización de equipos de radio que incorporen DAB es una de las principales causas de ello, y los principales radiodifusores españoles no se decantan por el DAB si nadie escucha esta modalidad digital. Pero nadie escucha DAB porque no hay receptores disponibles y de precio asequible (es la “pescadilla que se muerde la cola”).

    Mientras, a lo largo de esos años, el DAB/DAB+ se ha ido implementando en bastantes países de Europa (Reino Unido, Alemania, Noruega, Suiza, Dinamarca, Austria...), en Australia, Nueva Zelanda, en parte de Asia (China) y en algunos países del norte de África. Ya en 2018 el DAB/DAB+ había desplazado definitivamente (y por ley) en Noruega las transmisiones analógicas de la radiodifusión pública y nacional analógica en FM con la excepción de las emisoras locales y regionales, y con la previsión del apagón total de la FM en 2022. En otros países donde el ritmo de implementación ya comenzaba a ser alto, también hay establecidas fechas de caducidad para las transmisiones analógicas de FM (previsiones en 2019: año 2024 en Suiza, 2025 en Alemania y Chequia, Dinamarca: no antes de 2023, etc...). Y en los países donde ya se ha implantado el DAB, la mayoría emplean el sistema DAB+, manteniendo sólo algunos un número significativo de servicios en DAB original (Reino Unido, Irlanda, Nueva Zelanda, Rumanía y Brunei a fecha de 2019).

    En algunos países donde la radio es mayoritariamente privada también hubo resistencias a la implementación del DAB por motivos de competencia. La implementación del DAB supone crear más emisoras de radio, y como éstas pueden proporcionar una mayor calidad de sonido (calidad de CD), captarían más oyentes en perjuicio de las ya establecidas en la banda de FM analógica.

    Para dar un impulso a la implementación definitiva del DAB en Europa, una directiva de la Unión Europea estableció que todos los automóviles fabricados y comercializados en la Unión Europea desde el 21 de diciembre de 2020 deben incorporar obligatoriamente en sus equipos de radio el sistema DAB+: "Todo receptor de servicios de radio integrado en un vehículo nuevo de la categoría M introducido en el mercado para su venta o alquiler deberá incluir un receptor capaz de recepción y reproducción de, al menos, los servicios de radiodifusión ofrecidos a través de la radiodifusión digital terrestre.". Por contra, en Norteamérica y en otros países no se implementará el DAB/DAB+ al haber adoptado otro sistema como estándard de radio digital terrestre de origen estadounidense, el IBOC o HD Radio.

    Mientras, en España el DAB está concentrado en Barcelona y Madrid, y sin apenas oyentes. En 1999 se aprobó mediante Real Decreto (RD 1287/1999) la primera regulación de la radio digital en España, y pronto se asignaron las primeras licencias (de forma un tanto discutible, al ser concedidas a entidades “amigas” del gobierno de turno). Se estableció que en las primeras fases de la implantación de la radio digital, se obligaba a dar cobertura al 50% de la población española. Pero DAB no arrancaba, apenas tenía oyentes allí donde estaba implementado, ni se instalaron nuevos transmisores de DAB. Quizá por ello en 2009 se modificó el Plan Técnico de Radiodifusión, en el que se modificó la obligación de emitir en digital al 20% de la población española (es decir, bastante menos del 50% establecido anteriormente), y ello se consiguió cubriendo las áreas metropolitanas de Madrid (desde Torrespaña) y Barcelona (desde la Torre de Collserola). Pero, a fecha de 2023, DAB/DAB+ seguía sin arrancar en España y prácticamente sin oyentes ni nuevos transmisores en otras ciudades, y por ello sin interés por las radiodifusoras por este sistema de radiodifusión digital, que seguían apostando por la radiodifusión analógica en FM. España se estaba convirtiendo en un “oasis analógico” (una "excepción ibérica") dentro de una Unión Europea que cada vez se estaba volviendo más digital.

    No obstante, la implementación obligatoria del DAB+ en los automóviles fabricados en Europa desde 2020 ha hecho crecer el número de receptores DAB+ en España (hasta 3,6 millones a finales de 2023, justo en el lugar donde más se consume la radio: el coche), y se espera que ya en 2024 se impulse definitivamente la implementación de la radiodifusión digital DAB+ en España.

    La lista de frecuencias de radio para DAB contemplada inicialmente para su uso en España era la siguiente:

     

    Bandas de radio inicialmente pensadas para DAB
    Banda Frecuencias Canales VHF Bloques DAB Uso
    VHF-I 47 - 68 MHz 2 - 4 12 bloques (2A-4D) DAB-T
    VHF-III 174- 230 MHz 5 - 12 32 bloques (5A-12D) DAB-T
    VHF-III 230 - 240 MHz 13 6 bloques (13A-13F) DAB-T
    Banda L 1452-1467,5 MHz --- 9 bloques (LA-LI) DAB-T
    Banda L 1467,5-1492 MHz --- 14 bloques (LJ-LW) DAB-S

     

    (Nota: Los antiguos canales de televisión analógica de VHF tenían un ancho de banda de 8 MHz, en DAB cada flujo digital ocupa 1,5 MHz).

    Actualmente están ya descartadas la banda VHF-I (antiguamente utilizada por la televisión analógica) y las bandas L, sólo se contempla el uso de las bandas VHF-III. España asignó finalmente para el servicio de radiodifusión sonora digital terrestre DAB las siguientes bandas de frecuencia:

     

    Espectro de una transmisión DAB en un canal de VHF-III ; 1,5 MHz de ancho de banda.
    Espectro de una transmisión DAB en un canal de VHF-III ; 1,5 MHz de ancho de banda. (Clic en la imagen para ampliarla).

     

    Canales radioeléctricos que alojan los múltiples de radio digital DAB en España
    Canales radioeléctricos que alojan los múltiples de radio digital DAB en España.

     

    El Plan Técnico Nacional de la Radio Difusión Sonora Digital en la banda VHF-III prevee un total de 48 programas en cada zona, en 8 flujos digitales o bloques, asignados de la siguiente manera:

    La denominación final de los flujos o bloques que se emplearán en España en VHF III, definidos en el Plan Técnico Nacional de Radiodifusión Sonora Digital, es la siguiente (Nota: FU = Frecuencia Única):

    Se establecen 6 programas sonoros por cada flujo nacional y autonómico (que se pueden conceder a distintas cadenas de radiodifusión privadas y públicas). Los flujos nacionales son competencia del Gobierno español, y en ellos hay varios programas asignados a la cadena pública Radio Nacional de España. El Gobierno de cada Comunidad Autónoma tiene concedidos hasta tres programas en cada uno de los múltiplex regionales, así como las competencias administrativas de los múltiplex regionales y locales.

    En la banda L se había asignado otra banda para DAB-T (1452- 1467,5 MHz), que permitía disponer de 9 flujos digitales de 1,5 MHz, y 6 programas por flujo (una capacidad total de 54 programas). Al ser de mayor frecuencia, el grado de calidad de las señales transmitidas es algo inferior que para la banda de VHF-III, por lo que esta banda es más adecuada para las emisoras de carácter local. Sin embargo, en 2017 se abandonó esta banda para su uso en radiodifusión digital terrestre DAB.

     

    Volver al índice

     

    04- ESTÁNDARD NORTEAMERICANO IBOC (HD RADIO)

     

    En Estados Unidos se apostó en 2002 por otro sistema de radiodifusión digital terrestre, diferente al DAB europeo, y es el sistema IBOC (In Band on Channel). Este sistema fue desarrollado por la empresa estadounidense Ibiquity Digital Corporation, y permite una buena compatibilidad con las transmisiones analógicas convencionales en los equipos receptores, ya que está pensado para transmitir sonido con calidad de CD en las mismas bandas de AM y FM de la radiodifusión analógica convencional.

    IBOC, igual que el sistema digital japonés ISDB-T (Integrated Services Digital Broadcasting Terrestrial), también propio de este país, es incompatible con el DAB europeo. Por otro lado, no es un estándard de radio digital abierto, sino que es un sistema patentado y propietario de Ibiquity Digital Corporation.

    El sistema IBOC, denominado comercialmente como HD Radio (High Definition Radio, Radio de Alta Definición) en Estados Unidos, establece (a diferencia del DAB) que cada programa de radio tenga su propio flujo digital y no lo comparta con otros programas. Es decir, no hay multiplexación de programas, esto es, un programa = un flujo digital = una frecuencia de transmisión, y supone una baja eficiencia del uso del espectro radioeléctrico.

    Esto permite que en una de las modalidades del IBOC se pueda integrar el flujo digital en el mismo canal de radio en el que se transmite el mismo programa en formato analógico (en modulación de AM o FM). Es decir, el mismo canal de radio es dividido en dos partes, una empleada para transmitir el programa mediante AM o FM comercial analógica, y la otra parte para transmitir el flujo digital IBOC para ese programa. Es lo que se llama radiodifusión en simulcast (transmisión simultánea de un mismo programa en dos formatos distintos, analogico y digital en este caso).

    Los canales de radio empleados son los de la banda de radiodifusión de la FM comercial (87,5-108 MHz) y de la AM (onda media, 530 kHz a 1710 kHz en América). Además, el flujo digital permite funciones adicionales, como por ejemplo el envío de flujos de datos adicionales.

    Por tanto, un receptor digital del sistema IBOC puede incluir perfectamente la recepción de la AM/FM convencional (analógica), por lo que está preparado para recibir tanto las emisiones analógicas como las digitales en la misma banda. Y para usuarios que no dispongan de receptores digitales, siempre podrán escuchar los diferentes programas a través de las transmisiones analógicas en AM/FM.

    IBOC contempla tres modalidades o modos de funcionamiento:

    En las transmisiones simulcast en banda de FM, el canal digital IBOC es transmitido en dos bandas laterales anexas al canal analógico, una a cada lado de éste, y cada banda lateral está modulada digitalmente mediante modulación multiportadora OFDM (Orthogonal Frecuency Division Multiplexing ; Multiplexado por división de frecuencias ortogonales), empleándose 10 subportadoras para ello en cada banda lateral.

    
          Banda lateral                                        Banda lateral
         digital inferior                                      digital superior
    
            ||||||||||                                           ||||||||||
            ||||||||||           Canal analógico de FM           ||||||||||
            ||||||||||     <------------------------------->     ||||||||||
          --+--------+-----+---------------+---------------+-----+--------+---
            :        :                     :                     :        :
       -192,408  -129,361                0 kHz                129,361   192,408
          kHz       kHz               (Portadora                 kHz      kHz
                                       del canal)
    
    

    El ancho de banda estandarizado del canal de radio analógico en FM es de 200 kHz en Norteamérica (en Europa es de 300 kHz), y las bandas laterales de la transmisión digital, añadidas a ambos lados del canal analógico, extienden el ancho de banda de la transmisión hasta casi los 400 kHz (ocupando, pues, dos canales de FM). La capacidad de transmisión digital puede alcanzar los 300 kpbs como máximo (la capacidad estándard de IBOC es de 60 kbps). Similarmente al DAB+ europeo, IBOC emplea un códec de audio basado en el estándard MPEG-4 HE-AAC.

    El mucho mayor ancho de banda del IBOC-FM respecto al IBOC-AM permitiría que se pudieran transmitir multiplexados varios programas en IBOC-FM. A pesar de que IBOC contempla sólo un programa por canal de radio, en junio de 2008 varios radiodifusores fueron autorizados temporalmente por la administración de Estados Unidos (por la FCC) para transmitir con carácter experimental programas multiplexados en IBOC-FM.

    Para las bandas de radiodifusión de AM (Onda Media), las transmisiones simulcast AM/IBOC también se realizan de una manera parecida a las transmisiones de FM, esto es, transmitiendo el programa digital en sendas bandas laterales anexas al canal analógico en AM, con modulación digital multiportadora OFDM. Sin embargo, para poder transmitir la información digital (que incluye el audio digitalizado y los bits ECC de detección y corrección de errores), se requiere un ancho de banda de canal superior a los 10 kHz requeridos por la transmisión AM analógica convencional (en América, región 2 de la ITU), en torno a los 40 kHz, tal como se muestra en la siguiente figura:

     

    Esquema de una transmisión HD Radio en un canal de radio de AM
    Esquema de una transmisión HD Radio en un canal de radio de AM.

     

    El ancho de banda de la transmisión analógica en AM es de 10 kHz (en América) ya que la señal moduladora de audio está limitada a 5 kHz. La señal OFDM se sitúa entre los 10 y 15 kHz a ambos lados de la frecuencia central del canal de radio (bloques OFDM primarios), con un “espacio de guarda” entre los 5 y 10 kHz para no perjudicar en los receptores de radio ordinarios al programa transmitido en analógico. Esto conduce a un ancho total del canal de radio de 30 kHz, a los cuales hay que añadir otros 5 kHz a cada lado del canal de radio (40 kHz en total) como “espacio de guarda” con los canales de radio vecinos. Por otro lado, la potencia de transmisión de la señal OFDM es bastante inferior a la del canal analógico en AM, para que la calidad sonora de éste no se vea afectada por interferencias de las señales digitales en los receptores analógicos.

    Si se emplea el 'Modo híbrido mejorado' del IBOC, se añaden nuevas subportadoras a la señal OFDM que forman un bloque secundario que ocupa el espacio de guarda de 5 kHz que separan ambos lados del canal analógico de los bloques primarios de la señal OFDM, y con una potencia de transmisión aún más baja que las del bloque primario, ya que el riesgo de interferencias con el programa analógico aumenta en los receptores añalógicos. Pero si se emplea el 'Modo totalmente digital', esto es, transmisión únicamente digital, sin programa analógico en AM, IBOC puede emplear todo el espacio reservado para la transmisión analógica y los espacios de guarda, utilizando nuevos grupos de subportadoras (secundarias y terciarias), tal como se ve en el esquema anterior. Además, al no existir el canal analógico al cual hay que proteger de las señales digitales, se puede aumentar notablemente la potencia de transmisión de las señales digitales.

    La modulación digital de las subportadores en IBOC-AM es la modulación 64-QAM (64 estados de modulación en cuadratura de fase o de fase-amplitud, por símbolos digitales de 6 bits). Pero además del flujo digital que transporta el audio digitalizado y los bits ECC (de corrección de errores), la transmisión añade unos bits que son utilizados en los receptores para el control de la señal digital frente a los desvanecimientos selectivos en frecuencia dentro del canal, desvanecimientos que suelen producirse en propagaciones a largas distancias en la banda de AM, mayormente en horas nocturnas. Estos bits de control se transmiten en ambos lados del canal de radio, en sendas subportadoras a 182 Hz de los bloques primarios de subportadoras, con modulación BPSK (PSK binario, o 2-PSK, modulación PSK de un solo bit), muy robusta pero de velocidad de transmisión lenta. Un desvanecimiento selectivo en frecuencia será detectado en los equipos receptores por errores o la pérdida de una de estas subportadoras de control.

    IBOC (HD Radio) además del programa de audio, permite transmitir algunos datos adicionales junto con el audio digitalizado, que en el caso del simulcast en AM están muy limitados debido al mucho menor ancho de un canal de IBOC-AM respecto a uno de IBOC-FM. IBOC soporta los siguientes servicios:

    IBOC (HD Radio) proporciona una elevada calidad de audio, tanto si es monofónico (en el modo híbrido ordinario) como si es estereofónico, y marcadamente libre de ruido y estática y menos susceptible a interferencias por otras estaciones distantes, lo que en las bandas de AM es una gran ventaja respecto a las transmisiones analógicas (que son de sonido monofónico, limitado a 5 kHz y susceptible a las interferencias por ruidos, estáticas y otras estaciones distantes). Para la compresión y codificación digital del sonido, IBOC emplea dos códecs de audio bastante eficientes:

     

    Finalmente, las comparaciones realizadas en laboratorio por entidades norteamericanas como la CEA (Consumer Electronics Association) entre el sistema DAB/DAB+ europeo y el IBOC norteamericano, demuestran que el DAB es claramente superior al IBOC (al menos en el laboratorio), pero la National Association of Broadcasters (Asociación Nacional de Radiodifusores) se sigue oponiendo a la adopción del DAB/DAB+ en Estados Unidos, manteniendo al sistema IBOC como sistema nacional de radio digital en bandas de VHF (y de AM). Esta oposición se basa principalmente en la falta espectro radioeléctrico para el sistema DAB, la desgana de tener que compartir los multiplex entre varios operadores y la preocupación porque el DAB puede introducir más competencia entre radiodifusoras (ya que permite un mayor número de radiodifusoras). El sistema IBOC usa el mismo espectro de radio que las estaciones de FM (no requiere espectro nuevo, que sí es requerido por DAB, que utiliza la banda VHF-III, y que en Norteamérica está ocupada para otros usos), y no multiplexa programas (no se ha de compartir en cada transmisión el mismo canal de radio por distintos operadores de radio), además de permitir el simulcast al poder compatibilizar en el mismo canal de radio el mismo programa en transmisión analógica (FM) y en transmisión digital (IBOC).

     

    Volver al índice

     

    05- DIGITAL RADIO MONDIALE (DRM)

     

    05.1- GENERALIDADES

    Digital Radio Mondiale (DRM, Radio Digital Mundial) es otro estándard de radio digital terrestre que fue diseñado para trabajar en las bandas de radiodifusión utilizadas actualmente para la radiodifusión analógica en AM (especialmente la onda corta), y posteriormente ampliado a la banda de FM. Su desarrollo inicial tenía la premisa de que las radiodifusoras de AM existentes pudieran reutilizar sus transmisores analógicos y los equipos asociados (antenas, alimentadores, amplificadores de potencia...) sin requerir importantes modificaciones, evitando tener que realizar importantes inversiones en equipos nuevos.

    Este estándard de radio digital comenzó a ser desarrollado a finales de 1998 por el Consorcio DRM, un consorcio sin ánimo de lucro fundado en marzo de ese año en Guangzhou (cerca de Pekin, China), constituido por unos 20 importantes entes de radiodifusión nacionales e internacionales (Radio France Internationale, TéléDiffusion de France TDF, Voice of America, Servicio Mundial de la BBC, Deutsche Welle y Radio Netherlands), fabricantes de equipos transmisores (Thales, Telefunken y Harris) y de equipos receptores de radio (Sony, Sangean...).

    Logo oficial del consorcio DRM
    Logo oficial del consorcio DRM.

    DRM fue adoptado por la ITU (Unión Internacional de Telecomunicaciones) en enero de 2001 como estándard digital para las bandas de radiodifusión de Onda Corta (en principio), comenzando las primeras transmisiones experimentales en onda corta en este sistema digital a finales de 2002. Posteriormente la ITU lo recomendó para todas las bandas de radiodifusión en AM (onda corta y media).

    DRM es un estándard de radiodifusión digital abierto, aprobado por la ITU, y su validez se refleja en el hecho de que incluso fue aceptado por Estados Unidos (aunque sólo para radiodifusión en bandas de onda corta), país que no aceptó el DAB y creó e implementó su propio estándard de radiodifusión digital, el IBOC. Esto convierte al DRM en un estándard verdaderamente internacional.

    Durante el desarrollo de este estándard se encontraron importantes problemas para su aplicación en las bandas de onda corta, debido a que las variaciones de la propagación de las ondas en la ionósfera, que conducen a distorsiones de las señales por propagación multitrayecto, efecto Doppler (leves variaciones de la frecuencia de la señal), así como las interferencias por otras estaciones de radio, el ruido en estas bandas y el fading, pueden provocar elevadas tasas de errores de bits, tasas de errores que son muy bajos en las bandas de onda media y onda larga. De hecho, uno de los requisitos más importantes del desarrollo del estándard DRM es que ha de ser un sistema robusto frente a las distorsiones que provocan las mencionadas condiciones adversas. De hecho, se desarrollaron varias modalidades de DRM aptas para distintas condiciones de propagación de las señales.

    El sistema DRM proporciona una calidad de sonido de FM convencional, pero en monofonía, y limpia de interferencias que pueden provocar otras emisoras que transmitan en el mismo canal de radio (que en AM se oirían de fondo junto a la emisora considerada), aunque a partir de cierta degradación de la señal de radio, que ocasione una elevada tasa de errores de bits, la señal DRM ya no puede ser usada. Esto último es algo típico de los sistemas de comunicación digitales: El sonido se reproduce bien mientras la tasa de errores de bits de la señal no supere un valor umbral, superado éste, el sonido se degrada rápidamente y se corta la reproducción. Es lo que anteriormente se ha comentado de que la radio digital se oye sin ruidos, o no se oye. Con todo, DRM resulta ser robusto frente al ruido, desvanecimiento u otras formas e interferencias en todas las bandas de radio de AM.

    En el año 2005 el Consorcio DRM llegó a un acuerdo para que el sistema DRM fuera extendido para las bandas de radiodifusión hasta los 108 MHz (bandas de VHF) ampliando el estándard DRM, lo que posibilitaba que pudiera operar en las actuales bandas de radiodifusión analógica de FM, siendo una alternativa al DAB europeo y al IBOC norteamericano. Este estándard ampliado se ha denominado DRM plus (DRM+). De hecho en 2007 se aprobaron las bandas de radio donde DRM+ puede operar, y que son las distintas bandas de radiodifusión FM existentes en el mundo, así como la antigua banda VHF-I de televisión, es decir:

    DRM+ fue aprobado por el ETSI (European Telecommunications Standards Institute) en 2009 para su uso entre 30 MHz a 174 MHz. Con la estandarización del DRM+, para diferenciar las distintas modalidades de DRM, a las modalidades digitales de DRM para las bandas de onda corta e inferiores (modos A, B, C y D) se las conoce más correctamente como DMR30, ya que se refiere al DRM original para frecuencias inferiores a 30 MHz (donde están las bandas de radiodifusión de AM).

     

    Volver al índice

     

    05.2- ASPECTOS TÉCNICOS GENERALES

    Básicamente, la norma DRM30 (DRM original) establece un flujo digital con un ancho de banda de 9 ó 10 kHz (según la región mundial de la ITU), y que está compuesta por docenas de portadoras relativamente estrechas y próximas, que usan un elaborado sistema de modulación multiportadora OFDM para transmitir el flujo digital (banda base), repartiéndolo entre estas subportadoras y evitando interferencias entre ellas.

    La modulación de estas subportadoras de radio se realiza mediante modulación QAM (Modulación de Amplitud en Cuadratura), siendo el esquema de modulación principal de las portadoras el 64-QAM (esquema que proporciona 64 estados de modulación en cuadratura de fase o de fase-amplitud, mediante símbolos digitales de 6 bits), pero también está disponible el esquema 16-QAM (16 estados de modulación, por símbolos digitales de 4 bits). 16-QAM es más resistente que el 64-QAM a las interferencias y condiciones de propagación desfavorables, pero proporciona una menor velocidad de modulación digital, por lo que sólo puede transmitir flujos digitales de menor velocidad digital (bit-rate), y por tanto, los programas transmitidos deberán tener una menor calidad sonora.

    Es muy importante que tanto transmisores como equipos receptores de DRM utilicen circuitos osciladores (osciladores del transmisor, osciladores de heterodinaje en los receptores...) sean muy estables de fase, ya que al usar las modulaciones QAM (sobre múltiples subportadoras) en las que hay definidos varios estados lógicos por valores de desplazamiento de fase (y de amplitud), los ruidos y variaciones de fase en las señales generadas por los osciladores degradarán la calidad de las señales DRM, provocando muchos errores de descodificación. Ello hace que los osciladores convencionales y controlados a PLL no sean los más adecuados, salvo que estén bien calculados.

    Inicialmente las transmisiones DRM usaron un flujo digital de 24 kbits/s. Actualmente se emplean flujos de entre 6,1 kbits/s y los 38,4 kbits/s, dentro de un ancho de banda analógico de 10 kHz, típico de un canal de radio de AM analógico. Con los flujos de menor velocidad se puede percibir una cierta pérdida de calidad de la señal de fonía. También el estándard DRM contempla alguna modalidad para transmitir en canales de radio de 20 kHz de ancho de banda, con una capacidad de transmisión digital de hasta 72 kbps de contenido útil.

    El flujo digital de banda base transporta multiplexados tanto el programa de voz digitalizado (voz, música), así como otras informaciones digitalizadas asociadas (datos), como son informaciones de control para el receptor (esquema de descodificación a emplear en cada momento, según el modo DRM empleado), datos sobre el contenido del programa (programación actual, próximo programa, título de canción e intérprete, etc...), que pueden ser mostrados en una pequeña pantalla del receptor. Y por supuesto, los bits de ECC (para el control y corrección de errores).

    Incluso el DRM está pensado para transmitir multiplexados en el mismo flujo digital hasta 4 programas de audio diferentes de menor calidad (programas de voz, no musicales, o musicales de menor calidad), cada uno de ellos con sus propios canales de datos de información adicional, cuyas informaciones pueden estar referidas al propio programa de audio o ser independientes. Todo ello dentro del ancho de banda de 10 kHz de un canal de radio, o bien de 20 kHz, según la modalidad de DRM, y con una capacidad de transmisión digital de hasta 38,4 kbps y 72 kbps de contenido útil respectivamente. Esto implica una buena eficiencia del espectro radioeléctrico, ya que en DRM se pueden transmitir más programas en un único canal de radio o frecuencia, que en caso de transmisiones analógicas en AM requerirían cada uno de ellos un canal de radio de 10 kHz.

    El tamaño del flujo digital final (de banda base) dependerá de la capacidad de los canales de audio transmitidos (sus bits-rate, que dependerán de la calidad del audio digitalizado) y del modo de transmisión empleado, y la información digital se transmite con códigos añadidos de detección y corrección de errores (ECC), y con un entremezclado ordenado de los bits (siguiendo un determinado esquema) denominado interleaving, que se utiliza para aumentar la capacidad de los equipos descodificadores de los receptores de corregir los errores en la señal recibida producidos por los parásitos, interferencias y otros efectos sobre la señal transmitida. El interleaving, pues, se emplea en las transmisiones digitales para hacerlas más resistentes al ruido y las interferencias que empleando únicamente los bits de ECC.

    Los datos auxiliares que se pueden transmitir en cada programa de audio, destinados a ser mostrados en la pantalla que deberán disponer los receptores, son contenidos multimedia adicionales, como pueden ser:

     

    Igual que el DAB/DAB+ europeo, los esquemas de codificación y modulación de las señales digitales y de la portadora de radio empleados permiten recibir una excelente calidad de audio con niveles de señal reducidos, lo que permite reducir la potencia de transmisión para cubrir la misma área de cobertura que una transmisión analógica en AM, reducciones de potencia que suelen estar entre el 40% y el 80% respecto a la potencia requerida por un sistema de transmisión analógico de AM equivalente, lo que supone una mayor eficiencia energética y una importante reducción en el consumo eléctrico de los transmisores.

    Así, en India, que a partir de 2012 comenzó a implementar el sistema DRM para digitalizar la onda media, se pudo comprobar que mientras un transmisor de 100 kW de onda media en AM puede cubrir un área de 235.000 km2, prácticamente ese mismo área de cobertura es cubierta también por un transmisor de onda media en DRM de 50 kW. Pero además, el transmisor DRM podía transmitir hasta tres programas digitales y un canal de datos, todo en excelente calidad de audio, mientras que la transmisión analógica en AM sólo permite un programa de audio.

    DRM permite el funcionamiento de emisoras en red, con diferentes configuraciones que van desde simplemente un único transmisor con un único programa (equivalente digital de una emisora de AM), hasta varios transmisores transmitiendo los mismos programas (hasta 4 programas) operando sincronizadamente en red de frecuencia única (SFN, Single-Frequency Network) o en red con varias frecuencias (MFN, Multi-Frequency Network).

    Por las condiciones más estables de propagación, las redes sincronizadas de frecuencia única son más apropiadas para las bandas de onda media y onda larga, de manera que una gran zona geográfica es cubierta por una misma cadena de emisoras de radio que trabajan en la misma frecuencia, similar a cómo se comentó en el sistema DAB.

    También está disponible la operación en simulcast, donde el transmisor puede transmitir al mismo tiempo el mismo programa en modulación analógica AM y en modulación digital DRM. Pero a diferencia del IBOC (HD Radio) norteamericano, la transmisión digital DRM se debe realizar en uno de los dos canales adyacentes al canal de radio de la transmisión analógica (AM), no se puede realizar dentro del mismo canal de radio del programa analógico. No obstante, la ideal del simulcast en DRM actualmente ha sido abandonada.

    En cuanto a la digitalización del sonido, DRM emplea la codificación MPEG-4, utilizando actualmente los códecs HE-AAC y xHE-AAC, los cuales permiten comprimir sonido digitalizado de alta calidad con bajos bit-rates.

    En cuanto al DRM+ (la versión de DRM para frecuencias de VHF), el flujo digital ocupa un ancho de banda analógico de hasta 96 kHz, que es transmitido en canal de radio de 100 kHz (la mitad de un canal de radio de FM en América, o un tercio en el caso de Europa). DRM+ emplea los mismos códecs de audio (MPEG-4 HE-AAC y xHE-AAC), el mismo esquema de multiplexación y señalización que DRM30 para construir el flujo digital de banda base, el cual tiene velocidades de transmisión digital (bit-rates) de 37 a 186 kbps, emplea el mismo diseño de modulación multiportadora OFDM, aunque con parámetros añadidos, pero ocupando un ancho de banda analógico de 96 kHz. Gracias a este elevado ancho de banda, DRM+ permite transportar multiplexados hasta 4 programas de audio digitalizados de calidad, e incluso un canal de vídeo digital de baja definición. DRM+ permite audio de calidad DVD con sonido monofónico, estéreo o surround 5.1, así como la transmisión de otros contenidos multimedia, como son imágenes, vídeo de pequeña definición, contenidos HTML, entre otros.

    DRM+ tiene capacidad para transmitir un canal de televisión de baja resolución con un bitrate de hasta 0,7 megabit/s, para su reproducción en pantallas de pequeño tamaño (táblets, dispositivos móviles, etc...), pero la estandarizacion de DRM+ sólo permite bitrates de 37,2 a 186,3 kbit/s.

    Actualmente un mismo transmisor de DRM+ en la banda de radio de FM puede soportar hasta 18 servicios de audio y 6 servicios de datos, lo que en términos energéticos implica ahorros de energía de incluso el 90%. Gran parte de este ahorro energético se debe al empleo de un único transmisor de radio en lugar de los varios que se necesitarían para transmitir los mismos servicios de audio mediante transmisión analógica en FM convencional (un transmisor por programa).

     

    CANALES EMPLEADOS

    Las distintas informaciones transmitidas en un flujo digital DRM se transmiten en tres canales de datos multiplexados:

    Cuando un receptor DRM sintoniza una señal DRM (al poner en marcha el receptor o durante un escaneo), debe buscar y analizar en primer lugar la información del canal FAC, que se transmite de forma continua y repetitiva, para conocer rápidamente todos los servicios transportados en el múltiplex DRM. Después deberá analizar el contenido del canal SDC, que también se transmite de forma continua y repetitiva, para conocer el procedimiento de descodificación a emplear para conocer y acceder a los servicios transportados en el canal principal MSC.

     

    ANCHOS DE BANDA Y SIMULCAST

    Una transmisión básica en DRM30 en onda corta (canales de radio de 10 kHz) tiene un ancho de banda de 10 kHz (±5 kHz alrededor del centro del canal de radio), donde el flujo digital tiene unas velocidades digitales (o bit-rates) que van desde los 6,1 kbps (en el modo D) a 34,8 kbit/s (en el Modo A). Utilizando un canal de radio de 20 kHz (±10 kHz), el flujo digital puede alcanzar velocidades de hasta 72 kbps (Modo A).

    Los distintos bit-rates son consecuencia del uso de varios modos del DRM, en los cuales la tasa de bits útiles transportados en el flujo digital, además de la calidad de audio de los programas, depende de otros parámetros tales como el esquema de modulación empleado (16-QAM, 64-QAM) y la robustez deseada frente a errores (inclusión de bits de corrección de errores) provocados por las condiciones de propagación, ruidos e interferencias.

    Cada modo del DRM30 está pensado para determinadas características de la transmisión en función de las condiciones de propagación, y en una transmisión DRM puede ser cambiado el modo en función de la variación de las condiciones de propagación existentes. Los receptores DRM deben adaptarse inmediatamente a estos cambios. De hecho, en el flujo digital se informa del esquema de descodificación a emplear en cada momento (se informa en el canal SDC).

    El sistema DRM30 está pensado para ser compatible con las canalizaciones existentes en las bandas de AM en onda corta, media y larga, y con la tecnología de transmisión actual. Es decir, las señales digitales DRM30 se transmiten en los mismos canales de radio que las modulaciones analógicas de AM, también en canales de 20 kHz), pudiéndose usar para ello transmisores modernos de AM, pero con ciertas características especiales. Esto permite la coexistencia de las transmisiones DRM con las transmisiones de AM y SSB en las bandas de Onda Corta e inferiores, usando los anchos de canal normalizados.

    Los anchos de banda normalizados para la radioadifusión en las bandas de AM (por debajo de 30 MHz) dependen de la región mundial ITU. La ITU (Unión Internacional de Telecomunicaciones) establece 3 regiones mundiales, donde la región 1 corresponde a Europa, África y parte de Asia, la región 2 a todo el continente americano (y algo de Oceanía), y la región 3 al resto del múndo (parte de Asia, Australia y Oceanía). Según esto, las canalizaciones de radio establecidas son de 10 y 20 kHz para las ondas cortas o HF en todo el mundo, y para las ondas medias y largas es de 9 y 18 kHz en la región 1, y 10 y 20 kHz en la región 2.

    Teniendo en cuenta esto, los anchos de banda de las transmisiones DRM establecidas son las siguientes:

    Dado que DRM fue pensado con la premisa de poder utilizar los mismos transmisores empleados para las transmisiones analógicas de AM, también estableció la posibilidad del “Simulcast”, opción que permite a una estación emisora transmitir simultáneamente el mismo programa tanto con modulación convencional analógica (de AM o SSB) y con modulación digital DRM, usando el mismo transmisor y en el mismo canal de radio. Para ello se usan las transmisiones de DRM de 4,5 kHz / 5 kHz de ancho de banda. En el simulcast lo que se hace es que en la transmisión analógica en AM se suprime la banda lateral superior de la transmisión, y en el espacio dejado por ésta (la mitad superior del canal de radio) es empleado para transmitir la señal DRM.

    La señal de AM sin una de las dos bandas laterales sigue pudiendo ser recibida sin problemas por un receptor ordinario de AM, pero puede verse ensuciada por la presencia de la señal DRM en el mismo canal de radio, por lo que la señal DRM debe ser emitida con un nivel de unos 18 dB por debajo del nivel de la señal analógica de AM para provocar el mínimo ruido posible sobre la señal de AM y su efecto sea inapreciable por los oyentes en la mayoría de receptores de AM que usa el público en general. Además, las transmisiones han de ser lo suficientemente compactas como para no provocar ruidos sobre canales de radio vecinos. De hecho, la UIT estableció claramente cuáles son las condiciones técnicas estipuladas para las señales de DRM para que no interfieran a las señales analógicas en transmisiones simulcast.

    En el modo simulcast la señal DRM proporciona un flujo digital de entre 7,1 y 16,7 kbps para un ancho de banda de 5 kHz, lo que no permite transmitir audio digitalizado de calidad. La calidad es un tanto pobre, más apropiada para la voz que para la música, por lo que el simulcast está pensado principalmente para ser usado en la onda corta, donde los programas transmitidos suelen ser predominantemente de voz y no de música. De todas maneras la idea de las transmisiones Simulcast ya ha sido abandonada, y en su lugar se han reservado un cierto número de bandas de frecuencias en Onda Corta para la transmisiones DRM sólo digitales. Y con el tiempo se puede pensar que las emisiones analógicas serán suprimidas y sólo se empleará el sistema DRM30 puro en las actuales bandas de radiodifusión de AM.

     

    MODOS DE DRM Y CÓDIGOS DE CORRECCIÓN DE ERRORES

    Existen diversos modos en DRM, pensados para las distintas características de propagación que se van a encontrar las señales transmitidas. Los principales eventos perjudiciales de la propagación que pueden encontrarse las señales transmitidas, sobre todo en ondas cortas, son el ruido, las interferencias por otras estaciones, la propagación multitrayecto, el fading y el efecto Doppler.

    Cada modo ajusta algunos de los parámetros de las transmisiones para que, junto con los códigos de corrección de errores seleccionado, el modo sea robusto frente a determinadas condiciones de propagación. Para cada modo se puede elegir entre varios esquemas de códigos de corrección de errores y patrones de modulación de las portadoras (64-QAM, 16-QAM, e incluso 4-QAM). Algunos parámetros de la modulación multiportadora OFDM se deberán ajustar según los eventos perjudiciales de la propagación: El espaciado o separación entre portadoras determinará la robustez frente al efecto Doppler (pequeños cambios de frecuencia de las señales debidos a cambios en la propagación). El intervalo de guardia en la transmisión de símbolos determinará la robustez frente a la propagación multitrayecto, y también es importante a la hora de crear una red de frecuencia única, etc....

    Por ello, el Consorcio DRM creó inicialmente 4 perfiles o modos diferentes de DRM, que son los más adecuados a diferentes condiciones típicas de propagación, son los modos A, B, C y D, y están pensados para el DRM original, esto es, el DRM30 (DRM en bandas bajas, por debajo de 30 MHz). A estos hay que añadir el modo E, que es el correspondiente al DRM+ (DRM en VHF).

    Estos modos son los siguientes:

    Así, el modo B está pensado para transmisiones con fading selectivo medio, mientras que el modo A está pensado para transmisiones de AM locales (sin fading). Los distintos modos se caracterizan por la cantidad de información transmitida y los mecanismos de protección de ésta frente a los eventos de propagación: El modo A no requiere demasiada información de protección y por ello puede transmitir bastante información útil (de programa), mientras que la modalidad B transmite más información de protección, en detrimento de la cantidad de información de programa transmitida (menor).

    La modalidad puede cambiarse en cualquier momento, pues, por ejemplo, una emisora de DRM en onda media puede transmitir sin problemas en el modo A en horas diurnas, mientras que por la noche puede cambiar al modo B al aparecer la propagación a largas distancias en la onda media y puede ser fácilmente susceptible de sufrir interferencias por emisoras distantes de la misma frecuencia en zonas de su área de cobertura normal. Y aunque cambie el modo que emplea una emisora, el receptor DRM se adapta automáticamente a los cambios de modo, por lo que el oyente no tiene que hacer nada en este sentido (los parámetros técnicos de la señal transmitida son informados en el canal SDC del flujo digital DRM).

    La siguiente tabla resume la características de los modos definidos en DRM (para los distintos anchos de banda de las transmisiones):

     

    DRM30
    Modo Separación entre
    portadoras OFDM (Hz)
    Número de portadoras Longitud de
    símbolo (ms)
    Longitud de
    intervalo de guarda (ms)
    Número de símbolos
    por trama
    9 kHz 10 kHz 18 kHz 20 kHz
    A 41,66 204 228 412 460 26,66 2,66 15
    B 46,88 182 206 366 410 26,66 5,33 15
    C 68,18 --- 138 --- 280 20,00 5,33 20
    D 107,14 --- 88 --- 178 16,66 7,33 24

     

    DRM+ (ancho: 100 kHz)
    Modo Modulación de
    las portadoras
    Nivel de
    robustez
    Bitrates
    (kbit/s)
    E 4-QAM Máximo 37,2
    Mínimo 74,5
    16-QAM Máximo 99,4
    Mínimo 186,3

     

    En el caso del DRM+ (modo E), aunque el ancho de canal es de 100 kHz y puede permitir la transmisión de un canal de televisión de baja resolución con un bitrate de hasta 0,7 megabit/s, el estándard sólo permite bitrates de 37,2 a 186,3 kbit/s, dependiendo de la robustez aplicada a la transmisión y del esquema de modulación de las portadoras.

    En DRM también hay definidos varios esquemas de codificación de corrección de errores (ECC) para hacer más o menos robusta las transmisiones DRM. Las transmisiones más robustas utilizan códigos de corrección de errores que requieren más bits, lo que implica menor información útil (de programa) transmitible.

    La siguiente tabla muestra los diversos perfiles de protección ECC, indicando los bitrates de información útil transmitida según el modo, ancho de canal y modulación de portadoras. El perfil 0 es el de mayor protección ECC y el 4 el de menor protección:

     

    Bitrates útiles (kbit/s)
    Clase de
    protección
    A
    (9 kHz)
    B
    (9 kHz)
    B
    (10 kHz)
    C
    (10 kHz)
    D
    (10 kHz)
    64-QAM 16-QAM 16-QAM 64-QAM 16-QAM 64-QAM 16-QAM 64-QAM
    0 19,6 7,6 8,7 17,4 6,8 13,7 4,5 9,1
    1 23,5 10,2 11,6 20,9 9,1 16,4 6,0 10,9
    2 27,8 -- -- 24,7 -- 19,4 -- 12,9
    3 30,8 -- -- 27,4 -- 21,5 -- 14,3

     

    COMPRESIONES DE SONIDO EMPLEADAS: AAC Plus (MPEG-4)

    El sistema DRM utiliza para la codificación y compresión digital del sonido la Codificación de Audio Avanzada (AAC, Advandced Audio Coding), técnica de codificación desarrollada por Coding Technologies y que sigue las normas de compresion de audio digital MPEG-4. La tecnología de compresión AAC es superior a las compresiones MPEG-1 Layer 2 o MP2 (usada en el estándard DAB original) y la muy difundida MPEG-1 Layer 3 o MP3.

    La tecnología AAC ofrece una calidad y compresión de audio superior al popular fomato de audio comprimido MP3, y está pensada especialmente para el uso de tramas de datos de baja velocidad de transmisión, que es lo demandado por los sistemas de transmisión de estrecho ancho de banda sobre onda corta. Comparado con la compresión MP2 usada en el sistema DAB, 128 kbps de flujo de sonido comprimido MP2 en DAB corresponderían a 64 kbps con la compresión AAC.

    Cuando se desarrolló el DRM original (actual DRM30), se comprobó pronto que los modos más robustos de DRM eran insuficientes para soportar el entonces muy avanzado códec de compresión de audio MPEG-4 HE-AAC (codificación avanzada de audio de alta eficiencia). Por lo tanto, el estándar DRM se lanzó con tres sistemas diferentes de codificación de audio opcionales, dependiendo de la tasa de bits del audio codificado, y con ello, de la tasa de bits del flujo digital final:

    Con la aparición de un nuevo códec de compresión AAC, el códec xHE-AAC, también conocido como AAC Plus (AAC+) o HE-AAC v2 (versión 2 del HE-AAC), de características más avanzadas que el AAC original, se actualizó el estándard DRM, aceptándose este nuevo códec y se abandonaron los códecs CELP y HVXC (que apenas fueron utilizados). No obstante el códec HE-AAC sigue vigente, ya que ofrece una calidad de audio bastante aceptable (comparable a la emisión de FM para audio digitalizado con bit-rates superiores a los 15 kbps), pero es de esperar que en el futuro la mayoría de los organismos de radiodifusión adopten el códec xHE-AAC, ya que es un códec de compresión MPEG-4 muy adecuado para las transmisiones en bandas de onda corta, en las que predominantemente se transmite voz y ocasionalmente música. Es un códec de audio ultraeficiente que proporciona incluso con bit-rates muy bajos del audio digital comprimido una calidad de audio excepcional para voz, y también para la música.

    Los códecs HE-AAC (versiones 1 y 2) utilizan un algoritmo de compresión muy eficiente basado en la denominada “Modified Discrete Cosine Transform” (MDCT, Transformada discreta de coseno modificada), compresión que sigue los estándares de codificación MPEG-4. Pero además incluyen la técnica de extensión de anchura de banda espectral SBR (Spectral Band Replication), cuyo algoritmo también fue desarrollado por la firma sueca Coding Technologies, y que está basado en el uso de los dispositivos DSP (Procesadores digitales de señales). HE-AAC muestrea el sonido a frecuencias de muestreo de 24 kHz o 12 kHz si no se emplea SBR, o a 48 kHz y 24 kHz si se hace uso de SBR.

    La tecnología SBR (Spectral Band Replication, Replicación de Banda Espectral) se emplea para para conseguir mejorar y aumentar más el ancho de banda de audio de forma un tanto artificial, lo que mejora la calidad del sonido, para hacerla parecida a la calidad de una emisión de FM convencional. Técnicamente, lo que hace esta tecnología es que el códec HE-AAC sólo comprima el audio hasta los 6 kHz, y en reproducción (en los equipos receptores), las frecuencias de audio superiores a 6 kHz son generadas artificialmente por síntesis de armónicos. Con ello en la reproducción del sonido comprimido se amplía ficticiamente el ancho de banda de audio desde los 6 kHz hasta los 15 kHz. Con ello se consigue flujos de audio comprimido más reducidos, ya que no se comprime el audio a partir de los 6 kHz.

    La tecnología SBR se fundamenta en el hecho de que a las frecuencias más altas de las señales de audio (por encima de los 6 kHz) el sonido se asemeja mucho al ruido blanco (tipo soplido), cuyo comportamiento espectral es conocido, y por ello no es necesario comprimir y transmitir estas frecuencias. Lo que hace el códec es codificar el nivel y duración de esos instantes de aparente “ruido blanco” e incluirlo en el flujo de audio comprimido. Así, en el equipo reproductor (en los receptores DRM), el descompresor ha de incluir un generador de ruido blanco, para que se añada ese ruido al audio descomprimido (0-6 kHz) en los instantes correspondientes. Con eso se consigue ampliar artificialmente el ancho de banda del audio reproducido por encima de los 6 kHz, incluso más amplio que el ancho de banda del audio original, e incluso con más calidad (para el oído) que el audio original.

     

    Volver al índice

     

    05.3- DESCODIFICADORES Y RECEPTORES DRM

    Al ser DMR un modo digital, evidentemente la recepción de estas emisiones resultan más complejas que las realizadas comunmente en modulación de amplitud. Hay dos opciones para recibir y decodificar las transmisiones DRM: Mediante el uso de un receptor que incorpore ya esta modalidad digital (receptor “standalone”), o mediante el uso de un ordenador conectado al receptor y el software decodificador correspondiente.

    A fecha de 2019 hay pocos receptores que incluyan la decodificación de DRM30, son receptores que han de incluir algún chip dedicado para la decodificación DRM, o algún chip multimodo (que permita la recepción y decodificación tanto de transmisiones analógicas como digitales), por lo que el sistema más empleado actualmente para la recepción y decodificación de transmisiones DRM30 es mediante la utilización de un ordenador personal (típicamente un PC) con el software decodificador adecuado, conectado a un receptor de radio. Sólo en India, que ha apostado firmemente por el DRM30 en las bandas de AM, se han desarrollado varios modelos de receptores con capacidades de DRM, habiendo en 2019 casi 2 millones de automóviles nuevos equipados con receptores DRM sin costo alguno para los compradores.

    Las transmisiones digitales DRM30 de 10 kHz de ancho de banda requieren que los receptores dispongan de una FI (Frecuencia Intermedia) de unos 12 kHz de ancho de banda máximo (para que las señales DRM de 10 kHz pase sin problemas), y ello es incompatible con muchos receptores actuales de radiodifusión de onda corta de gama media-alta (que son más selectivos y por tanto con una FI más estrecha). Con estos receptores se recomienda que la señal DRM sea tomada a partir de las etapas de FI del receptor en lugar de la etapa de baja frecuencia o de la salida del detector, y sea llevada por el medio más adecuado al ordenador o PC, para que la demodule y decodifique con el software adecuado y la reproduzca en los altavoces del PC.

    En 2002 se lanzó un software de estas características, el “DRM Software Project”, que permite descodificar las señales DRM en un ordenador PC Pentium de 500 MHz o superior, dotado de tarjeta de sonido SoundBlaster de 16 bits (o compatible) y con sistemas operativo Windows 98 o superior (eran los requisitos informáticos de aquellos años). Se requería un receptor de bandas de AM que se pudiera modificar añadiendo un circuito extra que reduzca la frecuencia intermedia (FI) del receptor (típicamente de 455 kHz o 10,7 MHz) a una FI extra de 12 kHz de banda base (6-18 kHz), y por tanto en el rango de las frecuencias de audio. Esta señal es llevada a una de las entradas de audio de la tarjeta de sonido (la entrada de micrófono,o la entrada Line-in). A partir de allí, el trabajo de decodificación de la señal DRM lo realizará el software decodificador de DRM que previamente habrá sido instalado en el ordenador personal.

    Esta FI extra de 12 kHz se consigue tomando la señal de FI de 455 kHz del receptor y llevándola a un sencillo circuito mezclador, que combine la FI de 455 kHz (típica de la mayoría de receptores de onda corta), con una frecuencia de batido de 467 kHz muy estable, generada por un oscilador de cristal o un oscilador controlado digitalmente. El producto de mezcla de señales es, por diferencia de frecuencias, la FI de 12 kHz.

    También se requiere que el ancho de banda de la FI de 455 kHz del receptor empleado sea de al menos 10 kHz, lo que es un problema, ya que muchos receptores de onda corta tienen anchos de banda eficaces en torno a los 6 kHz (para reducir las interferencias por transmisiones en canales de radio adyacentes), e impedirían el paso completo de las señales DRM por su FI. Esto puede lograrse desintonizando algo las distintas etapas de FI para conseguir un mayor ancho de banda de toda la cadena de FI del receptor. También, sin desintonizar las etapas de FI, se puede tomar la señal de FI de 455 kHz de la primera etapa de FI del receptor, donde la FI de 455 kHz está presente (aunque con un nivel de señal bajo) y con mayor ancho de banda (las siguientes etapas de FI del receptor son las que amplifican y estrechan el ancho de banda de la FI).

     

    Fundamento de la recepción de DRM con un receptor comercial y un ordenador
    Fundamento de la recepción de DRM con un receptor de radio comercial y un ordenador con el software descodificador para DRM.

     

    La opción actual más empleada para la recepción de las transmisiones DRM es mediante el empleo de los denominados receptores SDR (Software Defined Radio, Radio definida por software), una nueva tecnología de receptores de radio surgida a principios de la década del 2000, que básicamente lo que hace es que gran parte de los componentes de un receptor de radio tradicional son emuladas mediante software. Básicamente un receptor SDR consta de una “etapa frontal” para la recepción de señales de radio (es decir, circuito de antena y sintonización), un mezclador con una frecuencia generada localmente para generar una FI baja, un digitalizador de las señales recibidas (a nivel de esta FI), y un sistema lógico que maneje estas señales digitalizadas. Típicamente el sistema lógico puede ser un ordenador personal (PC), al cual se conecta la etapa frontal bien a través de alguna entrada de la tarjeta de sonido si la FI es muy baja (como en el caso del DRM Software Project mencionado anteriormente), o a través de conexón USB. En receptores SDR más modernos, se incorpora en el propio receptor toda la lógica SDR, por lo que no necesitan de un PC externo para esta función.

    El software SDR se encarga de emular digitalmente los demás componentes de un receptor convencional: diversos filtros de señal (cuyas características se pueden ajustar desde el propio software), demodulación de señales (AM, FM, SSB, Telegrafía, DRM, DAB, etc...), presentación en pantalla de dial de sintonía y espectros de las señales recibidas, etc..., entregando la señal de audio demodulada a la tarjeta de sonido (o amplificador de baja frecuencia en el caso de un receptor SDR completo) para su reproducción en los altavoces. Para nuestro caso, es necesario que el software SDR soporte la demodulación de transmisiones DRM.

    Mención especial a este respecto son los denominados receptores RTL-SDR, un tipo de receptor SDR muy sencillo y muy barato que se entrega en un dispositivo similar a una memoria USB (que incluye una toma de antena), conocido como “dongle USB”. Se demoninan RTL-SDR porque equipan el chipset RTL2832U (o equivalentes) de la firma Realtek Corporation. Estos dongles, que se conectan a un puerto USB del ordenador, surgieron desde finales de la década de 2000 para la recepción de la televisión digital terreste (TDT o DBV-T) en ordenadores personales, ya que sintonizan y digitalizan las señales TDT recibidas y las transfiere al ordenador a través de la conexión USB, para su demodulación mediante el software adecuado y su visualización en pantalla. Algunos dongles TDT también permitían la recepción y demodulación de las transmisiones de la radio comercial analógica de FM y de radio digital DAB/DAB+.

    Pero en 2010 se descubrió que los dongles que equipaban el mencionado chip (y no otros chips) digitalizaban las señales en un modo muy adecuado para ser tratadas con softwares SDR, y que además el rango de sintonización de estos dongles es muy amplio, muy superior a las bandas de UHF y FM, pudiendo recibir incluso señales en bandas muy bajas como son las bandas de AM. Esto motivó que pronto se comenzaran a desarrollaran softwares SDR alternativos a los entregados por el fabricante del dongle para la recepción de la TDT, para aprovechar al máximo las capacidades de estos dongles, y para poder recibir y decodificar todo tipo de señales, entre ellas las transmisiones DRM (esto dependerá de cada software SDR).

     

    Dongles RTL-SDR, año 2016Dongles RTL-SDR, año 2016
    Varios dongles RTL-SDR disponibles en el año 2016 para ser usados como radios SDR. Salvo el cuarto, son dongles USB fabricados para la recepción de la televisión digital terrestre (TTD) en ordenadores personales, que equipan el chipset RTL2832U. El cuarto dongle (plateado, modelo V3) está ya diseñado expresamente por la firma AirSpy para su uso como receptor SDR de gran rango de sintonización (500 kHz a 1800 MHz).

     

    Captura de pantalla de una transmisión DRM en onda corta, empleando un dongle RTL-SDR
    Captura de pantalla de una transmisión DRM en la banda de 6 MHz de la onda corta (Radio Rumanía Internacional, en 2019), empleando un dongle RTL-SDR y el software SDR# (o SDR Sharp) de AirSpy. Como se puede ver, el ancho de banda de la transmisión es de 10 kHz empleado por las transmisiones DRM. (Clic en la imagen para ampliarla).
    Muy importante: Aunque las emisoras internacionales indican la frecuencia central de sus transmisiones (lo que es correcto para transmisiones analógicas en AM), para recibir las transmisiones DRM se ha de sintonizar la señal en modo de banda lateral única (Banda lateral superior, USB, en este caso) y en un extremo del ancho de banda de la transmisión (sintonía indicada por línea roja en el sintonizador), esto es, a 5 kHz por debajo de la frecuencia central de transmisión publicada por la emisora: Se ha de ajustar el ancho de banda del receptor a al menos 10 kHz.

     

    Y así suena una transmisión DRM antes de su decodificación cuando es escuchada con un receptor convencional o SDR, como en la anterior figura (en BLU y 10 kHz de ancho de banda). Puro ruido.

     

    Volver al índice

     

    06- SISTEMAS DE RADIO DIGITAL POR SATÉLITE

     

    06.1- ASTRA DIGITAL RADIO (ADR)

    Astra Digital Radio (ADR) fue el sistema de radiodifusión digital por satélite, introducido por la empresa alemana SES, empleando los primeros satélites Astra (Astra 1). Este sistema comenzó a funcionar en 1995, cuando en Alemania ya funcionaba el primer sistema de radiodifusión satelital , el sistema “Digitales Satelliten-Radio” (DSR), ya visto anteriormente.

    Los satélites Astra transmitían entonces desde posición orbital geoestacionaria canales de televisión analógica (la televisión digital no arrancaría hasta años después), con un ancho de banda de 27 MHz por canal. En cada canal, además de las señales de televisión analógica (la señal de vídeo y el canal de audio asociado), habían disposibles varias subportadoras para transmisiones de audio, y el sistema ADR usaba estas subportadoras de audio.

    Cada subportadora podía transmitir un canal de sonido analógico monofónico (necesitándose dos subportadoras para el caso de una transmisión estereofónica). En el caso del sistema ADR, la subportadora es modulada digitalmente por un flujo digital que transporta 192 kbps de audio digital (monofónico o estéreo), y opcionalmente, 9,6 kbps de datos adicionales.

    El audio digital se obtiene mediante digitalización y compresión MPEG-1 Layer II (o MP2), muestreando la señal de audio analógica a 48 kHz, generando el flujo de 192 kbps. Y aunque usa la codificación de sonido MP2, ADR fue incompatible con la norma europea de televisión digital satelital DVB-S, ni la de radiodifusión satelital DAB-S, que también emplean la codificación de sonido MP2.

    Para escuchar las estaciones de radio que transmitían mediante ADR se necesitaba un receptor especial para ADR, aunque posteriormente se lanzaron descodificadores para el satélite Astra (“satellite boxes”) que además de la recepción de la televisión analógica satelital, también incluían la descodificación de las señales digitales ADR.

    Con la implantación en Europa de la televisión digital según el estándar europeo DVB (Digital Video Broadcasting), tanto en televisión terrestre (DVB-T) como satelital (DVB-S), la transmisión de canales de televisión satelitales analógicos llegó a su fin y se apagaron en los satélites Astra 1. El sistema ADR se volvió obsoleto, y no sería apagado hasta 2010, ya que, según SES, por entonces unos 12,2 millones de hogares, la mayoría en Alemania, eran usuarios del sistema ADR. Como referencia, en febrero de 2008 aun transmitían 51 estaciones de radio en sistema ADR a través de los satélites Astra.

     

    06.2- WORLDSPACE RADIO

    Este sistema de radio satelital, ya extinto, fue inaugurado en los últimos años de la década de los 90 por la empresa 1worldspace, formalmente conocida como Worldspace (fundada en 1990 y con sede en Silver Spring, Maryland, Estados Unidos), inicialmente para cubrir Africa mediante un satélite geoestacionario, el satélite AfriStar, lanzado en 1998 (posición orbital: 21 grados este), de manera que las emisiones de radio puedan ser recibidas con un receptor portátil específico dotado de una antena plana de unos 15 cm de diámetro, poniéndolas al alcance de gran parte de la población africana.

    Pero las pretensiones de este servicio de radiodifusión directa desde satélite era extenderlo al resto del mundo, y por ello el año 2000 se lanzó otro satélite geoestacionario, el satélite AsiaStar (posición orbital: 105 grados este), para hacer un cubrimiento de Asia con esta modalidad de radiodifusión directa desde satélite. También estuvo previsto el lanzamiento de un tercer satélite, el AmeriStar, para dar cobertura a América del Sur y el Caribe, pero no estaba previsto lanzar algún satélite para dar cobertura a Estados Unidos y a Europa, lo que está en consonancia con la idea de WorldSpace de llevar la tecnología punta (la radio digital) a las zonas de la Tierra donde ésta no está disponible.

    El sistema de radio trabajaba en la banda L de UHF, ente 1452 y 1492 MHz, junto a la antigua banda L asignada al DAB), y no usa la norma digital del DAB, por lo cual no es compatible con ésta. Requiere que el equipo receptor tenga a la vista el satélite.

    El uso de esta banda de frecuencias, junto con el muy bajo efecto Doppler que puedan introducir estos satélites (debido a que son geoestacionarios), hacen que esta banda sea muy válida para la recepción de radio satélite en móvil (siempre que los desplazamientos no se realicen en ciudades con edificios altos o en zonas muy arboladas, que tapan la visibilidad directa de los satélites).

    La tecnología digital de difusión de audio que emplea fue desarrollada por la propia Wolrdspace, y se basa en el uso de la técnica de compresión de datos multimedia definida en la norma internacional ISO MPEG-2.5 Layer 3 (también conocida como mp2.5). Esta tecnología de codificación digital permite a cada radiodifusor adaptar fácilmente la calidad de audio de sus programas al nivel deseado, desde los 16 Kbps para calidad de audio monofónica hasta los 128 Kbps para calidad de audio de CD estereofónico.

    Cada satélite de la red WorldSpace Radio transmitía tres haces de cobertura para dar cobertura total al continente al cual dan servicio. Así, en el caso del AfriStar, uno de los tres haces de cobertura ilumina el norte de Africa, y ello hace que también fuera recibido en buenas condiciones en la Europa mediterránea e incluso a mayores latitudes en Europa. En cada haz se transmitían varios programas de radio, con capacidad de cerca de 80 programas, tanto de libre acceso como codificados (programas de suscripción o pago mendiante “acceso condicional”).

    El sistema también incluía la posibilidad de enviar datos multimedia y de otros tipos, que podían ser enviados desde una salida especial del receptor a través de un sencillo módem a 128 Kbps hacia un ordenador personal (como son imágenes fijas o algo animadas, datos, páginas HTML y servicios personalizados). Este servicio de datos se ofrecía bajo suscripción.

    Cada haz tenía una capacidad de transmisión digital total de 1536 Kbps, con multiplexación en tiempo real de los distintos programas, y modulación QPSK. En función de la calidad del sonido de los distintos programas, se podía dar cabida a más o menos programas en cada haz del satélite. Una calidad monofónica requiere 16 Kbps, mientras que una calidad de sonido CD ya requiere un flujo digital de programa de 128 Kbps. Esto hace que la capacidad real de cada uno de los 3 haces de un satélite fuera cualquiera de las siguientes:

    - 96 canales de audio monofónico,
    - 48 canales de audio de calidad FM monofónico,
    - 24 canales de audio de calidad FM estéreo,
    - 12 canales de audio estéreo de calidad CD.

    Worldspace recomendaba a las radiodifusoras un mínimo de 32 Kbps para los programas monofónicos y 64 Kbps para los estéreos para conseguir una calidad de sonido aceptable.

     

    Los programas radiados por WorldSpace podían ser o incluir una combinación de noticiarios, deportes, músicales, educativos y de otros tipos (poesía y literarios, religiosos, etc...).

    Parte de los distintos programas eran elaborados por las estaciones radiodifusoras internacionales (otros programas eran elaborados por WorldSpace), y gracias al uso de tres haces en cada satélite, cada radiodifusora podía elegir el o los haces del satélite a través de los cuales distribuir sus programas, de acuerdo a la cobertura geográfica deseada para sus programas, así como en función de su calidad sonora y velocidad digital de transmisión. Las radiodifusoras alquilaban a WorldSpace capacidad de difusión en algunos de los haces de los satélites, y enviaban sus señales a los satélites con transmisores de 10 a 100 W de potencia usando antenas parabólicas de unos 2 metros de diámetro, desde las estaciones terrestres que están en el área de cobertura del satélite. Las frecuencias de subida estaban en la banda X de microondas (7900-8400 MHz).

    La estructura de cada satélite constaba de una doble carga útil destinada a las funciones de radiodifusión y una plataforma para la gestión del vuelo y maniobrabilidad del satélite en el espacio. La doble carga útil estaba pensada de manera que la gestión de los canales fuera muy flexible y permitiera el tratamiento de las señales de los programas ya en banda base: Un programa podía ser subido al satélite por alguna frecuencia de la banda X, y en el satélite se podía fácilmente gestionar por qué canal de banda L se iba a difundir dicho canal y a través de qué haz del satélite.

    Además del segmento satelital del sistema, éste incluía un segmento terrestre constituido por dos estaciones terrestres con función de centros regionales de operación de los satélites, ubicadas en Silver Spring (Maryland) para el AfriStar, y en Melbourne (Australia) para el AsiaStar, desde los que se controlaba el estado (mediante telemetría y envío de comandos) y funcionamiento de los dos satélites. Para estas funciones se utilizaba la banda X como banda de subida (“uplink”) al satélite y la banda L como banda de bajada (“downlink”) desde el satélite a Tierra. Además, otras dos estaciones se encargaban de monitorizar continuamente la calidad de los servicios radiados por cada satélite, una en Libreville (Gabón) para el AfriStar y la otra en Melbourne (Australia) para el AsiaStar.

    Worldspace tenía el proyecto de implementar una red terrestre de repetidores para facilitar el acceso del sistema a nuevos mercados en Europa y el Oriente Medio, y de hecho había obtenido licencias para construir redes de repetidoras en Italia, Suiza y Alemania.

     

    En cuanto al segmento de usuario, el usuario debía adquirir algún receptor compatible con la banda L de microondas para poder acceder al servicio. El receptor debía procesar, decodificar y, si fuera necesario, desencriptar las señales recibidas para recibir los programas. El receptor debía estar equipado de una pequeña antena plana de 6-8 cm de tamaño que pudiera plegarse y recogerse dentro del aparato, o una antena omnidireccional similar montada en el techo de un automóvil (en el caso de receptores para automóvil).

    Los primeros receptores de este sistema, que además de recepción de la señal de satélite incorporaban las bandas de radiodifusión de AM, Ondas cortas (SWL) y FM, empezaron a comercializarse en octubre de 1999, y eran bastante caros de precio, por lo que era un inconveniente a la idea de facilitar el acceso a la radio a gran parte de la población africana, y por otro lado sus prestaciones no eran muy elevadas. Eran receptores del mismo tamaño que los receptores de radio clásicos, incorporaban una antena plana de unos 15 cm de lado o de diámetro, que es desplegable y orientable para permitir una orientación óptima de ésta al satélite, e incorporaban un visualizador alfanumérico que indica la emisora recibida en cada momento. Incorporaban un componente de tipo llave, denominado “Starman ”, necesario para la descompresión y demodulación de las señales, y se adaptaban automáticamente a los cambios de velocidad de las transmisiones de las informaciones. También incorporaban una salida especial de datos para la transmisión de datos multimedia enviados por el satélite hacia un ordenador externo a 128 Kbps.

    La idea inicial de WorldSpace era la de usar este sistema de radiodifusión desde satélite para facilitar el acceso a la radio a gran parte de la población africana y de otros lugares en situaciones culturales y tecnológicas similares, y para llevar a cabo este objetivo filantrópico, había creado en 1997 la WorldSpace Foundation, que pasó a llamarse posteriormente First Voice International.. Pero esta labor filantrópica se vio entorpecida por la encriptación de algunos de los programas de radio mediante “acceso condicionado”, que solo podían ser desencriptados en el receptor si el usuario estaba suscrito a dicho servicio.

    Para poder proporcionar servicios de pago, cada receptor tiene implementado un número identificador único que es utilizado para poder desbloquear el acceso a los servicios encriptados. Cuando un usuario se suscribía a algún servicio encriptado, recibía un código de desbloqueo asociado al número de identificación de su receptor, que debía ser introducido desde un pequeño teclado en el receptor. Este código de desbloqueo tenía una validez por el periodo de tiempo que el usuario hubiera pagado y para el tipo de servicio contratado. Una vez finalizado este periodo de suscripción, el usuario debía renovar la suscripción para recibir un nuevo código de desbloqueo.

    Los códigos de suscripción eran introducidos manualmente en el receptor, sin embargo en receptores más modernos este proceso se automatizó realizándose el desbloqueo de los receptores para los servicios encriptados contratados por la propia empresa Worldspace a través de la propia señal de radio (activaciones “over-the-air”).

    Modernos receptores de radio con acceso al servicio satelital Worldspace Radio fueron fabricados por varias corporaciones asiáticas tales como AMI (Corea del Sur), BPL (India) y Tongshi (China), o las japonesas JVC, Sanyo, Hitachi y Panasonic, entre otras.

    Sin embargo, la sociedad WorldSpace entró en insolvencia económica en octubre 2008 tras una serie prolongada de crisis financieras y la dimisión de dos de sus altos cargos en agosto de ese año, y a lo largo de 2008-2009 se fueron liquidando todas sus entidades comerciales que disponía en todo el mundo, lo que supuso el final de este proyecto de radio satelital, si bien el satélite Afristar continuaba en su posición geoestacionaria y transmitiendo algunas estaciones de radio hasta abril de 2012, siendo mantenido el satélite por Intelsat.

     

     

    Volver al índice

     

    06.3- GLOBAL RADIO

    Global Radio S.A. fue una empresa fundada a principios de 2000 y con sede en Luxemburgo (cuyo gobierno apoyaba su proyecto) que presentó el primer proyecto de servicio de radio digital directo por satélite para Europa, y que básicamente pretendía ofrecer unos 100 programas de radio multilingüe desde satélites en órbitas elípticas (no geoestacionarios), y que debería comenzar a entrar en servicio a principios del año 2005. Sus socios fundadores e inversores estratégicos fueron NTL Inc, y Wit SoundView Group Inc. NTL Inc era el principal proveedor británico de soluciones de transmisión de señal para el sector de los medios de comunicación del Reino Unido, y disponía por entonces de una red de unos 2.000 mástiles y torres desde donde se proporcionaba la transmisión de dos canales nacionales de TV y varias estaciones de radiodifusión de Reino Unido. Además proporcionaba la subida a diversos satélites de unos 140 canales de TV satelital. En cuanto a Wit SoundView Group Inc, era un grupo de inversores bancarios centrado exclusivamente en el sector tecnológico, potenciando principalmente la investigación en las nuevas tecnologías.

    El proyecto contemplaba utilizar inicialmente una flota de tres satélites de alta potencia en órbitas elípticas bien calculadas que permitirían dar cobertura continua a toda Europa, incluso a las regiones más al norte (cerca el Círculo polar ártico), regiones donde es difícil la cobertura con satélites geoestacionarios. Además de los satélites se debía añadir la correspondiente red terrestre que incuyera los centros de operación de los satélites. Los satélites transmitirían en la banda S de microondas (2700-3500 MHz) y usarían la norma DAB-S (DAB satelital) para los programas de radio.

    Estos tres satélites permitiría transmitir hasta 24 canales de radio paneuropeos (globales a nivel europeo) de forma simultánea y 7 haces regionales con capacidad para entre 60 y 70 canales de radio a un mercado potencial de 250 millones de vehículos y prácticamente el mismo número de hogares de la Unión Europea. Los servicios de Global Radio iban a ser transfronterizos, aunque se adaptarían a la diversidad cultural y lingüística del mercado europeo.

    Además se iba a proporcionar a través de sus satélites servicios de transmisión de datos como acceso a Internet (descarga de contenidos, como música mp3), servicios de navegación y de telefonía móvil, y otros servicios telemáticos (como servicios de comercio electrónico).

    Las transmisiones estarían dirigidas tanto a receptores digitales en vehículos, hogares y portables. Los receptores que se diseñaran para este servicio deberían ser capaces de recibir tanto estas transmisiones digitales directas desde satélite como las bandas de radiodifusión terrestres analógicas (AM, FM).

    A nivel financiero, los ingresos de Global Radio se iban a basar en los programas de suscripción, el patrocinio de los canales, la difusión de contenidos y publicidad y los servicios telemáticos y de transmisión de datos. Pero esta compañía fracasó y entró en bancarrota en abril de 2003, cesando con ello su proyecto de prestar servicios de radio digital directa por satélite.

     

    Volver al índice

     

    06.4- SISTEMA XM-SATELLITE RADIO

    XM Satellite Radio (XM) fue uno de los dos servicios de radiodifusión digital directa por satélite (SDARS, Satellite Digital Audio Radio Service) en servicio en Estados Unidos y Canadá. Proporcionaba servicio de radiodifusión bajo pago, similarmente a los servicios de televisión por cable, servido por dos satélites de radiodifusión geoestacionarios posicionados sobre las longitudes geográficas correspondientes a ambas costas norteamericanas (Pacífica y Atlántica), lo que permitía dar cobertura a todo el estado norteamericano y Canadá. Un automovilista que recorriera Estados Unidos de costa a costa con un receptor habilitado para este sistema en su automóvil podría escuchar la misma emisora en todo momento, sin necesidad de cambiar de frecuencia.

    Este servicio de radiodifusión satelital fue inaugurado el 25 de septiembre de 2001 por la compañía XM Satellite Radio Holdings, Inc. Esta compañía tuvo sus orígenes en 1988 al fundarse la American Mobile Satellite Corporation (AMSC), un consorcio de varias organizaciones originalmente dedicadas a la difusión por satélite de señales de telefonía, fax y datos, y que en 1992 creó una unidad dedicada a desarrollar un servicio de radiodifusión digital por satélite, la American Mobile Radio Corporation, la cual en mayo de 1997 pasó a ser la XM Satellite Radio Holdings, Inc. En octubre de ese año, la compañía obtendría una de las dos licencias de servicio de radiodifusión digital por satélite (SDARS) que la administración norteamericana (a través de la Federal Communications Commission, FCC) había ofertado. La otra fue para CD Radio, que posteriormente pasaría a denominarse Sirius y que fue su competidora en el servicio SDARS. En Canadá, el servicio satelital de XM Radio no sería autorizado e inaugurado oficialmente hasta noviembre de 2005.

    Bajo la modalidad de suscripción por pago, el sistema proporcionaba 73 canales de música, 39 de otros contenidos (noticias, deportes, entretenimiento, debates...), 21 canales de fonía de ámbito regional para transmisión de informaciones de tráfico y meteorológicas, y 23 canales “play-by-play” deportivos. También proporcionaban canales de datos, cuyo contenido se podía presentar en una pantalla en los receptores de radio XM.

    Para la radiodifusión directa de los programas, XM Radio puso en servicio dos potentes satélites en órbita geoestacionaria sobre el Ecuador. Inicialmente fueron los satélites XM-1 (“Rock”) y XM-2 (“Roll”), diseñados por Boeing, pero un fallo genérico de esta familia de satélites de Boeing (la familia de satélites Boeing 702) que afectaba a sus paneles solares acortaron a la mitad la vida media de estos satélites, y en febrero de 2005 se lanzó el XM-3 “Rhythm” a la posición orbital 85°W (junto al XM-1), y en octubre de 2006 el XM-4 “Blues” en 115°W (junto al XM-2). Transitoriamente los dos nuevos satélites se complementaron con los dos antiguos, hasta que estos fueron puestos fuera de servicio en diciembre de 2006.

    Logo de XM Satellite radio (2001-2006)
    Logo de XM Satellite radio (2001-2006).

    Los dos satélites geoestacionarios transmitían con una elevada potencia, unos 18 kw, potencia elevada necesaria para iluminar con un solo haz una gran extensión territorial con cierta potencia desde la órbita geoestacionaria. Pero además, XM Radio construyó una red de repetidoras terrestres tanto en Estados Unidos como en Canadá, para complementar la cobertura de los satélites en lugares donde la cobertura de estos fuera deficiente, como eran la punta más meridional de Alaska y las regiones más meridionales de Canadá, y en el interior de grandes ciudades. Las señales de los satélites también se podían recibir en gran parte de Méjico y el Caribe, pero XM Radio no obtuvo licencia para la suscripción de usuarios de estas zonas.

    Las transmisiones de los satélites y de las estaciones repetidoras terrestres son en la banda S de microondas, ocupando 12,5 MHz entre 2332,5 a 2345,0 MHz (banda de 2300 MHz).

    Para recibir los programas de radio, el usuario debía suscribirse al servicio y comprar un receptor de radio que pudiera recibir las transmisiones SDARS de XM. Estos receptores tenían un precio de entre 50 y 200 dólares, y se fabricaron y comercializaron receptores de radio de sobremesa, portables y para el automóvil que incluían la recepción de señales de los satélites XM y Sirius. También se llegaron a fabricar receptores controlados por ordenador (el XM PCR), que requerían estar conectados a un ordenador personal con el software adecuado para funcionar (en el ordenador se mostraban los controles y la pantalla del receptor), aunque dejaron de fabricarse en 2005 al desarrollar alguna empresa ajena algún software para grabar en el ordenador la música radiada por XM Radio a formato mp3, lo que, junto con el lanzamiento de dos modelos portables de receptores de XM Radio que podían grabar fragmentos de programa, provocó un pleito legal de la RIAA (industria musical norteamericana), resuelto a favor de la RIAA en enero de 2007.

    Para difundir los programas, los satélites transmitían en 6 portadoras de radio separadas, dentro de los 12,5 MHz asignados en la banda de 2300 MHz. La señal completa de banda base (con los canales de sonido y los canales de datos) sólo requería dos portadoras, ocupando algo más de 4 MHz de ancho de banda. Al emplearse 6 portadoras, cada par de portadoras transmitían el mismo contenido (la misma señal base), pero con diferentes retardos, para proporcionar a los receptores de radio una “diversidad de señal” que garantizara una reproducción de los programas de audio incluso en casos de fading (debilitamientos) o pequeñas pérdidas temporales de señal (por ejemplo, al pasar bajo un puente o por un corto túnel). Un buffer en los receptores de radio permitía disponer de unos segundos de programación almacenados, con lo que en caso de debilitamiento o pérdida de señal momentánea, continuaba la recepción (siempre que la pérdida de señal no fuera de muchos segundos), y la posibilidad de recibir las tres transmisiones (mediante los 3 grupos de dos portadoras) con diferentes desfases temporales (de varios segundos), permitía mantener ese buffer lleno sin pérdidas de información.

    Los datos en cada portadora se codificaban usando esquemas de corrección de errores y esquemas de retardo en el tiempo para mejorar la disponibilidad de las señales en los receptores. Las señales digitales de banda base usaban un esquema de modulación de tipo OFDM (Orthogonal Frecuency Division Multiplexing, esto es, múltiples portadoras moduladas en fase por los símbolos digitales de la señal de banda base), generando la señal de radio transmitida de algo más de 4 MHz de ancho de banda. Los esquemas de codificación y modulación empleados no corresponden a las normas estándard como el DAB-S europeo o el IBOC norteamericano, son propias del sistema XM Satellite Radio.

    Cada grupo de dos portadoras transmitían 100 flujos de 8 kbps (kilobits por segundo) dentro del ancho de banda de 4 MHz en el espectro de radio. Estos flujos eran combinados usando un proceso propietario de la compañía para crear un número variable de canales de radio con una variedad de 'bitrates': El ancho de banda era dividido en segmentos de flujos digitales virtuales de 4 kbps, que eran combinados para crear los canales digitales de audio y de datos, con bitrates que iban de 4 a 64 kbps.

    El audio se almacenaba digitalmente en sistemas de audio Dalet usando el estándard industrial MPEG-1 Layer II a 384 kbit/s, también conocido como Musicam (y en informática, formato mp2). Cuando un contenido de audio debía ser radiodifundido, era procesado usando procesadores Neural Audio (de Neural Audio Corporation) que estaban optimizados para usar el códec de compresión mpeg4 CT-aacPlus (o HE-AAC) desarrollado por Coding Technologies, códec que incluye la técnica de la “Spectral Band Replication" (SBR, Extensión de Anchura de Banda).

    Había dos calidades de audio para los canales de radio: Los canales musicales eran en estéreo a 39 kbit/s, y los canales de voz y conversación eran monofónicos a 16 kbit/s. Para los canales de audio musical se empleaba la codificación y compresión digital empleando el mencionado códec CT-aacPlus (HE-AAC), mientras que los canales de voz (monofónicos), que incluían todos los canales de información de tráfico y de meteorología, se usaba el códec AMBE de Digital Voice Systems. Las codificaciones digitales de audio no proporcionaban una demasiada buena calidad sonora, algo de lo que se quejaron muchos usuarios, pero los planes de la compañía XM Satellite Radio era la de proporcionar muchos canales de radio en lugar de una mejor calidad sonora (una mejor calidad sonora implica un mayor ancho de banda del audio digitalizado, y por tanto, conduce a un menor número de canales de radio en el mismo ancho de banda de la señal de banda base a transmitir).

    El 29 de julio de 2008 XM Satellite Radio fue comprada oficialmente por Sirius Satellite Radio Inc., la otra empresa competidora del servicio de radiodifusión digital directa por satélite (SDARS) norteamericana, bajo la aprobación de la FCC (proceso que había iniciado Sirius Satellite Radio en febrero de 2007). Por esas fechas, XM Satellite Radio tenía más de 8 millones de suscriptores. Ambas cadenas satelitales comenzaron en noviembre a mezclar sus programaciones, y bajo la denominación comercial de Sirius XM Radio (ver en el siguiente apartado). Sin embargo, las subsidiarias de XM Radio y Sirius para Canadá se mantuvieron aún separadas. En enero de 2011 XM Satellite Radio fue disuelta como entidad separada en Estados Unidos. Y en abril de 2011 la administración canadiense aprobó la fusión de las subsidiarias de XM y Sirius de Canadá.

     

    Volver al índice

     

    06.5- SISTEMA SIRIUS SATELLITE RADIO

    El sistema Sirius es el segundo servicio norteamericano de radiodifusión digital directa por satélite (SDARS), inaugurado oficialmente meses después del servicio XM Satellite, y que proporciona cobertura a Estados Unidos, Puerto Rico y Canadá. Su sede está en la ciudad de New York, y dispone (en 2012) de estudios más pequeños en Los Ángeles y Memphis. Fue inaugurado el 14 de febrero de 2002 en 4 estados, y oficialmente el 1 de julio de 2002 en los demás estados de Estados Unidos, siendo este servicio la división de radio satelital de la compañía Sirius XM Radio. Actualmente también difunde sus contenidos “online” a través de Internet y mediante plataformas para telefonía móvil.

    Logo de Sirius Satellite Radio

    Sirius XM Radio había sido fundada en julio de 1990 en Washington DC por Martine Rothblatt, un veterano de la industria satelital, bajo el nombre de Satellite CD Radio Inc., con el propósito de crear un servicio de radiodifusión digital por satélite en una porción poco utilizada de la banda de 2300 MHz (en la banda S), y con la idea de que se podían adaptar antenas planas de GPS para la recepción de este servicio. En 1992 la empresa pasó a llamarse CD Radio. La idea de este tipo de servicio de radio la propuso en 1992 a la FCC (Comisión Federal de Comunicaciones de Estados Unidos). En enero de 1955 la FCC reservó 50 MHz (2310 a 2360 MHz) en la banda S para el nuevo servicio de radiodifusión satelital SDARS (Satellite Digital Audio Radio Service), más conocido actualmente en Norteamérica como “Satellite Radio”.

    En abril de 1997 la compañía Satellite CD Radio obtuvo una de las dos licencias de servicio de radiodifusión digital por satélite (SDARS) que la FCC había ofertado, la otra fue para American Mobile Satellite Corporation (que pasaría a ser XM Satellite Radio), quedando fuera de esta subasta de licencias otras dos compañías licitantes. En 1999, por motivos comerciales, la compañía Satellite CD Radio cambió su nombre por el de Sirius.

    El 29 de julio de 2008 Sirius fue autorizada por el gobierno (por la FCC) para adquirir a su competidora XM Satellite Radio (tras un proceso de año y medio iniciado en febrero 2007), y la compañía resultante de la fusión de ambos servicios adoptó el actual nombre de Sirius XM Radio, con una única red de radiodifusión satelital en Estados Unidos (desde finales de 2008) y en Canadá (desde 2011).

    El modelo financiero de la empresa es el de suscripción al servicio, similar a los modelos comerciales de suscripción a los servicios “premium” de televisión por cable. La suscripción es por cada receptor de radio, que es activado por la compañía al realizar la suscripción. Sirius comenzó a obtener beneficios por este servicio en 2006. En 2009 Sirius XM ya había rebasado los 19 millones de suscriptores.

    Sirius proporciona a los oyentes durante las 24 horas del día más de 120 canales, entre canales de música (con una amplia variedad de géneros), de deportes, noticias, de entretenimiento, y de otros contenidos. Los canales musicales están libres de anuncios comerciales, mientras que los canales de voz pueden emitir anuncios comerciales, aunque en un número menor por hora que en el caso de las emisoras de radio y televisión terrestres. En los canales musicales, el usuario puede ver en la pantalla de su receptor la información del artista y de la canción mientras escucha el canal.

    El sistema se inició con una flota de tres satélites en órbita geosíncrona elíptica sobre Norteamérica para la difusión directa de los programas de radio, los satélites denominados oficialmente Radiosat 1, 2 y 3 (Sirius FM 1, 2 y 3), que fueron lanzados entre junio y noviembre de 2000. La denominación oficial de Radiosat se debió a que Suecia ya tenía una flota de satélites de telecomunicaciones y de televisión bajo la denominación Sirius. Dado que los satélites en órbitas elípticas no son geostacionarios, sus órbitas geosíncronas están pensadas para que siempre uno de ellos esté dando cobertura al territorio norteamericano, aunque normalmente serán dos los satélites que den cobertura simultánea, y además desde distancias menores que desde la órbita geoestacionaria (el perigeo es de unos 20.000 km, frente a los 36.000 km de la órbita geoestacionaria), lo que permite usar menores potencias de transmisión desde los satélites. Además, sólo transmiten los satélites (uno o dos) que estén dando cobertura sobre territorio norteamericano, conmutando la transmisión de un satélite a otro cuando uno sale del área de cobertura y entra otro en ella.

    Las órbitas de los satélites son geosíncronas y altamente elípticas, denominadas órbitas “Tundra”, las cuales tienen un periodo de 23 horas y 56 minutos (un día sidéreo) y están bastante inclinadas respecto al plano del ecuador. Con este tipo de órbita, se asegura que cada satélite dé cobertura sobre los Estados Unidos continentales unas 16 horas cada día. La flota satelital garantiza que siempre haya al menos un satélite dando cobertura al país, y que durante gran parte del día hayan dos satélites dando cobertura. Las órbitas son geosíncronas, pasando cada día sobre el país, siguiendo la misma trayectoria sobre la superficie terrestre, con el apogeo (máxima distancia orbital a la Tierra) situado justo sobre el oeste de la bahía de Hudson (Canadá). Esto permite que las señales transmitidas llegen a los receptores desde ángulos bastante elevados (más que desde una órbita geoestacionaria), y ello disminuye notablemente el riesgo de atenuación o bloqueo de las señales por edificios altos y otras estructuras en zonas urbanas que puedan bloquear las señales.

    Además de estos tres satélites, en verano de 2009 Sirius lanzó y puso en servicio un cuarto satélite (Radiosat 5 o Sirius FM-5) puesto en órbita geoestacionaria, destinado a usuarios de Sirius en ubicaciones fijas, especialmente para aquellos que estaban en áreas de cobertura deficiente de los otros tres satélites. Estos usuarios debían usar ya antenas parabólicas para recibir la señal del satélite, a causa de la mayor distancia al satélite. Dicho satélite está posicionado en los 96 grados oeste de la órbita geoestacionaria, proporcionando buena cobertura a la mitad este de Estados Unidos. Y en octubre 2013 Sirius lanzó el satélite Radiosat 6 (Sirius FM-6) a la posición 116.15 grados oeste de la órbita geoestacionaria, para prestar servicio a la mitas oeste de Estados Unidos.

    Las transmisiones satelitales operan en el margen de frecuencias de 2320 a 2332,5 MHz (12,5 MHz en la Banda S), y como en el caso del XM Satellite, los esquemas de codificación digital del audio son propietarios de Sirius. Cada programa de audio es codificado digitalmente empleando una variante propietaria del algoritmo de compresión percentual de audio desarrollado por Lucent (uso del códec PAC, el mismo que el empleado inicialmente el el sistema IBOC norteamericano, pero con un bit-rate mucho más elevado), y a continuación es encriptado usando un sistema propietario de “acceso condicionado” (codificación que requiere una clave de acceso para la decodificación, típico en los canales de radio y televisión de pago). Con estos dos satélites geoestacionarios en servicio, la flota de los tres primeros satélites de órbita elíptica geosíncrona se sacaron del servicio activo.

    El esquema de modulación de la señal de radio por la señal digital de banda base (constituida por la multiplexación de un elevado número de programas o canales de audio digitalizado, además de canales de control) es tipo OFDM QPSK (Orthogonal Frecuency Division Multiplexing - Quadrature PSK o 4QAM, esto es, múltiples portadoras moduladas en QPSK por los símbolos digitales de la señal de banda base), generando señales de radio transmitidas de 4 MHz de ancho de banda.

    Además de los tres satélites, el sistema Sirius incluye una red de estaciones emisoras terrestres repetidoras en todo el territorio de Estados Unidos para proporcionar una mejor cobertura del servicio en entornos urbanos, en los cuales la recepción directa de las señales emitidas por los satélites se ve perjudicada por las edificaciones. Pueden haber varios transmisores terrestres para dar buena cobertura a toda una ciudad cuando un transmisor se muestra insuficiente. Además, las estaciones terrestres transmiten en la misma frecuencia, constituyendo una red de frecuencia única (SFN, Single-Frequency Networks). Las señales de radio transmitidas por estas estaciones también emplean la modulación OFDM QPSK. También se establecieron estaciones repetidoras en Alaska, Hawái y Puerto Rico, donde la cobertura satelital es bastante deficiente.

    Debido a que las señales de los satélites son recibidas desde ángulos elevados, lo que disminuye notablemente el riesgo de atenuación o bloqueo de las señales por edificios altos, la red de estaciones terrestres repetidoras de Sirius es mucho más pequeña que la que empleaba el sistema XM Satellite Radio (que utilizaba satélites geoestacionarios).

    Técnicamente, el sistema de señales de Sirius opera con tres portadoras de 4 MHz de ancho de banda, dos de ellas una por cada uno de los dos satélites que estén dando cobertura simultánea, y la tercera por las estaciones repetidoras terrestres (allí donde éstas estuvieran disponibles). Las tres portadoras transmiten la misma información digital. Esto proporciona una diversidad de señal a los receptores, los cuales decodifican al mismo tiempo las tres portadoras recibidas. Entre las dos portadoras satelitales se introduce un retardo intencionado de 4 segundos para sus señales digitales, lo que permite a los receptores mantener un largo buffer (memoria) de las señales recibidas. Este buffer, junto con los mecanismos de corrección de errores FEC presentes en las señales digitales, permiten que el receptor siga manteniendo la reproducción de los programas de audio incluso cuando se produce fading (debilitamientos) o pequeñas pérdidas temporales de señal, como las que se producen en los receptores de automóviles en movimiento cuando pasa el vehículo bajo un paso de peatones elevado o un viaducto, al circular por una zona densamente arbolada, o durante una pérdida momentánea de la línea de visión con alguno de los satélites o estaciones repetidoras terrestres.

    Este sistema de señales contrasta con el que empleaba XM Satellite Radio, que utilizaba 6 portadoras de 2 MHz pero sólo decodificaba tres para economizar el consumo eléctrico de los receptores y la complejidad del sistema de cambio de canal.

    La tercera señal es subida a los satélites en la banda Ku (10,7-12,7 GHz) y retransmitida por estos a la red de estaciones terrestres, siendo radiada por éstas como tercer segmento del sistema de señales de Sirius.

    Las tres señales se combinan “constructivamente” en los receptores de radio a nivel de señales de radio (a nivel de banda base, no a nivel de señales de audio), evitando situaciones donde malas señales degraden las señales buenas, todo ello antes de ser decodificadas. Para conseguirlo, se aplica a las señales un potente sistema de corrección de errores. Junto con la diferencias de tiempo de 4 segundos entre las señales de los dos satélites, una vez realineada la información de las señales recibidas, se garantiza unos 8 segundos de pérdida total de señales antes de que se pierda los contenidos de audio (y por tanto, corte en la reproducción del audio). Esto aumenta la robustez del sistema en muchas situaciones desfavorables para la recepción de las señales en receptores de automóviles en movimiento durante la conducción.

    Para conseguir señales libres de errores frente a interferencias y debilitamientos de las señales de radio, y conseguir una reproducción limpia de los programas de audio, se aplican a las señales técnicas de corrección de errores FEC (Forward Error Correction) y codificación concatenada de bloques Reed-Solomon, técnicas que ya fueron probadas con los primeros módems satelitales a finales de los años 1970. Sirius emplea en sus señales un sistema de control y corrección de errores más robusto en los canales de control que en los contenidos de audio digitalizados.

     

    Los receptores diseñados para el servicio Sirius han de poder trabajar tanto con las relativamente débiles señales recibidas desde los satélites y las señales normalmente más fuertes de las estaciones terrestres (aunque éstas normalmente estarán presentes en ciudades grandes). Están basados en un circuito integrado microprocesador de aplicación específica (ASIC, Application Specific Integrated Circuit) desarrollado especialmente para la demodulación, corrección de errores, y desencriptación de las señales digitales a banda base (chip denominado “Baseband Integrated Circuit”, siendo el utilizado el STA240, fabricado por STMicroelectronics). Cada uno de ellos tiene un número de identificación electrónico único (denominado Sirius ID), el cual es utilizado para habilitar o desactivar el acceso al servicio (recuérdese que el servicio Sirius es de acceso condicionado, esto es, bajo suscripción). También incluye otro circuito integrado ASIC para el módulo sintonizador (el STA210, también de STMicroelectronics), módulo que recibe, filtra, amplifica y convierte las señales recibidas por la antena en la banda de 2,32 GHz (ya sean de los satélites o de estaciones terrenas) a una frecuencia intermedia mucho más baja, del orden de 75 MHz, que es entregada al chip demodulador y decodificador.

    También hay un chip procesador de banda base, que extrae de ésta el programa de audio seleccionado y lo entrega a un conversor digital-analógico para generar la señal de audio analógica, que será a continuación amplificada y entregada a los altavoces conectados al aparato de radio. Asociado a este procesador hay una memoria SDRAM de 16 MB empleada para almacenar en todo momento cuatro segundos de las señales recibidas de uno de los satélites. En receptores más modernos dotados de una función de pausa en la reproducción disponen de una segunda memoria SRAM de mucha mayor capacidad que permite almacenar hasta 60 minutos del programa de audio seleccionado, para su reproducción posterior. Y finalmente, otro chip microcontrolador se encarga de la unidad frontal del aparato de radio (la “head unit”), constituida por una pequeña pantalla donde se presentaran textos descriptivos (como el canal de audio seleccionado, artista y título de la canción) y los mandos de control para el usuario.

    En instalaciones fijas la ubicación de la antena receptora es crucial para recibir buenas señales de los satélites (del orden de -50 dBm en las mejores condiciones, de cielo despejado), por lo que deberá ser colocada en alguna ubicación que tenga una buena y despejada vista del cielo, preferiblemente en azoteas sin aleros ni árboles que la sobrepasen. Si esto no fuera posible, se deberá colocar la antena en alguna pared exterior del edificio (a ser posible en una posición elevada), con la recomendación de que la pared mire hacia el centro de Estados Unidos continental para minimizar el riesgo de que el propio edificio pueda bloquear las señales de los satélites.

     

    NOTA: La dirección en Internet de la empresa Sirius XM Radio es la siguiente: www.siriusxm.com

     

    Volver al índice

     

     


     

    Escrito por : Fernando Fernández de Villegas (EB3EMD)
    Primera edición: Abril 2006
    Última actualización: 30-01-2024