次世代のオーディオ

〜欧州のディジタルラジオ:DAB〜

DAB:Digital Audio Broadcasting が欧州では既に実用化されています。DAB方式は、日本とアメリカを除く全世界標準となりつつあります。
これを例に挙げて説明しましょう。(日本ではISDB-T方式に決定しています。)
 

                                                        DAB SIGNAL

上の図に示したのは、DAB信号のモード1の例です。1536本のキャリアから構成される、マルチキャリア信号です。キャリアとキャリアの間隔は1kHzです。

OFDM(Orthogonal Frequency Division Multiplexing)変調方式と呼ばれています。

この信号のキャリアの1本1本はそれぞれπ/4shift DQPSK(Deferential Quadrature Phase Shift Keying)変調が掛かっています。
これは、その位相情報の1次後退差分値 (1シンボル前との位相の引き算) として4値を持っています。
つまり、キャリアの一本一本は1シンボル周期 に於いて正弦波です。
実際の演算には FFT を使います。まあ、それ以外に現実的な方法はありえませんですわね。

さらに、このOFDM信号は時間方向には下に示す図のように分解されます。


NULLを除く1シンボルの周期は1.246msecです。1フレーム周期は96msec、論理フレームが4つありますから論理フレーム周期は24msecで、これはMPEG-I のフレームに一致します。

NULLの部分には通常の信号が含まれていません。
これは単に、1フレームのスタートを示しています。但し、TII (Transmitter Identification Information) と呼ばれる少数のキャリアが入っていますが、そのキャリアの数は一つのTransmitterについて8本しかないので、パワーは8/1536でしかなく、フレームのスタートを示す識別信号としての妨げにはなりません。
(このTII情報から、自分の緯度と経度を測定する事も理論的には可能です。)

これが必要なのは、その次にあるP.R.Sを見つけるためです。
P.R.S (Phase Reference Symbol) は周波数と時間の正確な同期をとるのに使われます。
PRSとNULLを合わせて、同期チャネル(Sync. Channel) と言います。

FIC (Fast Information Channel)  は従来のFMとのアナロジーで言えば、欧州のRDS (Radio Data Service)  のそれに近いデータを含んでいます。
即ち、サービスのラベルやインフォメーション、或いは他のEnsembleの周波数情報などです。(勿論RDSより遥かに詳細な内容を含みますが。) 
要は次に来るMSCの説明がFICだと思えば大丈夫です。

MSC (Main Service Channel) には主に音楽信号が入っています。
MSCには複数のサービスが含まれていて、再び従来のFMとのアナロジーで言うなら、その一つ一つのサービスが放送局の概念に近いです。
但し、一つのサービスにPrimary と Secondary があり、Secondary は複数持ち得るので、一つのサービスがTVの多重放送みたいな感じです。

これらを纏めて Ensemble;アンサンブルと呼びます (1536本のcarrierの固まりの中身です)。
図にその例をしめします。Service と書かれた部分がユーザーサイドから見えるサービス内容です。

既に述べたように、1シンボルの時間長は、NULL以外はMODE1で1.264msec.です(Fig.2)が、このうち0.264msec. はGuard Intervalと言われるもので、SFN (Single Frequency Network) を含むMulti-Path Signal に対応する為のものです。
SFNというのは、一つの電波(周波数)を多数のアンテナから放送する方式で、アナログでは絶対に出来ません。

実際にはこの1.264msec.のうち、任意の1msec.だけが受信機で使われます。(キャリア間隔が1kHzなので、FFTの原理から言っても当然です。)
つまり、このGuard Intervalの幅の範囲に入っていれば、言い換えれば0.264msec以内の遅延であれば、Multi-Pathの影響は受けません。(Fig.4)

マルチキャリアである為、周波数選択性フェージングに対しても強いです。
これを平たく言えば、マルチパスがその周波数で丁度位相が反転する分だけ遅れれば、その周波数のレベルは0になって情報が失われますが、でも、キャリアはとても沢山あるから、まあ大丈夫と言う事です。

次に移動体受信に関して。

Rayleigh fading に対しては、先ず、振幅方向には情報を持っていない(DQPSK変調)ので、振幅変動に強いです。
走行スピードが高いと、ドップラーシフトと位相のランダムな変調(反射波が近い時に、高速移動すると、反射波との加算に依って起きる位相シフトが急激に変化する現象)が起きますが、一つのキャリアは4値しか持ち得ないので、そのディジタル的な位相変化分(±45°)以内であれば大丈夫です。

しかも、SFNにより、同じ周波数で広い範囲(もし望むならヨーロッパ全土でも)をカバーできるので、移動受信中に周波数を切り替える必要がありません。
同じ理由で衛星放送にも使えますが、世界的に見ると衛星放送はTDM変調が多いようです。

さらに、このOFDM変調方式の特徴として、近接する周波数に対する影響が小さい(キャリアの本数が多い程、Ensembleのサイドローブは小さくなる)というメリットがあり、周波数の利用効率が高い為、将来の多局化に対する不安も小さいという利点が挙げられます。

というわけで、地上波での放送に関しては、OFDMで決まりというのが最近の情勢です。
CDM(Code Division Multiplexing) は、放送には向いてないんじゃないかな〜。日本だけは衛星で使おうとしてるみたいだけど。
 



音声信号の圧縮、その他のシステム

各音声サービスはMPEGT−LAYERU(MUSICAMとも言います)で圧縮されています。
大体220kbpsぐらいで送信したときに、CD フォーマットのクオリティーに相当するといわれています。
なんで CD の1/10のデータ量で同じぐらいに出来るかといえば、圧縮しているからです(^^;)。これをちゃんと理解するには、かなり基礎知識が必要です。

良く誤解されるんですが、圧縮しているから、必ず直線量子化よりも悪いって事ではないんです。
例えば生データ(自然の音声)を20bit/48kHzぐらいでA/Dして、384kbpsでMPEG圧縮すれば、音楽ジャンルによっては、CDよりも良いだろうと思いますよ。
(話題のDVD-Audioはロスレス符号圧縮によるので、リニアと言って差し支えないから、これとは少しニュアンスが異なります。)

DAB信号を最終的な音声に復調するためには、通常のアナログ的なRF(Radio Frequency)受信機に加えて、
A/D変換、I/Q復調、FFT(高速フーリエ変換)、周波数領域でのデ・インターリーブDD(遅延検波)メトリック演算、時間のデ・インターリーブ、ビタビ復号、MPEG解凍、D/A変換というプロセスが必要です。
これとは別に、DSP(Digital Signal Processing;ディジタル信号処理)による同期プロセスで、周波数と時間の同期を取らなければなりません。

全部説明するには、通信工学の書籍一冊分が必要になります。(^^;)

このうち、ビタビ(Viterbi)復号というのは、いわゆる「畳み込み符号」を復号する実現可能な唯一の方式で、かの通信工学の生き神様 Dr. Viterbi の発案なのでこの名があります。
ビタビ復号が生まれるまでは、畳み込み符号(Convolutional code)の符号効率が高いことは解っていても、実用にならなかったのです。

電波メディアで用いられる畳み込み符号は、CD等の固定メディアで使われるリード・ソロモン符号とは異なり、正確にどこで間違えたかを特定することが出来ません。
ともかく、何が来ようとも、最もそれらしい値(尤度が高い)を取ります。これを軟判定と言います。最尤(さいゆう)推定法とは少し違います。
その代わり、非常に高い符号化効率を持ちますから、低いビット・レートで送信して高い妨害性能を得られるわけです。
 

Next

Top of Next generation

Home