基礎 | 中級 | 上級 | 専門家 |
情報理論の創始者であるシャノン(Claude Elwood Shannon, C.E. Shannonと略)は、1916年(大正5年)4月30日に米国ミシガン州のPetoskeyで生まれた。2001年(平成13年)2月24日に84歳で没した。
幼少時および高校生頃まではミシガン州のGaylordで過ごした。1932年にそこの高校Gaylord High School を卒業し、ミシガン大学に入学した。大学ではブール代数の道に入る専門コースを学んだ。1936年に大学を卒業し、電気工学および数学の学士号をとった。その後、マサチューセッツ工科大学(Massachusetts
Institute of Technology, MIT)の大学院に入学した。そこで、ブッシュの微分解析機やアナログ計算機に関する研究を行った。
連載:インターネット・サイエンスの歴史人物館(2)クロード・シャノン も参考になる。
情報理論の創始となった記念碑的な論文である。掲載されたのは、1948年7月、Bell System Technical Journal (略称B.S.T.J.)である。この雑誌は、米国の電話会社AT&Tの研究部門であるベル研究所(通称ベル研)の社内論文誌である。あまり大部であることからか、2回に分けて掲載された。
1948年7月号、B.S.T.J., vol.27, pp.379-423、Part I Discrete Noiseless Systems,
Part II The Discrete Channel with Noise
1948年10月号、B.S.T.J., vol.27, pp.623-656、Part III Mathematical Preliminaries,
Part IV The Continuous Channel, Part V The Rate for a Continuous Source
この論文は日本語訳が、『コミュニケーションの数学的理論』(C.E.シャノン, W.ウィーヴァー著 ; 長谷川淳, 井上光洋訳、明治図書出版、1969年)として刊行されている。さらに、同書はすでに入手困難となったため、新訳が復刊書籍『通信の数学的理論』(クロード・シャノン、ワレン・ウィーバー/植松友彦訳、筑摩書房、2009年、ISBN:
9784480092229)として文庫判で出版された。
著者 | 書名 | 巻・号等 | 出版社 | 出版年 | ISBN |
喜安善市・室賀三郎 | 情報理論 | 岩波講座現代応用数学 B9 | 岩波書店 | 1956 | |
喜安 善市 | 情報理論入門 | 通信工学講座 | 共立出版 | 1956 | |
本多 波雄 | 情報理論入門 | 日刊工業新聞社 | 1960 | 4526000361 | |
細野 敏夫 | 情報工学の基礎 | コロナ社 | 1967 | ||
笠原 芳郎 | 情報理論と通信方式 | 共立出版 | 1965 | ||
国沢 清典 | 情報理論 | オートメーションシリーズ1 | 共立出版 | 1960 | 4320021886 |
三根 久 | 情報理論入門 | 朝倉書店 | 1964 | ||
大泉 充郎・本多 波雄・野口 正一 | 情報理論 | オーム社 | 1962 | ||
Fano | Transmission of Information | MIT Press | 1961 | ||
Fano, 宇田川 _久訳 | 情報理論 (Transmission of Information) | 紀伊国屋書店 | 1965 | ||
Abramson | Information Theory and Coding | MacGraw-Hill | 1963 | ||
Abramson, 宮川 洋訳 | 情報理論入門 | 好学社 | 1969 | ||
福村 晃夫 | 情報理論 | 情報工学講座3 | コロナ社 | 1978 | 4339020028 |
有本 卓 | 現代情報理論 | 情報とシステムシリーズ | コロナ社 | 1978 | 4885520215 |
有本 卓 | 情報理論 | 共立数学講座 22 | 共立出版 | 1976 | 9784320011137 |
佐藤 洋 | 情報理論 改訂版 | 基礎物理学選書 15 | 裳華房 | 1973 | 4785321261 |
関 英男 | 情報理論 | オーム社 | 1969 | 4274070107 | |
磯道 義典 | 情報理論 | 電子情報通信学会 大学シリーズ G- 1 | コロナ社 | 1980 | 4339000418 |
宮川 洋 | 情報理論 | 電子通信大学講座 39 | コロナ社 | 1979 | 4339001023 |
小沢 一雅 | 情報理論の基礎 | オーム社 | 4875535031 | ||
甘利 俊一 | 情報理論 | ダイヤモンド社 | 1970 | 4478820007 | |
今井 秀樹 | 情報理論 | 昭晃堂 | 1984 | 4785611391 | |
南 敏 | 情報理論 | 産業図書 | 1988 | 4782890036 | |
G.A.ジョーンズ | 情報理論と符号理論 | シュプリンガーフェアラーク東京 | 2006 | 443171216X | |
濱田 昇 | 情報理論と符号理論 | 共立出版 | 2006 | 4320121643 | |
横尾 英俊 | 情報理論の基礎 | 共立出版 | 2004 | 4320121066 | |
平田 廣則 | 情報理論のエッセンス | 昭晃堂 | 2003 | 4785631430 | |
佐川 弘幸 | 量子情報理論 | 物理学スーパーラーニングシリーズ | シュプリンガーフェアラーク東京 | 2003 | 4431710248 |
平澤 茂一 | 情報理論入門 | 情報数理シリーズ A-6 | 培風館 | 2000 | 4563014869 |
小川 英一 | マルチメディア時代の情報理論 | コロナ社 | 2000 | 4339023728 | |
三木 成彦 他 | 情報理論 | 電気・電子系教科書シリーズ22 | コロナ社 | 2000 | 4339012025 |
韓 太舜 | 情報理論における情報スペクトル的方法 | 培風館 | 1998 | 456301401X | |
橋本 猛 | 情報理論 | 培風館 | 1997 | 4563013986 | |
大石 進一 | 例にもとづく情報理論入門 | 講談社 | 1993 | 4061538039 | |
三木 成彦,吉川 英機 | 情報理論 | コロナ社 | 1999 | 4339012025 | |
滝 保夫 | 情報論 ; 1 : 情報伝送の理論 | 岩波全書306 | 岩波書店 | 1978 |
情報理論は、その創始者がシャノンであることが広く知られており、歴史的な発展過程が明確である。即ち、シャノンが米国AT&Tのベル研究所時代に発表した論文「A
mathematical Theory of Communication」が、情報理論の出発点とされている。このときはまだ情報理論という言葉がなく、通信を数学的に扱う理論という名前で発表された。
この論文の解説は別途行うが、その後多くの研究者によりシャノンの提起した理論が詳細化、厳密化、拡大されて、多くの関連領域を派生させることになった。
名前 (日本語読み) | 国/所属 | 業績(代表的なもの) |
Berlekamp (ベールカンプ) | U.C.Berkeley, USA | BCH符号やReed-Solomon符号の復号法Berlekamp-Masseyアルゴリズム |
Fano (ファノー) | MIT, USA | Fano符号 (Shannon-Fano符号) |
Kolmogorov (コルモゴロフ) | Academy of Science, USSR | 連続的情報源に対するシャノン理論の拡張 (1956) アルゴリズム情報理論(algorithmic information theory)(1968) |
Bose (ボーズ) | Univ. of North Carolina, USA | BCH符号(Chaudhuriと共同)の発案 (1960) |
Ray-Chaudhuri (チョードリー) | Case Institute of Technology, USA | BCH符号(Boseと共同)の発案 (1960) |
Hocquenghem (オッケンジェム) | Conservatoire National des Arts et Metiers (CNAM), France | BCH符号の発案 (1959) |
Chaitin (チャイティン) | IBM T.J.Wats.on Res. Lab, USA | アルゴリズム情報理論(algorithmic information theory)(1966) |
Goray (ゴーレイ) | Signal corp., USA | Goray符号 (1949) |
Justesen (ユステセン) | Technical Univ. of Denmark, Denmark | 最小距離(Gilbert-Varsharmov)限界に近い効率の良い符号 (Justesen符号)(1972) |
Jelinek (ジェリネック) | Cornell Univ., USA | 歪を許容する無記憶情報源符号化(1969) |
Hamming (ハミング) | Bell Labs, USA | ハミング(Hamming)符号 |
Huffman (ハフマン) | MIT, USA | 最適符号(Huffman符号)(1952) |
Reed (リード) | MIT | 誤り訂正符号<Reed-Solomon (RS)符号>(1960) |
Solomon (ソロモン) | MIT | 誤り訂正符号<Reed-Solomon (RS)符号>(1960) |
Gilbert (ギルバート) | Bell Labs, USA | ブロック符号の誤り率限界(Gilbert bound)(1952) |
Varsharmov (バルシャモフ) | USSR | ブロック符号の誤り率限界(Varsharmov-Gilbert bound)(1957) |
Elias (エライアス) | MIT | 消失通信路(Erasure channel)(1954) 畳み込み符号 (1955) |
Massey (マッシイ) | MIT | 多数決論理復号法 (1963) BCH符号, Reed-Solomon符号の復号: Berlekamp-Masseyアルゴリズム(1965) |
Kraft (クラフト) | MIT | 瞬時復号可能符号の条件(Kraftの不等式)(1949) |
McMillan (マックミラン) | Bell Labs | 一意復号可能符号の条件(McMillanの不等式)(1956) |
Feinstein (ファインスタイン) | MIT | Shannon理論の数学的厳密化 (1954, 1958) |
甘利俊一 (あまりしゅんいち) | 東大→理化学研究所 | 情報幾何学(1985) |
韓大舜 (ハンテスン) | 電通大 | 情報スペクトル的情報理論 (1997) |
喜安善市 (きやすぜんいち) | NTT通研、岩崎通信機 | 日本における情報理論教育先駆者、PCM通信、制御理論 |
Peterson (ピータソン) | Hawaii大 | 誤り訂正符号<CRC:Cyclec Redundancy Check)>(1961) |
Wozencraft (ボゼンクラフト) | MIT, USA | 逐次復号法 (1957) |
Forney (フォーニー) | MIT, USA | 連接 (Concatenated)符号 (1966) |
Gallager (ガラガー) | MIT, USA | 低密度パリティ検査 (LDPC)符号(1962) 復号誤り率の上界改善 (1965, 1967) 歪を許す情報源符号化定理(Rate distortion theory)のエルゴード情報源への拡張 (1968) |
Lempel (レンペル) | Israel | データ圧縮符号, Universal符号 (Lemple-Ziv符号)(1977) |
Sloane (スローン) | ||
Viterbi, Andrew (ビタビ) | 畳み込み符号の限界と最尤復号法(Viterbiアルゴリズム)(1967) | |
Wyner, Aaron D. (ワイナー) | ||
Weaver, Warren (ウィーバー) | Rockefeller Foundation | The Mathematical Theory of Communication (1949, Urbana: University of Illinois Press) |
Ziv (ジフ) | Israel Institute of Technology, Israel | データ圧縮符号, Universal符号 (Lemple-Ziv符号)(1978) |
Rissanen (リッサネン) | Helsinki Intitute for Information Technology (HIIT), Finland | Universal符号、MDL理論 |
Berger (バーガー) | Cornell Univ. | 歪を許す情報源符号化定理(Rate distortion theory)の連続情報源への拡張 (1968) |
室賀 三郎 (むろがさぶろう) | NTT通研→IBM→イリノイ大 | 通信路容量解法(1951)、パラメトロン計算機 |
嵩 忠雄 (かさみただお) | 阪大 | 誤り訂正符号<Kasami-Lin-Peterson符号> |
岩垂 好裕 (いわだれよしひろ) | NEC | 誤り訂正符号<岩垂符号> |
今井 秀樹 (いまいひでき) | 横浜国大→東大 | |
宮川 洋 (みやかわひろし) | 東大 | デジタル信号処理、情報理論の著作物 |
笠原 正雄 (かさはらまさお) | 阪大 | 誤り訂正符号、暗号理論 |
金谷 文夫 (かなやふみお) | NTT通研→湘南工科大 | データ圧縮理論、ユニバーサル符号 |
有本 卓 (ありもとすぐる) | 大阪大→東大→立命館大 | 情報源符号化、ロボティックス |
情報という抽象的概念を物理量として扱うために、その大きさ(或いは、多い少ない)の概念を定義したもので、シャノンによって導入された。情報はそれを発生させる元(これを「情報源」という)の種類により、離散的情報(デジタル情報)と連続的情報(アナログ情報)とに分類される。
情報量は、これらの情報が確率的に起きる物理的な量として捉えた概念であり、
『ある事象aが生起確率p(a)で起きる場合の情報量I(a)は、I(a)=log (1/p(a))=- log p(a)』
と定義される。
自己情報量とは上記の情報量のこと。自己というのはある事象(a)に着目しての、という意味で、後に定義される相互情報量と対比させるために明記するものである。
事象が1つだけでなく複数の事象を発生させる情報源で、事象が完全事象系をなす場合を考える。
完全事象系とは、それぞれの事象のいずれかが必ず起き、かつ異なる事象が同時に起きることはない系である。このような系で、各事象のもつ情報量、I(a)、は上記で定義される値、-
log p(a)、であるが、これを全事象について平均したものを平均情報量(平均自己情報量)と呼ぶ。
もともと、物理学の分野で物質の属性を表す量で、物質の乱雑さの度合いを示す量。熱力学あるいは統計力学における気体分子の無秩序さを示す量が、−捻i log Pi,の形であらわせることが知られていたが、情報理論における平均情報量の定義も同様な形となり、意味的にも同類の性質をあらわすことが分かり、エントロピーと呼ばれることとなった。
「自己情報量」はある1つの事象系について定義される量であるが、2つ(以上)の事象系について、両者の緊密度あるいは共通度を計る量として定義されるものが「相互情報量」。典型的な例として、入力事象系Aと出力事象系Bとが通信路を介して情報を送受信する場合を考える。Aの平均情報量(エントロピー)=H(A)は、出力Bを観測しない状況で入力Aがもつ曖昧さを表す。出力Bを観測した時に入力Aが持っている曖昧さは「条件付情報量H(A|B)」で表される。これらの差、H(A)-H(A|B)=I(A;B)、を「相互情報量」と呼ぶ。もし、AとBが全く独立のときは、Bを観測してもAの曖昧さは減少しないので、H(A|B)=H(A)、従ってI(A;B)=0となる。
2つ(以上)の事象系において、一方の事象に関する結果を知ったときに、他方の事象系のもつ情報量を表す量として、条件付情報量が定義される。上記の入力事象系Aと出力事象系Bとが通信路を介して情報を送受信する場合は、Bを観測するとAに関する情報(=不確かさでもある)は減少する課も知れないし、替わらないかもしれない、あるいは増大するかもしれない。これらは、H(A|B)=−這廃 (ai, bj) log p (ai|bj),により与えられる量であり、条件付エントロピーとも呼ぶ。
互いに排反なn個の事象が発生する事象の集合=標本空間S={E1,E2,E3,…,En}があり、各事象の生起確率をP(E1),P(E2),P(E3),…,P(En)とする。このとき、次の関係:
Σ P(Ei)=1
∪k=1...n (Ek)=S
Ei ∩Ej=φ
が成り立つ場合,Sを完全事象系といい、一般に次のような行列表現で表わす。
E= E1 E2 E3 … En
P(E1) P(E2) P(E3) … P(En)
完全事象系は、
数学の一分野で、非決定論的な過程を研究するもの。情報理論の基礎理論のひとつ。
情報理論は確率論(と統計論)を基礎に置いている。シャノンが情報理論の最初の論文(通信の数学的理論)を発表したとき、情報を発生する源(ソース)を確率的事象系としてとらえ、事象が生起する確率をもとに情報量を定義した。この考え方は、直感的解釈とよく合致するとともに理論的取り扱いもうまくいき、情報理論を発展させる原因となった。
確率的な試行において、試行結果に対応して変わる値を変数として定義したもの。例えば、コイン投げの試行において、表が出る場合と裏が出る場合がある。これらを表すのに、確立変数Xを、X(表)=0、X(裏)=1のように定義する。
確率変数(x)とそれに対応する確率P(x)との対応関係。例えば、さいころを6回投げるとき、E=「1の目が出る」確率P(E)は1/6となる。x=「Eが発生する回数」とすると、x=0,1,2,3,4,5,6の7とおりの値をとる確率変数で、その確率値P(x=i)は二項分布をなす。
確率変数Xが連続確率変数のとき、特定された点xでの確率、P{X=x} を与えることができない。そこで、xの周囲を含めて、区間において、確率変数Xの与える値を考えることにすると、その確率は、
で表される。この値を区間の幅、2
で割った値は、区間
における、Xの起きる確率に対する平均値を与えるであろう。すなわちこの値は次式で表される。
ここで、をどんどん小さくし、極限値として点xにおける確率変数Xの値が得られものを、確率密度と定義する。
2つの事象(AとB)があるとき,事象Bが起きるという条件のもとで,事象Aが起きる確率を条件付き確率といい,P(A|B)という記号で表す.もしBとAが互いに無関係(独立)ならば,Bが起きるという条件はAが起きることに影響を与えないので,P(A|B)=P(A)となる.
確率的な事象が時間的に起きる場合,すなわち確率変数が時間とともに変化する(時間に依存する)ものを確率過程という.
確率過程において,次(更に引き継き未来)に起きる事象の確率が,現在の状態にのみ依存して決まるものをマルコフ過程という.現在の状態が直前の結果にのみ依存する場合を単純マルコフ,2つ前までの結果に依存するものを二重マルコフ,という.3重,4重マルコフも同様に定義される.特に離散的値をとる(たとえば,天気の種別が晴,雨,曇,雪の4つに減退される場合の)マルコフ過程をマルコフ連鎖という.
情報が生成される(発生する)場をモデル化してとらえた概念.例えば,さいころ投げを行う場合,ある一定の目の数を出すので,さいころ投げの情報源(この場合は,離散的情報源)ととらえる.
確率的な事象において離散的情報を発生させる情報源.さいころ投げ,コイン投げ,じゃんけん,トランプカードの引当て,などが典型的な例.
確率的な事象において,連続値(アナログで計測される値)を発生させる情報源.音声・音楽・映像など自然現象で情報源と見なされる場合が代表的な例.
情報源が発生する記号や数字,文字をシンボルという.さいころ投げの場合は,1,2,3,4,5,6がシンボル.コイン投げでは表,裏がシンボル.
情報源の出力シンボルが,互いに統計的に独立である場合,その情報源は無記憶(記憶を持たない)という。例えば,さいころ投げで各回に出る目の数は互いに独立なので無記憶情報源と言える。
情報源の出力シンボルが,互いに統計的独立でない(依存関係がある)場合,有記憶(記憶を持つ)情報源という.下記のマルコフ情報源が代表的なもの.
記憶を持つ情報源としてはいろいろあるが、最も簡単にモデル化でき、実用上も重要な情報源としてマルコフ情報源がある。
マルコフ情報源とは、情報源の出力シンボルが,その時点をさかのぼるm個の出力シンボルのみに依存し,それ以前の出力シンボルには依存しないような情報を発生させる情報源、をいう。
情報源から発生する記号系列を別の記号系列に変換すること。変換の仕方はたくさんあるが、その中で情報の確率的な性質を利用してできるだけ短い記号系列に変換する「高能率符号化(データ圧縮ともいう)」が重要である。
雑音のない通信路における符号化定理とも呼ばれるもので,情報源(S)が与えられたとき,情報源シンボルあたりのr元符号シンボルの平均個数(符号長)は,r元単位で測った情報源のエントロピーH(S)にいくらでも近づけることができるが,この値より小さくできない.すなわち,2元符号の場合は,H(S)に近い符号長をもつ符号に符号化できる.
情報源符号化定理により、情報源の通報を符号化する場合、最も符号長の短い符号は情報源のエントロピーに近い符号であることが示されている。しかし実際にはエントロピーに等しい符号長の符号が存在するとは限らず、一般には実現可能な符号の符号長はエントロピーより大きくなる。この実際に符号化を行った時の符号長とエントロピーとの比は、符号化の良さを測る尺度となり、符号効率と呼ぶ。
一意に復号可能な符号化の中で、最も平均符号長の短い符号を最適符号化という。よく知られた最適符号化として、ハフマン符号化がある。
符号を元のメッセージに戻すことを復号化(decoding)というが、ある符号が唯一のメッセージにユニークに復号化できることを一意復号可能という。
符号を復号化する場合、符号語の最後のシンボルを受信した瞬間に復号化できる場合、瞬時復号可能な符号という。これが成り立つ符号は、符号語の長さに一定の制約が存在する。これを明らかにしたのが、クラフトの不等式、マクミランの不等式である。
瞬時復号可能な符号を作ることができるために、各符号語の長さが満たさなければならない制約を与える定理。米国MITのクラフトによって証明された(1949年)。
クラフトの不等式は瞬時復号可能な符号が存在する条件を示したものであるが、非瞬時符号でも一意に復号可能ならば符号語の長さはクラフトの不等式を満たさなければならないことを、米国ベル研のマクミランが示した(1956年)。
シャノンの情報源符号化定理は、適切な符号化を行えば、平均符号長(L)が情報源のエントロピーH(S)にいくらでも近づけることができることを示したが、このLが最も小さい符号(コンパクト符号)の具体的な構成法として米国MITのハフマンにより示されたもの。
必ずしもコンパクト符号であることは保証されていないが、それに近い(即ち、エントロピーH(S)に近い)符号長を与えるものとして、シャノン、ファノにより構成法が示されたもの。歴史的にはハフマン符号より古い。
情報源より発せられる情報(通報)を受信者に伝達するための媒体(メディア)のこと.しかし一般には,情報源からの通報はそのままの形では通信路で伝達することができないので,媒体に適した形に変換して送る必要がある.(→通信路符号化)
情報を通信路で送る場合、電気信号(電圧の大きさ、パルスの有無など)に変えて送る。しかし通信路ではこの信号に擾乱を与える要素、不規則あるいはバースト的に連続して発生する雑音(ノイズ)、ひずみ(Distortion)、などが存在する。これらを総称して「雑音」と呼ぶ。
情報源符号化により符号化された系列を、通信路で発生する雑音を考慮して、これに打ち勝ち、受信側で復号誤りをできるだけ小さくするように符号化することを通信路符号化という。情報源符号化ではできるだけ平均符号長を小さくしたコンパクト符号が最適であったが、通信路符号化では逆に一定の冗長性を挿入して長さはある程度犠牲にしても復号誤りを小さくする方法が求められる点が特徴である。
雑音がある通信路で受信誤り率を0に近づけるためには、冗長性を与える必要があるため、伝送速度は下がる特性がある。しかしこの速度限界が通信路容量(C)で与えられることを示したのがシャノンの本定理である。すなわち、伝送速度(R)が、R<Cなる条件であれば、任意に小さな復号誤り率の符号が存在することを示した。
通信路の送信系列(A)と受信系列(B)の間の相互情報量I(A;B)は、受信系列(B)を知ることによって送信系列(A)に関して得られる情報量、つまり通信路によって運ばれる情報伝達量、を表す。これは、送信記号の発生確率p(ai)に依存して変わる量である。例えば、送信系列のエントロピーがH(A)=0のときは、送信側から情報が送り出されていないので、I(A;B)=0となる。このように、I(A;B)は通信路自体が備えている能力を表すには不適当である。そこで、送信系列をいろいろ変えたとき、伝達量が最大になる量を定義し、これを通信路容量という。
帯域が制限された相加性ガウス通信路において、信号の電力スペクトル密度関数S(f)、雑音の電力スペクトルN(f)とし、信号の平均電力が一定値(P)に制限されている場合、相互情報量を最大にするS(f)は、S(f)+N(f)=一定値を満たすことが知られている。この物理的意味は、雑音N(f)が与えられたとき、N(f)+S(f)=P(一定)を満たすように、即ち、N(f)の小さいところから池に水をため込むように信号S(f)を与えれば相互情報量I(X;Y)が最大となり、通信路容量を達成する。これが注水定理と呼ばれる。
通信路符号化定理(シャノンの第2定理)は、雑音のある(即ち、誤りが発生する)通信路においても、その通信路の通信路容量Cより小さい転送速度R(<C)で送れば、受信側での誤り率をいくらでもゼロに近づけることができることを述べている。
しかし、そのような具体的な符号化の方法はシャノンは示さなかった。シャノン以後の多くの研究者は、通信路符号化定理を実現する具体的(構成的)な符号を見つける作業を続けている。この研究分野を符号理論という。
雑音を発生する通信路においては様々な誤りが発生する。シャノンの通信路符号化定理によれば、適切な符号化をしてかつ符号長を十分長くとれば、通信路で誤りが発生しても復号誤り率を限りなくゼロに近づけることができる。このように、誤りが生じたとき、正しい元の符号に復号することを誤り訂正という。
誤りが発生したとき、誤りが生じたこと(存在すること)のみを受信側でわかるようにすることを誤り検出という。受信側では送信側に再送を求めたりする。
前方向誤り訂正(Forward error correction)のこと。誤り訂正では、受信側で系列を調べて、誤り箇所や内容を判別し、送信側に問い合わせることをしない。この方式は後ろ(送信側)に戻さないため、前向きの誤り訂正という。
自動再送要求(Automatic Repeat Request)のこと。受信側で誤りを検出した時、送信側に再送を要求して、再送を待って訂正する一連の手順を自動的に行う方式。
FEC方式とARQ方式の両方を総称して誤り制御(Error Control)という。
誤りが発生したとき、その誤りの位置を示すn次元ベクトルで表わされる系列(但し、nは符号語の長さ)。即ち、第i番目に生じた誤りは、ei=(0,0,..,1,0,..0)と表わされる。誤り系列ともいう。
情報源を符号化する場合、通信路で雑音が生じなければできるだけ符号長を短くする符号が効率が良い。これに対して、雑音が発生する通信路に情報を送出する場合、受信側で誤りなく復号できることが必要である。このためには、符号語の中にある程度冗長なビットを追加することである。この原理は、符号語をn次元空間の点(頂点)のサブセットと考え、一定の誤りパターンの距離だけ離して配置すれば、途中で一定限度以下の誤り(誤りパターン)が生じても、元に戻せる(復号できる)、という考え方である。
情報源の系列を符号化する場合に、固定された符合語の割り当てかたを考えるのでなく、長さ(n)の系列の中から無作為(ランダム)に1個ずつ符号語として系列を選び割り当てる方法をいう。この方法は実用的ではなく、極端な場合はすべての情報源系列に同じ符号語が割り当てられることもある。しかし、このランダム符号化法は、誤り率上界の推測、評価が容易になるメリットがあり、シャノンが初めて通信路符号化定理を証明する際に導入した。
符号の誤り訂正(あるいは 誤り検出)能力を示す指標として符号語の間の距離がある。2元符号の場合、符号語は2元シンボルの系列で表されるが、これ幾何学的に長さnの2元シンボルの系列u、vを考える。すなわち、u=(u1,
u2, u3,...,un)、v=(v1, v2, v3,..., vn)とする。各成分ui, vjは0か1かである。このとき、uとvとの間のハミング距離H(u,
v)は、次のように定義される。
u=(u1, u2, u3,...,un)、v=(v1, v2, v3,..., vn)のハミング距離 H(u, v)は、
H(u, v)=Σi δ(ui, vi)
ここで、δ(ui, vi) =0 (ui=vi); δ(ui, vi) =1 (ui≠vi)
で定義される。
すなわち、ハミング距離は2つの系列の相対応する位置にあるシンボル(文字)が互いに異なる場合の全体総和として定義される。例:u=(1,1,1,1,1),
v=(1,0,1,0,1)、の場合、H(u,v)=2、となる。
ある符号のすべての符号語の間のハミング距離は一定ではなく、異なるのが通常である。
Cycle Relundancy Codeの略。
暗号理論は、情報理論の
逐次暗号
ブロック暗号
ストリーム暗号
転置暗号
暗号安全性
シャノン暗号理論
暗号鍵
秘密鍵暗号
DES暗号
FEAL暗号
公開鍵暗号
RSA暗号
離散対数問題
楕円曲線暗号
認証
ディジタル署名
暗号プロトコル
ユニバーサルギャンブリング
データ圧縮と賭け
標本化
量子化
帯域制限信号
シャノン染谷の標本化定理
時間領域の標本化定理
周波数領域の標本化定理
標本化定理の変形版
データ圧縮
高能率符号化
速度歪理論
英語ではレート・ディストーション(Rate-Distortion)理論という。
無歪圧縮
圧縮限界
エントロピ符号化
FV符号
VF符号
アルファベット順符号
有歪圧縮
RSA暗号
安全性
対話証明
ゼロ知識
識別不可能性
完全識別不可能性
統計的識別不可能性
計算量的識別不可能性
ゼロ知識証明
楕円曲線
指数計算法
楕円エルガマル暗号
楕円RSA暗号
量子力学
量子情報
量子計算
量子誤り訂正符号
量子暗号
LZ符号
Rissanen符号
MDL原理
漸近的最良性
情報源の幾何学
ダイバージェンス
ターボ符号
LDPC符号
反復復号法
sum-product符号
BP原理
密度発展法
2部グラフ
タナーグラフ