情報の持つ意味、世の中を理解しておく為に最も重要な情報
クロード・エルウッド・シャノン(1916-2001アメリカの電気工学者、数学者。20世紀科学史における、最も影響を与えた科学者の一人。1948年『通信の数学的理論』で、シャノンは通信における基本問題を取り扱うために、情報の量(情報量)を事象の起こる確率によって定義し、連続して起こる確率事象の情報量の期待値(平均情報量)であるエントロピーの概念を導入した。(Wiki)
情報とは何か?
認知科学においては情報とは、「心のはたらきや心の情愛に変化を与えるもの」と定義される。それでは情報理論では情報をいかに定義するか?
シャノンの情報理論入門 (ブルーバックス)高岡氏は計算機科学の研究家。本書はシャノンの1948年『通信の数学的理論』の解説書。
情報はすべて数値に変換できる。
情報量は選択肢の数の対数によって定義され、選択肢の発生確率が1/2の時に情報エントロピーは最大になる。
(64ページ)
情報は標本化→量子化→符号化により圧縮できる。これにより情報は圧縮されるが圧縮されたデータ量は圧縮前データの持つ情報エントロピーを下回る事はない。
(83ページ)
情報の通信中の誤りを検出する事のできる符号を付加する事で事後的に訂正できる方法を考案
0 | 1 | 1 | 0 | 1 | 1 | 0 | 0 | 1 | 1 | 0 | ||||
1 | 1 | 1 | 1 | 1 | 1 | 1 | ⇒ | 1 | 1 | 1 | 1 | |||
1 | 0 | 1 | 1 | 0 | 1 | 0 | 通信 | 1 | 1 | 1 | 1 | |||
0 | 0 | 1 | 0 | 0 | 1 | 1 | 0 | |||||||
送りたい情報 | 誤り訂正用の符号を不可 | 赤字の部分が通信による誤り | ||||||||||||
青字の符号によりエラーを発見・訂正可能 | ||||||||||||||
(本書143-144から再構成)
シャノンの情報理論の持つ意味
1948年当時、有線通信は帯域が限られており音質が悪く情報通信コストが高かった。これを情報は数値化でき、情報の圧縮につながり、通信の質(正確性)、スピード、コストを劇的に向上させる数学的な定義と解法を明らかにしたことと理解した。
現在の我々は使い放題のインターネットが当たり前、情報の通信コストは劇的に下がりシャノンの情報理論は当然となっている。だからこそ、「情報の価値を数学的に表現できる」という事の重要性が今一つ理解できないのかもしれない。
情報の価値、今から100年前の競馬において
話は20世紀初めの米国。電信会社に勤めていたペインという人が競馬情報サービスを始めた。
「新会社は、競馬場の結果を『のみ屋』につたえることだけを目的としていた。ペインは地元の競馬場に従業員を駐在させた。馬がゴールラインを通過した瞬間、駐在員は手鏡を使い、勝ち馬を暗号にして、近くの高いビルにいる別の従業員に知らせた。この従業員が、結果をシンシナティ中の『のみ屋』に電信で伝えた。今はどこでもスポーツ中継があるので、ペインの商売の価値はすぐにわからないかもしれない。しかし当時は、この電信によるレース結果の配信がなければ、勝ち馬の情報が『のみ屋』に届くまで何分もかかることもあった。この遅れを利用すれば、いかさまができた。『のみ屋』が勝ち馬を知る前に客がしれば、すぐに勝ったことがわかっている馬にかけることができるのだ。(天才数学者はこう賭ける―誰も語らなかった株とギャンブルの話 10ページ)
蛇足
「重要な情報」は一度発見されると当然となり、人はもはやその重要性を意識できないという「重要な事」に気づく。