したがって、エントロピーは増大に向かうというのが、熱力学の第二法則であると。
しかしながら、情報理論においては、2を底とする対数でエントロピーを求めるということですから、情報量が多いほどエントロピーが大きくなり、情報量が減ると、エントロピーが減ることになります。
これはいったいどういうことなのでしょう。
情報理論におけるエントロピーは、乱雑さを表さないで、何か別のものを表しているのでしょうか。なぜ、そうなのですか。
情報理論におけるエントロピーは、熱力学における乱雑さの指標とは別のものです。
具体的には、「あるできごと(事象)が起きた際、それがどれほど起こりにくいかを表す尺度」です。
なぜそうなのかと言えば、上記で定義されるものをクロード・シャノンが「エントロピー」と名付けたからです。
基礎的知識として、Wikipedia 日本語版の 情報量、または Wikipedia 英語版の Entropy (information theory) をご参照ください。
また、熱力学のエントロピーと情報理論におけるエントロピーの相似点(および相違点)については、Wikipedia 英語版の Entropy in thermodynamics and information theory をご参照ください。
ご参考になれば幸いです。
熱力学というより統計力学ですね。
熱力学では巨視的な物理量を使って dQ/T の積分として定義され、統計力学で微視的な定義、-ΣP Log P を使うとこれが熱力学の定義と一致することが分かります。
この統計力学の定義と同じ式になるので情報の方もエントロピーと呼ばれます。
それで感覚的な説明になりますが、たとえば0-255が均等にランダムに表れるファイルと、0だけが続くファイルを見てどちらが乱雑に見えますか?前者ですね。実際統計力学では前者のエントロピーが大きくて、情報量も多いです。
乱雑でない信号列というのは実際に信号をみなくても内容が予想できる、すなわち信号あたりの情報の価値が低いということです。
dummy http://a
ありがとうございます。
積分やシグマ関数のところはよく理解できませんが、「0-255が均等にランダム」という乱数表のようなものと、全部0と、どちらが乱雑かと聞かれても、よくわかりません。
たとえば、意味のあるデータ(流行歌のファイル、Google Earthの街中の写真)と、0だけ続くデータでは、0だけ続くデータのほうがエントロピーが大きい(乱雑さが大きい)のではないでしょうか。
あるいは、ハミング符号やヴィタビ符号化を行なったデータと、行なわないデータでは、行なわないデータのほうがエントロピーが大きいと思います。
そのあたりの実感が、ご説明からどうしてもわいてこないのです。
シャノンはフォン・ノイマンに「エントロピー」と名前をつけるのを推したそうです。
なぜなら、「誰もエントロピーが何かを知らないので論争で負けることはない」からと
言ったそうです。
http://ja.wikipedia.org/wiki/%E3%82%A8%E3%83%B3%E3%83%88%E3%83%A...
確かに、情報量の定義は形式的にはボルツマンのエントロピーの定式化 S=Log W と類似でしたからねえ。
でもって、質問にかんすることですが、情報量はシャノン・エントロピーで、熱力学のエントロピーより普遍的なものなのだそうです。一致しているケースでは符号が逆だという指摘もあります。入り組んだハナシなので参考書を紹介します。
包括的に論じたポピュラーサイエンス本がこれですが、けっこう面白うございますです。
宇宙を復号する―量子情報理論が解読する、宇宙という驚くべき暗号
ここで紹介されてるランダウアーの定理によると「情報を消去する時だけに熱が発生する」!
データ書き込みには熱は発生しないで、削除のときに熱が生じ、この熱がエントロピー増大のもとになるのだそうです。
回答ありがとうございました。
ちょっと怪しげなエピソードですが、シャノンという学者のその後を知ると、そういうのもありえるかなと思ってしまいます。
フォン・ノイマンは、独自にエントロピー概念を模索して、模索して、結局概念化できないままに亡くなってしまったようですので、フォン・ノイマンがシャノンに入れ知恵した可能性もありますね。
こうやって知らない本をご紹介いただけるのが、はてなの醍醐味です。
よくもこうやって翻訳出版してくださったものだと、訳者と出版社に感謝します。
読んでみます。
ありがとうございます。
しかし、なぜ、シャノンはそれを、エントロピーを名付けたのでしょうか。
そのあたりがよく理解できません。