人力検索はてな
モバイル版を表示しています。PC版はこちら
i-mobile

http://q.hatena.ne.jp/1204938766
にあげた質問を取り扱うような学問はあるのでしょうか.また,基本的な教科書があれば指示願います.

●質問者: U-tan
●カテゴリ:科学・統計資料
✍キーワード:学問 教科書
○ 状態 :終了
└ 回答数 : 3/3件

▽最新の回答へ

1 ● felix33jp
●0ポイント

このあたりでは

http://www.chem.ous.ac.jp/~gsakane/fun/

◎質問者からの返答

単に電子軌道だけでなく,原子の持つ単位時空あたりの自由度を考えて1秒なら1秒で何通り遷移過程が考えられるかというようなことを知りたいのです.

ありがとうございます.


2 ● ardarim
●50ポイント

エントロピーの概念に関連してくると思いますので、熱力学関連の資料が参考になるかと思います。


エントロピー - Wikipedia

エントロピー (entropy) とは、物質の属性の一つ。記号「S」を用いて表される。物や熱の拡散の程度を表すパラメーターである。次元はJ?K-1である。

S = kBlnΩ Ω: 物質がとる状態の数、kB: ボルツマン定数
と定義される(後述の統計力学の項を参照のこと)。 はじめは熱力学の研究対象であったが、研究が進むにつれ、物質から得られる情報に関係があることが指摘され、情報理論に応用されるようになった。

情報量 - Wikipedia

「エントロピー」の概念は1865年にルドルフ・クラウジウスがギリシャ語の「変換」を意味する言葉を語源として、熱力学における気体のある状態量として導入した。これは統計力学では微視的な状態数の対数に比例する量として表される。1929年にはレオ・シラードが、気体についての情報を観測者が獲得することと統計力学におけるエントロピーとの間に直接の関係があることを示し、現在 1 ビット(1 シャノン)と呼ぶ量が統計力学で k ln 2 に対応するという関係を導いていた[1]。

現在の情報理論におけるエントロピーの直接の導入は1948年のクロード・シャノンによるもので、その著書『通信の数学的理論』でエントロピーの概念を情報理論に応用した[2]。シャノン自身は統計力学でこの概念と関連する概念がすでに使われていることを知らずにこの定義に到達したが、その名称を考えていたとき同僚フォン・ノイマン(数学)が、統計力学のエントロピーに似ていることを指摘し「統計エントロピーが何なのかを理解してる人は少ないから議論になったときに君が有利であろう」と語ったことを受けて、シャノンはエントロピーと名付けた[3]。
◎質問者からの返答

もう少し具体的な形で知りたいのですが,基礎としてはこのぐらいまでさかのぼったほうがよさそうです.klog2が1ビットに対応するというのは言われてみると自然ですね.(←コインの裏表の出る確率のエントロピー)(個人的な話ですが,ここにもフォンノイマンがでてきて唖然としました.)

ありがとうございます.


3 ● AZUY
●30ポイント

このあたりでしょうか?

http://www.ringolab.com/note/daiya/archives/004357.html

◎質問者からの返答

ありがとうございます.

関連質問


●質問をもっと探す●



0.人力検索はてなトップ
8.このページを友達に紹介
9.このページの先頭へ
対応機種一覧
お問い合わせ
ヘルプ/お知らせ
ログイン
無料ユーザー登録
はてなトップ