人の耳の周波数分解能の平均は(たとえばビット深度で言うと…他の単位でも結構です)、どのくらいですか? できれば、日本人に関するデータもあるとうれしいですが、ヒト全般でも結構です。
「ビット深度」というと音の場合周波数ではなく振幅方向の解像度を表す場合が多いように思うのですが,周波数解像度についてお調べでしょうか?
周波数軸の分解能というか解像度もどういう回答をお望みかわかりませんが,例えば楽器の音程の違いを検知できる限界というのであれば,ピッチ知覚のjnd(Just noticeable difference)になるので,大体5セントの様です。
http://ja.wikipedia.org/wiki/%E9%9F%B3%E9%AB%98
ただし,これはピッチの話ですから,音色の変化がわかる周波数の分解能とかにはなりません。
一方聴覚の周波数の単位の考え方として臨界帯域というのがあります。
http://www.ince-j.or.jp/03/03_1.html
臨界帯域幅に入る周波数成分と,入らない周波数成分はお互いの関与の仕方が異なるため,ここにもある周波数の解像度の単位があると思われます。臨界帯域の幅は
http://ja.wikipedia.org/wiki/%E3%83%90%E3%83%BC%E3%82%AF%E5%B0%B...
を参照ください。
臨界帯域は直接の周波数分解能とはいえませんが,マスキングの特性を表していますし,音の圧縮などにはマスキングの特性が利用されますので,間接的には,関係がある様に思います。
言語音に関しては,
生体的な特徴によって決まっている基本周波数と
フォルマント周波数の組み合わせによってできているそうです
ヒトは基本周波数はよく聞こえませんが,
フォルマント周波数帯域はよく聞こえるしくみになっています
>母音(あ)の基本周波数、フォルマント周波数の測定
>
>当時の日本語音声の測定で、研究結果として、日本語の音声の発音は、測定結果
>として、少なくとも二つの周波数が組み合わさって出来ていることがわかり
>ました。またそのうちのひとつは、基本周波数と呼ばれるもので、
>男性は150Hzくらい、女性は250Hzから300Hzくらいノが確かめ
>られ、文献によると子供はさらに高い周波数、さらに想像ですが赤ちゃんは
>さらに高い周波数と考えられました。これはのど仏の周波数で、のど仏と、声帯
>を構成する、のどの管の物理的な特性、太さ、長さによるものでした。これは
>声を分析すると、その生体的な特徴が計算から求められることを意味しました。
>
>またもうひとつは、フォルマント周波数と呼ばれるものです。これは発音する
>ときに、口や、舌を使い、音の高さを作るものです。この音の高さが基本周波数
>とは別に存在しました。
>
>
>第1フォルマントは共鳴周波数のなかでは一番低い周波数ですから一番下の赤い
>部分、第2フォルマントは2番目の赤い線の部分、一番下の青色の部分の真ん中に
>薄い細い緑色は110HZくらいで、基本周波数のはずです。基本周波数は低い
>周波数ですから、エネルギー的には大きいのです。それでも基本周波数はよく
>聞こえないものです。そのわけは人間の場合、聴覚の特性で、聞こえなくして
>あるからです。その反対に、フォルマントなどの必要な周波数帯域はよく聞こえ
>ます。またこの今回の発声とおなじようにスペクトグラムの分析からの音声認識
>の場合は、パターンが変化するため、同定しようとすると、データベースと比較
>して一番近いものを探します。この分析方法は、扱うデータも多く複雑です。
>ACF分析で同様に行うとすると、最初のピークτ1から順に基本周波数までの
>ピークを山の遅れ時間と高さなどの数値を使用して行います。
http://www.ymec.com/hp/signal/voice1.htm
言語音のうち,母音はフォルマント周波数の組み合わせによって,
子音は周波数の情報と,
それらが時間的にどのように変化するかという時間的情報によって
認知されるようです
内耳の蝸牛内の場所の違いによって
担当する音の高さ(周波数)が異なると考えられています
内耳(蝸牛)の障害による内耳性難聴の場合は,
大きな音がすると蝸牛全体が刺激されてしまうため,
言語音の周波数特性や時間的な変化の情報が失われてしまいます
そこで「人工内耳」は,
言語音の特徴を符号化して聴神経を直接刺激することで,
限られた情報で言語音の認知させることを目指しています
>3.言葉の音としての特徴と内耳の働き
>
>われわれが話すコトバにはどのような特徴があるのでしょうか。例えばわれわれ
>日本人の話すコトバについてみると、五つの母音と“p、t、k、s”など 10数個の
>子音に母音が結合した子音音節から成り立っています。これら母音や子音音節の
>音響的な特徴はサウンドスペクトログラムというグラフで観察するこ とができ
>ます。これで見ると、それぞれの母音に特徴的な濃い線がそれぞれ数本ずつ
>観察できます。これをフォルマントといいます。声帯の振動数である基本周波数
>(F0)はほぼ100~250Hzの範囲にあり、一方このフォルマントの周波数帯域は
>かなり高い所に位置しています。フォルマントは声帯の振動が口腔 や咽頭腔で
>共鳴し、特定の周波数帯域のエネルギーが強調されて出来たもので、低いほう
>から第1フォルマント(F1)、第2フォルマント(F2)、さらに第 3(F3)・第4
>(F4)フォルマントと数えることができます。しかし、大変興味深いことに
>各フォルマントの周波数帯域には大きな個人差がなく、それぞれ の母音でほぼ
>決まっているのです。なかでも第1フォルマントと第2フォルマントは母音の情報
>として最も重要で、この両者の組み合わせが我々の母音認知の鍵 となっているの
>です。
>
>一方、子音音節は先頭の子音部、移行部分、そして後続母音部から成り立って
>います。子音音節を特徴付けるものは、持続時間は短いが幅広い周波数にわたる
>子音部と、これに続く移行部分です。また同じ子音でも“p、t、k”などの無声破
>裂音は極めて短いクリック音ともいえる子音の信号のみであり、かつ この子音部
>を少しカットしても、移行部分の情報がしっかりしていれば各子音音節の区別が
>できることがわかっています。このように、子音音節がわかるためには、その
>周波数の情報だけでなく、それらが時間的にどのように変化するかという時間的
>情報も大切になります。
>
>それでは、この様な言葉の情報は内耳でどのように処理されているのでしょう
>か。現在広く認められているBekesyの場所理論によると、入ってきた音に対して
>基底板が最も大きく振動する部位は低音は蝸牛の先端付近、高音は根本付近と
>それぞれ場所が異なっています。このように蝸牛内での場所の違いに よって担当
>する音の高さ(周波数)が違う事が、あとに述べる人工内耳によるコトバの聞き
>取りにも重要な意味を持つことになります。蝸牛のそれぞれの場所か らの情報を
>脳に向かって伝える聴こえの神経には、最も鋭敏に感知する高さの音がそれぞれ
>決まっています。上に述べたようなコトバの持つ周波数の情報は、蝸牛のどの
>部分が刺激されるかという場所とその変化のパターンの違いとして聴神経に伝達
>され、これが脳に送られて言葉が認知されるのです。
>
>4.内耳性難聴でどうしてコトバがわかりにくくなるのか
>
>これまでの説明で、コトバの情報の入り口として内耳(蝸牛)がとても重要な
>働きをしていることがおわかり頂けたと思います。つまり、内耳が大丈夫なら
>コトバの聞き取りはなんとかなるのです。中耳が悪くて内耳に入る音が小さ
>ければ、手術か補聴器でこれを大きくしてやれば、内耳のなかでは正常と
>同じメカニズムが働けるのです。
>
> ところが、内耳(蝸牛)に障害が生じると、同じコトバが入ってきて蝸牛の
>基底板が振動しても、有毛細胞がこわれてしまっているため、それにくっついて
>いる聴神経が活動できないので、全体として、あるコトバに対応する神経の活動
>パターンが変わってしまいます。では、内耳に入る音を大きくしたらどうで
>しょうか。少しくらいこわれたり、弱ったりした有毛細胞があっても、音を
>大きくして蝸牛の基底板の振幅を大きくし、聴神経の活動を助けてやれば良さ
>そうに思えます。これは、かなり有効で、補聴器が行っているのは、基本的には
>この作戦なのです。
>
>しかし、内耳に大きい音を入れる事には根本的な問題が含まれています。蝸牛に
>入る音が大きくなると、それによって刺激される蝸牛の部分も拡大し、 極端に
>大きな音になれば蝸牛全体が刺激される事になります。ところが、すでに述べた
>とおり、コトバは蝸牛の幾つかの特定の部分が選択的に刺激されることで、
>それぞれの特徴が区別できるようになっているのですから、蝸牛全体が刺激
>されてしまっては、音がしていることは解っても、それがどのコトバの特徴を
>もっているかはわからなくなって行きます。実際には、コトバには蝸牛の場所に
>対応する特徴だけでなく、その時間的変化の情報も含まれていますが、蝸牛の
>基底板の振動が過大になり、うまく制御できなくなってゆくとこの時間情報も
>損なわれて行くと考えられます。つまり、内耳が障害されていると、大きな音を
>入れ る必要がでてきますが、内耳への大きな音の入力によってかえってコトバの
>情報が正確に聴神経に伝わらない可能性があるのです。ある程度音感が残って
>いても 補聴器ではコトバがわからない場合がでてくるのはこのためで、有毛細胞
>を介して音の情報を入力するかぎり、原理的に克服できない限界があるのです。
>そし て、まさにこの限界を克服するために考えだされたのが人工内耳で、これは
>有毛細胞を介さずに聴神経を直接刺激して、コトバの神経活動の選択的パターン
>を再現することを目指しています。
>(以上の議論は、論旨を明解にするためにかなり細部を省略しています。詳しく
>は参考文献を参照してください。)
>
>参考文献
>○内藤 泰:一次聴神経による語音の符号化-文献的考察.
>耳鼻臨床86:1607-1620, 1993.
http://www.kuhp.kyoto-u.ac.jp/~ent/Topics/ci/ci1.html
>Ⅱ. 人工内耳の原理と聞こえの回復
>
>「コトバの聞こえのしくみ」の項で述べたように、音の振動は蝸牛の有毛細胞の
>電気的状態を変化させ、これが聴神経の活動に変換されて脳へ向かって 伝達
>されます。この一連の経路の中で、最も脆弱なのが有毛細胞で、内耳性の高度
>難聴で治らないものの殆どがこの有毛細胞の障害によるといってよいでしょう。
>そして有毛細胞を経由せず、聴神経を直接電気で刺激して音感を得るのが人工
>内耳です。人工内耳が全ての聴神経について有毛細胞を介するのと同じように
>神経活動を引き起こす事ができれば、人工内耳でも聴力正常者と同じ様にコトバ
>の認知ができるはずです。しかし、内有毛細胞がひとつの蝸牛で約3500個
>あり、さらに個々の内有毛細胞が独立して各々約10から20本の聴神経に音
>情報を伝達しているのに対し、人工内耳は高々20数個の電極を使って多数の
>一次聴神経を強制的に活動させるもので、これだけでも人工内耳で聴神経に送り
>込める情報量が、正常の蝸牛を介する場合よりはるかに少なくならざるを得ない
>事がわかります。したがって人工内耳を使って限られた情報で言語音の認知を
>行うには、コトバの音の中に含まれる情報のうち言語として重要な特徴を特別に
>選んで入力する必要が出てくるのです。音刺激に対して聴神経がどの様に活動
>するかは、動物実験でなら詳しくわかりますが、このうちどの要素が言語認知に
>最も重要なのかは言語をもたない動物ではわかりません。これが人工内耳でどの
>様に聴神経を刺激するかを決めるのが難しい理由ですが、開発当初から幾多の
>試行錯誤を経 て改良が加えられ、それに伴って人工内耳による語音認知の成績も
>着実に向上してきています。ここでは、各種の人工内耳に共通する機器の構成と
>現時点での最も標準的な符号化法(人工内耳がどのようにコトバの音を電気刺激
>に変換するか)について概説します。
http://www.kuhp.kyoto-u.ac.jp/~ent/Topics/ci/ci2.html
>人工内耳は高度難聴で、補聴器の装用効果が不十分な方の聞こえの補助のために
>作られた医用電子機器です。人工内耳は音を電気刺激パルスに変換します。
>このパルスが聴神経を刺激し、脳が音として解釈します。
http://www.nihonkohden.co.jp/audio/hearing.html
人工内耳とコミュニケーション―装用後の日常と「私」の変容をめぐる対話
お母さんとトレーナーのためのよくわかる人工内耳装用児の言語トレーニング
>「ビット深度」というと音の場合周波数ではなく振幅方向の解像度を表す場合が多い
えっ?そうですか?知りませんでした。
「音色」は単なる周波数で形成されるものではないし、音色は心理学的・認識論的な領域の話であって、無限にあるので、数値で表現することはできません。ので、関係ありません。
しかし、ご回答は、一定の目安になりました。ありがとうございます。