人力検索はてな
モバイル版を表示しています。PC版はこちら
i-mobile

情報理論では、書き言葉がデジタル、話し言葉がアナログだと教えます。
しかしこれは、ビットデータに変換するにあたって文字は簡単に符号変換できるが、音声符号は難しいということでしかない。

五官の知覚にとっては、網膜上に二次元に映し出される点と線からなる文字データはアナログであり、耳から離散信号として脳に送られる音声符号こそデジタルだといえる。

そして、網膜から脳に送られた点と線のアナログ文字データは、脳内で無音の内言語(inner speech)としてデジタル音響符号化されることによって、脳内でデジタル処理できるようになる。

見慣れた文字データを、内言語にせずに、アナログな形状に対応するデジタル符号としてデジタル化することも可能であるが、この場合には文法要素が脳によって処理されなくなる。

脳が扱うデジタルデータは、機械の扱うbitではなく、音節と同じ数だけある無音のデジタル音響符号phonit(phonetic digit)である。これは1信号あたりbit換算で7ビット近い情報量があるために、機械がそれをbitに換算するのは大変なのである。

という結論になりました。賛成意見、反対意見があればどうぞ。

1250089244
●拡大する

●質問者: ShinRai
●カテゴリ:コンピュータ 科学・統計資料
✍キーワード:BIT アナログ デジタル データ ビット
○ 状態 :終了
└ 回答数 : 27/27件

▽最新の回答へ

[1]確認ですが dev_zer0

図の灰色部分がアナログ、黄色部分がデジタル部分と言うことですよね?

そして、id:ShinRaiさんの認識は黄色がデジタル部分であるという主張ですよね?

ならば、音声を含む人間の聴覚はCDなどでデジタル化されているので

デジタルであるという主張は間違っては居ないと思います。

もっと言えば、脳自体も電気信号の塊なので、今はともかく

将来はデジタル化されるであろうと予告します。


[2]>1 脳神経は電気信号の塊なのですね、だからその動作はデジタルなわけですね ShinRai

書き込みありがとうございました。

ええ、灰色の部分はアナログ、二色(黄色と青)の部分はデジタルとアナログが両方通過する聴覚と、デジタルとアナログがセットになっている概念、書記言語をデジタル音響化する音韻ループ、レモン色はフォニットの処理経路です。

そして、赤い四角で囲んでいる上の部分は「長期記憶(意識、語彙)」、下の部分は「思考と作業記憶」で、デジタルエンジンです。

音響のCDなどはビットデジタル、しかしヒトの脳はフォニットデジタルであるので、より多値的なデジタル処理が行われているのだと思います。


[3]>2 ヒト以外の動物の脳もデジタル方式で作動しているのですが ShinRai

デジタル符号を持たないために、アナログ符号化しかできない。

だから、保有できる符号の種類や数に限界があるのですね。

ヒトの場合は、デジタル符号でインデックスを作ることができるから、無限数の記憶を管理できる。

ここに大きな違いがあるのでしょう。


[4]脳はデジタル動作なのでしょうか? keino

私は、「アナログとデジタルの境界は実はあいまいである」というのを自分の現時点での結論にしています。

量子力学で「光は粒子でもあり波でもある」としていますが、同じように実は大部分の事物は両方の性格を持っており、そのときの処理系で扱いやすい方法に注目しているに過ぎないと考えます。

現実に、アナログ値を離散フーリエ変換処理すればデジタルデータとして取り扱うことができますし、逆変換も存在します。

ところで、脳内でどの部分がデジタル処理をしており、どの部分がアナログ処理をしているというような根拠になりそうな出典はあるのでしょうか?この分野はあまり得意でないのですが、よろしければ参考までにお教えください。


[5]>4 反対 rafile

音声信号は、周波数は離散でしょうけど、強度はアナログじゃないでしょうか。これはすなわちアナログ信号です。真のデジタル信号はPCMのたぐいでしょう。

「bit換算で7ビット近い情報量がある」って表現自体がアナログであることを示してるとおもうけどな。

情報理論においてアナログとデジタルは本質的に異なるもので、難しいとか簡単とか言う話じゃないでしょう。


[6]>5 反対 adgt

あんましピンと来ない


[7]そういう事ではなく seble

文字はその時点で符号である事からデジタルなのです。

日本語はややこしいのでアルファベットで考えて下さい。

abcの組み合わせでしかありません。

すでにコンピューター言語の一種とも言えます。

ところが、言葉が音声になると(本来の話し言葉の意味は口語体という意味であって全く違うけど)

抑揚など微妙なニュアンスが加わり、これがアナログと言われる所以です。

また、脳内は電気信号だろうと思いますが、アナログの電気信号だろうと思いますよ。

電気信号自体はアナログです。

電圧、電流、全て連続した変化を行い、デジタルのように割り切れる訳ではありません。

コンピューターが電気信号をデジタルにしているのは、アナログの電気信号を適当なところでぶった切って符号化しているにすぎません。

ハードウェアの設計をちょっと見れば分かりますが、オシロスコープで見る電気信号はアナログそのものです。

上がったり下がったり、ノイズでのこぎりになったり、0vのハズが微妙に電圧が出ちゃったり、、

それを、0?0.005vまでは符号の0と見なし、0.2v?0.3Vは符号の1と見なす、

というようにデジタルと勝手に見なしているだけの事です。

CPUだって、物理的にはアナログの電気信号で動いています。

今のところ、現実の部分にデジタルは存在しないと思いますが、、


[8]>1 質問! nasi-goreng

> 情報理論では、書き言葉がデジタル、話し言葉がアナログだと教えます。

ん?そうですか?ならった覚えは無いんですが、概論とかで言われていますか?

「音声符号こそデジタル」というのはd:ShinRaiさんが以前から主張している「あ」「い」「う」と言う音1つ1つが既存のデジタルの「0」「1」と同じように違う値だと言うものですよね?既存のデジタルが01の2値なら、「音声符号がデジタル」は100値(くらい)のデジタルだと。CDのデジタル化とは意味が違うと思います。

私からの質問は、

音声が多値デジタルだとして、脳内の処理も多値デジタルのまま処理されるのでしょうか?


[9]>8 音節単位で考えています、けっして01に還元してはいないと思いますよ。その必要がないから ShinRai

クロード・シャノンは、「コミュニケーションの数学的理論」の中で、

話し言葉は連続的、書き言葉は離散的であるとして扱っています。

http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf

http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html

質問に対するお答えですが、しりとり遊びや、ワードパズルを思い出して

みてください。我々は一音節単位で処理をしていませんか。


[10]>5 何に反対なのかな? keino

> 声信号は、周波数は離散でしょうけど、強度はアナログじゃないでしょうか。これはすなわちアナログ信号です。

そうすると、CDやDVDに記録されているデータはアナログという解釈になるんでしょうか?

わたしはこれらは一般的にはデジタル信号として取り扱われていると思います。地デジという言葉もありますし。


[11]>10 CDやDVDは、ビットによっていかに効率よくアナログを表現するかを追求したもの ShinRai

CDやDVDもデジタルですよ、01010101の連続ですから。

デジタルというのは、「離散・有限・一次元配列」という条件を満たした符号列のことです。

人間の音素・音節は、そもそも定義上離散であり、各言語共同体ごとに有限であり、時間軸上を一次元配列されて送られるので、デジタルです。離散メカニズムは、周波数特性であり、元の数は100(日本語では112という説あります、山鳥集)です。


[12]>7 最小単位は存在するはずです dev_zer0

> 電圧、電流、全て連続した変化を行い、デジタルのように割り切れる訳ではありません。

例えば電気量の最小単位は電気素量なので、電圧は電気素量の整数倍にります。

また、現在の物理学では時間の最小単位はプランク時間となってます。

エネルギーの最小単位は素粒子ですし、

人間から見て連続に見えるものでも細かくしていくと

不連続が続く形すなわちデジタルになると私は考えます。


[13]>9 100値デジタルの情報伝送方法 nasi-goreng

すみません。

どこに書き言葉がデジタル、話し言葉がアナログと書かれているかわかりませんでした。

シャロンの理論の前提になる「書き言葉がデジタル、話し言葉がアナログ」を逆に捉えているならば、シャノンの情報理論とそこから派生した理論は音声デジタルには当てはまらなくなりませんか?

>音節単位で考えています、けっして01に還元してはいないと思いますよ。

それでは、脳内を走る電気信号は100段階の電圧に分かれてそれぞれ「あ」とか「い」とかの意味を持つことになりますか?

>質問に対するお答えですが、しりとり遊びや、ワードパズルを思い出して

>みてください。我々は一音節単位で処理をしていませんか。

すみませんよく分かりませんでした。

人間からの出力は一音節で処理しているように見えると言うのはわかるのですが、脳内の処理とどのようにつながるのでしょうか?


[14]>12 脳の電圧値 nasi-goreng

脳の電気信号の電圧変化は電気素量単位の変化だということでしょうか?

脳の電気信号はアナログではないでしょうか?


[15]>14 何がアナログで、何がデジタルか、 ShinRai

離散か、連続か、これは符号をどう評価するかの問題だと思います。

離散として送り、離散として受け取れば、デジタルであり、

連続量として送り、連続量(の変化)として受け取ればアナログ。

デジタルの定義は、「離散、有限、一次元配列」です。

音声で01を送り分けた例として、10数年前のFAX modemがあります。

これは音声の周波数を2つ使って、0と1を表現したわけで、立派なデジタル変調です。


[16]>13 シャノンは、discreteとcontinuousという用語を使っています ShinRai

原典を読んでいただきありがとうございました

同じ年に、John von Neumannが行った講演では、デジタルとアナログという使い分けをしていたのですが、シャノンや、ウィーナーは、デジタルという言葉は使っていません。

ただ、discrete と continuous ということで、デジタル、アナログといっていると理解します


[17]>3 脳/神経が離散的パルスで動作するのと、 sibazyun

言語において、離散的な音素があるのとは、同じ離散的(デジタル)でもまったく異なることだと思います。

お示しの図で、音声言語がアナログとデジタルの2つに分かれているのはなっとくできません。音声としてはアナログのが、神経パルス上は離散パルスで脳に伝わりますが、これは脳神経系の生理的なしくみであり、意味上のアナログ/デジタルとは異なります。

例えば、コンピュータディスプレイ上の画像(本来アナログの写真)でも文字(本来デジタルコード化されたもの)でも、最小レベルの画素によって表されます。その意味ではデジタルですが、もっている情報のアナログ(人物や景色)をデジタル(文字コード)とは違います。

もっと人間の話し言葉についていうと、大人でも子供でも神経パルス上は同じパルスでしょうが、あるフォルマントの音声をきいたとき、成人の日本語話者と成人の中国人話者と成人のフランス人話者では別の音素として聞き分けるかもしれません。


[18]>12 素粒子が最小単位と seble

証明されてはいません。

クォークとかレプトンとか有り得ますし、さらにその内部構造があるやもしれず・・・

単に発見された、存在を立証されているに過ぎません。

もちろん、真実最小単位が存在し、その連続であればその部分ではデジタルと言えると思いますが、


[19]>17 Welcome, bienvenu, ようこそ、sibazyunさん、 ShinRai

ごぶさたしております。

(1) 音素の離散性と神経パルスについて

内耳の神経はたくさんの本数がありますので、一本がひとつの音素に対応するというよりは、特定周波数帯にある神経の反応(励起?)がまとまって、音素に対応した信号として脳に送られているのだと思うのですが、いかがでしょうか。

この特定周波数帯にどのように神経を配列するかが、生後1年くらいで決まる「音素マップ」なのでは?

あくまでも神経細胞はパルスを送るだけの役割であり、デジタルとして認識するのは脳の言語野あたりでは?

(2) 図のアナログ入力と、デジタル入力

これは、言語だけはデジタル復調して、そのままデジタル情報として脳に送っているのだと考えます。

また、視覚は、文字情報を音声(内語)化して、それを言語野に送っているのではないでしょうか。

言語以外の音声や画像は、アナログ情報として脳に送られ、そこで概念セットのアナログ部分として理解され、対応するデジタル符号語が検索されることで、デジタル回路に送られてくるのだと思います。


[20]その理論は根本的誤りでは? Moonbal_Sunbal

多くの回答者が答えられているように、「書き言葉がデジタル、話し言葉がアナログ」という限定はできません。一体どこの誰の理論ですかねぇ。


[21]>19 脳波 nasi-goreng

脳波って1Hzとか1024Hzとかみたいなのですが、

音声データを脳波の周波数で送れるのでしょうか?

音声データの送信には脳波は関係ないのでしょうか?


[22]>18 素粒子って物質の最小単位を指し示す概念ではなかったでしたっけ? dev_zer0

昔は原子が素粒子と定義されたときもありましたし、

電子や中性子が素粒子と定義されたときもありました

現在はクォークとかレプトンが素粒子の一種らしいですね

http://ja.wikipedia.org/wiki/%E3%82%AF%E3%82%A9%E3%83%BC%E3%82%A...


[23]>21 脳波はミリセカンドで流れる ShinRai

1024Hzというのは知りませんでしたが、それはパルスのインターバルのことでしょう。

話しことばに限らず、音声あるいは音響データの周波数とそのインターバルとは別なのでは?

つまり、内耳の有毛細胞は、それぞれ特定の周波数に対応するように設置されていているのであり、それらが受容した周波数に応じて励起することで、脳に離散情報が送られるのだと思います。

したがって送信する音声データの周波数と、脳波のインターバル(周波数)とは関係がないと思います


[24]>20 それが根本的に誤りだというのは、賛成ですね ShinRai

Claude E. ShannonのThe Mathematical Theory of communicationにおいて、書き言葉はdiscreteな情報源、話し言葉はcontinuousな情報源ということがいわれています。

クロード・シャノンという人は、ビット・パー・セカンドという概念を作り出した人です。


[25]>24 Shannon は sibazyun

前にも言ったかと思いますが、「情報を情報として次の媒体に伝える」

ことについて言っているのであって、それを人間の頭でどう解釈するとか、人間の頭がどう発信するかを話しているのではないと思います。


[26]>25 意味は工学ではないので、扱わないといっていますね ShinRai

たしかにシャノンは、言葉の意味は、工学ではないので扱わないといっています。

一方で、シャノンの一般的通信モデルには、情報源からあて先までが含まれています。

情報源を図の中に取り込みながら、そこでおきている意味の符号化について論じていないのは、片手落ちではないでしょうか。

http://journal.fibreculture.org/issue12/issue12_maras.html

のfigure1


[27]>16 書き言葉がデジタル、話し言葉がアナログ nasi-goreng

ざっと確認しただけですが、やはり

「書き言葉がデジタル、話し言葉がアナログ」

と言うのは習っていないようです。

関連質問


●質問をもっと探す●



0.人力検索はてなトップ
8.このページを友達に紹介
9.このページの先頭へ
対応機種一覧
お問い合わせ
ヘルプ/お知らせ
ログイン
無料ユーザー登録
はてなトップ