人力検索はてな
モバイル版を表示しています。PC版はこちら
i-mobile

人間の声がアナログだと受け止めている人は、オシロスコープの波形がアナログだからでしょうか。

オシロスコープも、精度のよいものを使うと、声道によって形成される第1フォルマント周波数と第2フォルマント周波数が、舌の位置や口の形によって、母音ごとに瞬時に変化していることがわかります。


この画像を見たら、人間の言葉はデジタルであるということをご理解いただけないでしょうか。


1222220668
●拡大する

●質問者: ShinRai
●カテゴリ:学習・教育 科学・統計資料
✍キーワード:いもの アナログ オシロスコープ デジタル フォルマント
○ 状態 :終了
└ 回答数 : 73/73件

▽最新の回答へ

[1]写真はU.C. Bercleyのウェブサイトから拝借いたしました。(Dr. Steven Greenbergのご研究成果から) ShinRai

申し遅れましたことをお詫び申し上げます。


[2]FH(周波数ホッピング)技術を採用していた、、、 ShinRai

もしかすると人間は、7万年くらい前から、声道の形を瞬間瞬間に変化させて、その都度、異なったフォルマント周波数の組み合わせを発声することによって、母音を周波数ホッピング(Frequency Hopping)させていたのかもしれない。

1941年にアメリカでHeidi Lamarという女優が出願して、1942年に特許を取得した周波数ホッピングの技術は、なんと我々の声道によって、何万年も前から日々行われていた、、、。


人間の言語というものは、ものすごいとあらためて思います。


[3]つまりA/D変換は、脳の内部で行われているということですかね ShinRai

脳の中に、アナログ部分(古い部分)とデジタル部分(大脳の新皮質)があって、それらの間でA/D変換が無意識に行われているということになるのでしょうか。


[4]>3 「無意識に行われている」というより jo_30

発信器がデジタルでも受信機が性能の劣るアナログ機器だからじゃないですか?「無意識に行われている」という言い方でそこに「意識」を介在させるよりも「デジタルに受信できるほどの性能が無い(進化の過程でそれはオーバースペックだった)」と考えた方が分かりやすいのではないでしょうか。


[5]>3 どこがデジタルになるのでしょう? hiko3karasu

脳内でA/D変換されているのであれば、声はアナログですよね?耳に入るまでアナログ。じゃあ、オシロスコープの画像見せられたって、それはアナログですよね。

脳の中で変換されてからデジタルになりますか?

言語がデジタルというのは音はアナログ、人間の認識がデジタルになるのですね?


[6]言葉にすると嘘になる、言葉にするな、などというのは ShinRai

A/D変換を行うときに、現実世界や宇宙のメッセージや我々の感情などのアナログ的なものを、無理に言葉におしこめてデジタル化することにともなう量子化誤差が生まれるからだということでしょうか。


また、誰かがデジタル言語(符号)化したものを、別の人間がアナログに復号するときに、まったく同じ符号化方式が用いられるわけではないで、それで誤解や誤魔化しや過ちが生まれるということもあるのでしょうか。


我々の使用しているデジタル言語には、さまざまな構造欠陥や取り扱い注意を必要とする特徴があるように思いますが、いかがでしょうか。


[7]>5 フォルマント成分が離散的にたち現れているところがデジタルです ShinRai

ご理解いただけませんでしょうか


[8]>7 いえいえ、脳内のA/D変換の話は? hiko3karasu

脳の中に、アナログ部分(古い部分)とデジタル部分(大脳の新皮質)があって、それらの間でA/D変換が無意識に行われているということになるのでしょうか。

脳内のA/D変換は

アナログの音声が入力されて、脳内で言語としてデジタルに変換される。と言う意味かと思ったので、どこからがデジタルになるのでしょう?と言うことなんですが。

音声がすでにデジタルなんですか?


[9]>6 注意というよりも jo_30

言語記号がデジタルに表記されることと、我々の認識世界がデジタルに切り分けられていることは卵と鶏の関係であるとは思いますが、「誤解」というのは「理解」を前提とした行為なわけで、個々人の持っている「意味」の体系が異なる以上、どうやっても「理解」というのは本来成立していないと考える方が妥当でしょう。すなわち「誤解」も存在しない、と。


[10]>7 それはFFTの分解能が足りないだけであって zzz_1980

デジタルじゃない。

母音は五つしかない、なんて言わないでね。

a - e - i - u -o の間の母音を発生したり、

単純正弦波で0.1Hzの差を聞き分けるのは容易です。

音と言語の話を途中ですりかえてるし。


[11]どんなアナログも rsc96074

精度の良い観測機をつかえば、デジタルです。


[12]デジタルの定義 アナログの定義 sidewalk01

をどのように考えてます?


[13]>12 デジタル=離散、アナログ=連続 ShinRai

です。



足し算可能とか、繰り上がるとか、2値になるとか、そういうことではなくて、



オノマトペは、相似的であり、アナログ的な言語だと思います。

詩の言葉は、感情に結びついている部分があるという点で、アナログ的かもしれません。

その他の記号言語は、デジタルな音節(音素)によって表現されていると思います。


[14]>11 標本化定理ですね ShinRai

しかし、人間の声は、標本化によらずして、フォルマント周波数とその組み合わせによってディジタイズ可能なのでは?


[15]フォルマントを解析すると、一発でどの母音かがわかる ShinRai

このHPにはそう書いてあります

http://homepage3.nifty.com/francais/kokugakuin1206.htm


[16]ShinRai さん、やっぱりみんな混乱しているよ。 hiko3karasu

「人間の声がデジタルだ」と言われると大抵の人は「??」ってなっちゃうよ。

ShinRai さんのデジタルって言うのは工学的なサンプリングのことではなくて、例の50だか、100だかの音素に分けられるって話でしょ?そこの説明をしないとみんな、アナログ波形を数値化する(デジタル化する)のことだと思っちゃうよ。または、メタファーでデジタルって言葉を使っているとしたら、これは比喩的ですと説明しないと。

そして、また、「音、声」と「言葉」と「脳内の認識」をごっちゃにしているように見える。『りんご』という人間の発声から他の人間が『りんご』と認識するまでで、どこでA/D変換(ShinRai さんのいうA/D変換か、工学処理的なA/D変換か、はっきり書いてください。)が起きているか順を追ってみてください。

そうしないとみんな話がかみ合わないと思う。


[17]>9 言葉を使うことが問題ではあります。 Gay_Yahng

ShinRaiさんの言語のデジタル化は音素に分ける作業だと思いますので量子化はされていません。つまり量子化誤差は発生しません。

誤差があるというのは人間の言語の限界であり、真の言葉を理解できない人間の限界です。ひとつの事象を真の言葉で過不足なく表現できるのにそれが理解できない人間はたくさんの言葉を重ねて表現しようとしますが、それは事象の真の姿にはならないのです。


[18]>16 頭の中にディジタルな「概念(=記号+意味)」を作ることによって、初めて思考が可能となる ShinRai

まず、2進法やコンピュータの計算のことはいったん忘れていただいて、ディジタルとは、離散とだけ考えてください。


リンゴ自体が、「リンゴ」という記号と、「赤くて、丸くて、甘酸っぱい味のする果物」として脳の中に(個別脳内辞書に)記憶されています。

記号としては、「リンゴ」の代わりに、「アップル apple」でも、「ポム pomme」でもかまいません。相手が日本語を理解する場合には「リンゴ」といい、相手が英語を使う人のときには、「アップル」、フランス語を使う人には「ポム」という記号を発することになるでしょう。

この記号そのものには意味はなく、音的には類似している「リング」や「輪廻」ともまったく意味の関連性はありません。

いったん「リンゴ」という概念が脳の中で出来上がってしまうと、「赤くて、丸い」果物を見ると、「リンゴ」かな、「リンゴ」じゃないかなと思ってしまします。それがもしかしたら、新しいみかんの種類だったり、梨の種類だったりする可能性がありますが、「リンゴ」しか果物を知らなければ、色や形に応じて、「リンゴ」だと思うのです。


そして見たものに応じて、聞く人の使う言語に応じて使う辞書を切り替えながら、脳が言葉を選ぶときに、脳内辞書にもとづいてA/D変換をしているといえるでしょう。

これで言葉はディジタルな記号であるといえないでしょうか。

(とりあえず)


[19]>18 リンゴという言葉を聴くときも、、、 ShinRai

「り、ん、」と言う音を聞きながら、自分の脳内辞書の上で相手が話している言葉が何であるかのマッチングを行います。

「リン、隣家、臨機、リンゴ、臨死、隣人、リンス、リンダ、リンチ、リンチ」といろいろな可能性があるわけです。

そして「ゴ」という音を聞いたときに、「リンゴ」なら知っている。「赤くて(たまに緑や黄色だけど)、丸くて、甘酸っぱい果物」だよねと、言葉の意味を見つけるのです。

耳から入ってくる音を、自分の脳内辞書の項目と一致させる作業は、ディジタル的じゃあありませんか。


[20]>19 それは「デジタルである」ことを意味しないのでは nofrills

私には、hiko3karasuさんの書いておられることははっきりとわかります(理解できます)が、一連の議論においてShinRaiさんのおっしゃる「デジタル」についてはわかりません。根本的に、比喩(メタファー)として使われていたものが、いつのまにか「それそのもの」のことになっているので。「人が音を聞いて『デジタル的』に処理している(だから人間の言葉はデジタルである、といえる)」ということと、この質問の質問文に掲示されているように「音そのもの(人間の声)が『デジタル』である」ということとは、別の話じゃないのですか。


つまり、例えばRingoという音とLingoという音、どちらを聞いても「リンゴ」として「自分の脳内辞書の項目と一致させる」場合、それは日本語話者には該当しても、英語話者には該当しませんよね。また、「イ」音と「エ」音を明確に区別しない言語において(日本でも方言でそういう場合がありますが)、「リンゴ」と「レンゴ」について、「若い世代の人は前者を使うが、高齢の人は後者だ」などというケースもあるでしょう。江戸っ子が「ブシンがないから取り寄せだね」というのを、江戸っ子ではない私が「部品がないから取り寄せだね」として聞き返さずに解釈できるのはなぜですか。そういう話なら興味深いのですが、ShinRaiさんの論はそういうのを否定していく方向に展開しているように見えます。


で、そういう話を「人類の言語」の話にまで拡大し(そのときに、英語圏ではRingoとLingoは別の音だという「コード」があり、日本語圏にはそれがない、という話でもないのですよね)、さらには「人間の声はアナログではなくデジタルだ」ということで話を始めようとするのは、さすがにあまりにも無理じゃないかと思いますけど。ありていにいえば「さっぱりわけがわかりません」。


何よりもまず、ご自身の考えのうち、どこからどこまでが「比喩」なのか、どこからがそうでないのかをご自身で整理されることが、議論のためには必要ではないかと思います。(前にもこういうことを書いて投稿しましたが。)誰かの「比喩」は、必ずしも万人に「比喩」として通じるものではないのですから。(これは「言語学」というより「修辞学」の範疇です。)


[21]>19 残念ながら私の脳は動きが違うようです。 Gay_Yahng

音を1音ずつ確認している人っているのですね。私は違います。ひとかたまり、「りんご」と入力されないと理解しにくいです。

コンピュータの読み取り合成音をご存知でしょうか?文字を音声にして出力する装置(ソフトウェア?)があります。最近は聞きやすくなっているかもしれませんが、だいぶ前に聞いたときには何を言っているかわかりにくいものでした。言葉の塊でない音の羅列は理解しにくいんです。

つまり、

オトヲイチオンズツカクニンシテイルヒトッテイルノデスネ

↑すぐに理解できましたか?

言葉がおっしゃるような、1音ずつに区切って理解されているとすれば、漢字表記はいちど音に戻してそれを脳に入力しなおさなければなりません。一番速い(分かりやすい)入力はかな表記のはずですよね。でも私は上のようなカタカナ羅列をみるよりも漢字表記のほうが理解が速いです。これはデジタル処理(音素による辞書検索)をしていないからなのではないでしょうか?

それと

>脳が言葉を選ぶときに、脳内辞書にもとづいてA/D変換をしているといえるでしょう。

辞書はデジタルなんですよね?A/D変換の意味は理解されていますか?アナログ→デジタル変換のことですよ?言葉・音声はデジタルだと言うなら、デジタルデジタルの変換になりませんか?

なにがアナログでなにがデジタルなのか書いていただかないと変換もできないですよ。


[22]>14 量子論のことでした。 rsc96074

そのことだけが印象に残っていました。


[23]草書の続き文字や、筆記体でつながったアルファベットは・・・ sibazyun

アナログでしょうか、デジタルでしょうか?

これは、つながっているからアナログ? でも、スキャンして白黒のドットになるからデジタル?

・・・というようなレベルなら、「人は続けて書いているけれども、細分化しているからデジタル」とかいう不毛な議論になりますね。

しかし、文字を書くということは、続き字を書くにせよ、有限の文字(例えば6万個の漢字、26個のアルファベット)を使っているのだから、離散的(デジタル的?)ですよね。

同様なことは、音声についてもいえます。もともと「言語」というものは、有限個の要素の組み合わせでできているものです。有限個ですから、ShinRai さんの言い方ではデジタルでしょうか。

しかし、そのような有限個の要素を発声するには、筋肉や舌をつかうので、「高い声、低い声」などという表現があるように、連続的になめらかになりますね。


[24]周波数ですか? australiagc

またいわしを立てられたのですね?。また参加させてもらいます。

今回はフォルマント周波数の話ですか。

でも、固定の周波数に特定の値を当てはめるのが「デジタル処理」なら、イルカの通信信号も人間と同類の「デジタル通信」ですかねえ?

肯定・否定抜きにして、素朴な疑問です。


[25]感覚器=つまり耳の信号処理はどうなっているのかな? miharaseihyou

パターン解析して、デジタルと言うよりも類似した定型に当てはめて認識してるように見える。

デジタル処理というよりも、記号化処理かな?


[26]>13 ShinRaiさんの、デジタル=離散、アナログ=連続の定義に沿うと sidewalk01

オノマトペと詩の言葉がアナログ的であり、それ以外の言葉がデジタルであるということでよろしいですか?


[27]質問したい内容はどちらですか? sidewalk01

?人間の声がアナログだと受け止めている人は、オシロスコープの波形がアナログだからか??画像を見て人間の言葉がデジタルであるということ理解できるか?

私の回答?受け止め方を聞いているので、別にオシロスコープのみが原因ではない。?理解できません。


[28]>26 オノマトペはアナログ表現、詩の言葉はアナログ感覚 ShinRai

オノマトペは、雨のざーざーとか、水がぽたぽたとか、様子や音をまねしているので、アナログ的だと思います。

詩の言葉は、ちょっと難しくて、外部から確認しにくい気がします。心にぴたっとくるという言語感覚がアナログ的といえないかと思うのです。


[29]>23 クロード・シャノンも間違えていたと思います ShinRai

クロード・シャノンは1948年の論文で、書き言葉はディジタル、話し言葉はアナログというような表現をしていますが、sibazyunさんの理解のようにともにディジタルというのが正解だと思います。

シャノンは、オシロスコープの波形に惑わされていたようです。

崩し字や続け字や筆記体でも、離散的なように、音声も有限個の要素(現象)を組み合わせているので、ディジタルだと思うのです。


[30]>24 すべての鳴き声は周波数をもちます。周波数があるから離散ではなく、フォルマント周波数を使い分けるところが離散なのです ShinRai

だから、周波数をもつからディジタルというのではなく、

フォルマント周波数をうまく使い分けて、周波数の組み合わせを瞬間瞬間に使い分けているところ、搬送波を瞬間瞬間に周波数変移させているところに、人間の母音の離散性があると思うのです。


[31]>20 あのー hiko3karasu

ShinRai さん説明終わり?

ShinRai さんの最新の考え方が少し変わったみたいだから、どこがデジタルでどこがアナログか聞きたかったんだけど。

人間の発する音声はアナログで良い?それともこれがすでにデジタル?

人の喉、音声、耳、脳、理解

という流れでどこがアナログでどこがデジタルでどこでA/D変換をしているのでしょう?


[32]>28 ということは、言葉はアナログ要素とデジタル要素の混成物で、デジタルのものの方が多い sidewalk01

ということですかね?


[33]人間が音声で言葉を語るとき、それがアナログ情報であるという方にお願い ShinRai

私ばかりがデジタルを語っても、なかなか相互理解は深まりません。そこでちょっと趣向を変えてみませんか。

音声言語がアナログであるという方、どこがどうアナログであるのかについて、語っていただけませんか。

そして、その音声言語を、コンピュータ入力するときに、どこでA/D変換が行われているのかも。

よろしくお願いします。


[34]>2 舌の位置や高さを変えることで、瞬間瞬間に異なる周波数のフォルマントを出すこと自体がデジタル ShinRai

瞬間瞬間に、フォルマント周波数を変更できる、周波数を飛び移ることができるところが、デジタルだと思いませんか


[35]>32 基本的に音素・音節を使った言葉はデジタルです ShinRai

ですから、デジタルのもののほうが多いといってかまわないと思います。

例外的に、オノマトペは、ものの形態や様子、あるいは音そのものを表現しますので、アナログ的です。

また、詩の言葉は、心が実感するものを言語化するところがアナログ的といえるかもしれません。


さびしそうな声で、怒ったような声で、言葉を発することは、もともとはデジタルな言葉にアナログの変調をかける行為であり、言葉そのものはデジタルなままだといえないでしょうか。


[36]>32 理解として sidewalk01

工学的知識、デジタルに関しての知識の乏しい私にはこのくらいの理解が限界な気がします。プシュー(+_+)


[37]>31 通り魔事件のときなど、あるいは南泉斬猫の場合など、デジタルの罠にはまることに注意が必要 ShinRai

そもそも状況認識がデジタルになっている場合があります。

たとえば、秋葉原の街角に、あなたが立っているとしましょう。

アナログ的にものを考えることができたなら、あなたに向かって、手に光るものをもった男が血相を変えて走ってくるのが見えたときに、あなたの体は自然とその男と反対の方向によけるでしょう。身を捌くことができるでしょう。野生動物ならば、そうするに違いありません。

ところが、デジタル的に考えるくせのついている人間の場合には、その男の姿をみたときに、脳内で、「あれはなんだろう」と言葉を探すのです。その結果として、体はこわばって、身動きが取れないために、あなたは男に刺される可能性が高まります。


我々はアナログで考えることができるのですが、常日頃からデジタルで考えるくせが強くつきすぎているために、いざという時にデジタルの罠にはまるのです。


禅の公案に「南泉斬猫」という話がありますが、「猫の命を救いたかったら何かひとこと言いたまえ」と南泉に言われたのに、一言も発することができずに猫を殺してしまった禅僧たちも、デジタルの罠に陥って、身動きが取れなかった例だと思います。

夜になって寺に帰ってきた趙州が、昼間の話を聞くなり、頭の上に草履を載せて部屋を出て行ったというのも、頭の中(大脳新皮質)のデジタルな言葉にとらわれてはいけないのだ、言葉なんて草履に踏まれてなくなってしまえ、という意味だったのではないかと推論します。


[38]>37 ShinRaiさんが例として秋葉原通り魔殺傷事件を持ち出したことをとても不快に感じます。 Gay_Yahng

たとえば、街角に、猫が立っているとしましょう。

アナログ的にものを考えるでしょうが、車が突っ込んでくるのが見えたときに、猫の体は固まりその車と反対の方向によけられないでしょう。結果猫ははねられてしまうでしょう。

デジタル言語を持たないという人間以外の動物でも固まります。

とっさの出来事に対して固まると言うことをデジタル言語と結びつけることは無理があります

で、結局デジタルの説明の続きはないのですか?

デジタルを「2進法やコンピュータの計算のことはいったん忘れていただいて、ディジタルとは、離散とだけ考えてください。」と言うならば、混乱の元なので、ここでの説明を「デジタル」の代わりに全部「離散」にしたらどうでしょう?

デジタルと言う既存の工学的意味を含んでしまう言葉を使うから混乱が起きるのです。

人間の言語は離散言語である。でいいじゃないですか?

ShinRaiさんは世間の

デジタルは機械的非人間的、アナログは人間的優しい。

というイメージの罠にはまっていますね。

アナログ的にものを考えるとはどういうことでしょうか?連続的にものを考える?それとも反射的にものを考える?わかりません。

どんどん、説明が破綻しています。

もともと、瞬時に言葉を処理できるようになったからデジタル言語に切り替えたという説でしたよね?例では処理がぜんぜん間に合わないじゃないですか。

言語で思考することが不利だと言うならまだ分かるような気がします。でも言語で思考するから対応が遅いと言うなら、デジタルもアナログも関係ないと思います。


[39]>30 別に鳴き声に限らず・・・ australiagc

音には周波数があって、空気振動の周波数を感知するのが耳なんですが・・・。

イルカは特定の周波数に群の中で意味を持たせて使うんですよ。声帯がないから母音だの子音だのはありませんので全て「ピィピィピィ」と聞こえますが、音楽みたいにドレミで話すんですね。だから、イルカが仲間と通信するのを「イルカの歌」なんて比喩表現する事があるんです。


イルカ言語自体は詳しく解析されてないんですが、仮に、

だとして、「ピィ(ド)、ピィ(レ)、ピィ(ミ)」と鳴く事で、同じ群の仲間に「こちらイルカ一号、3時の方角に美味しそうな魚発見」みたいな感じでコミュニケーションするそうな。これってShinRai流デジタルじゃないんですか?


それに、フォルマント周波数=デジタル言語なら、オウムはデジタル言語使い・・・?人間の台詞をそっくりそのまま記憶させてオウムに喋らせれば、同じように「舌の位置や口の形によって、母音ごとに瞬時に変化している」を再現してくれますよ。オウムは舌も声帯もありますし。


[40]>38 言語で思考することが不利なのは確かですね。 australiagc

例えば、外国語練習中の人って頭の中で翻訳をしたり、翻訳をしなくても頭の中で言葉を反復しなから言うんですよね。でも、これって自分を混乱させるし、何より上達も遅くなるんです。これこそまさにShinRai流「デジタル思考」による弊害ですよね。


しかしネイティブに会話してる時には、一々言語で思考はしません。Gay_Yangさんが上で述べているように、車や通り魔が突っ込んで来た時かたまるのも、別に「デジタル思考」が追いつかないからじゃなくて、純粋にびっくりしたからだけだと思いますが・・・。


逆に、正真正銘のデジタル機器(コンピューターなど)なら、使っていなかった回線にいきなり信号が入ってきても、ちゃんと処理できます。回線が物理的に壊れてたりプログラムにバグが無い限りは。そう言った意味では、デジタル処理の方がこういったとっさの状況対処に優れてます。もし人間の思考がデジタルであるとすると、車が突っ込んできても猫はひかれるが、人間はコンピューターのようにデジタル処理が出来るから雑念を抱かず避けれるという事になってしまいますよ。


[41]>39 そのイルカ語の研究は、どこに書いてありますか? 教えてください ShinRai

もし、イルカが本当に、記号言語を話しているとしたら、人間と同じになります。

どこに研究成果がありますか。教えてください。


[42]>41 論文の日本語訳がオンライン上にないようなんですが・・・ australiagc

ざっとした紹介だとこのブログ記事でしょうか↓

http://o-navi.net/2007/12/post_50.html

それからwikipediaにも↓

http://ja.wikipedia.org/wiki/%E3%83%8F%E3%83%B3%E3%83%89%E3%82%A...


英語でよければこの辺かな。こいつはけっこう面白いです。↓

http://www.dauphinlibre.be/langintro.htm

http://www.dolphincommunicationproject.org/index.php?option=com_...


[43]>40 音声がアナログであることについて。いや、音声が離散じゃないことについてかな? hiko3karasu

ShinRai さん、デジタルを語っているとおっしゃるが語りきれていないですよ?

デジタルをどう定義しているのですか?なにがデジタルで何がアナログですか?と聞くとShinRai さんは論点をずらしてのらりくらりとちゃんと回答していないように映ります。そして言葉の意味をどんどん説明しないうちに拡張していっちゃうんです。

ShinRai さんのデジタルは私たちの考えるデジタルとは違うので、何をデジタルと言っているのかはっきりしないと噛み合わないと再三申しております。前の議論から読んでいる人はある程度分かっているかもしれませんが、それでも今回、脳内にアナログとデジタルを別処理するという新しい考えが入っていますよね。いまShinRai さんの中ではどのような考えが構築されているかさっぱり分かりません。

さて、音声アナログ説ですが。

私は別に言語がデジタルでなくアナログであると強く主張しているわけじゃないです。離散的だと考えても面白いかなと思います。

ただ、nofrills さんがいうように

言語はデジタルである→デジタルだから量子化誤差が生まれる

のような論理の飛躍がおかしいと言う主張です。

でもやっぱり音声に関してはアナログの方が分かりやすいかな?と思いますよ。

[音声がアナログの場合の動作]

人間の喉から出る言葉は音声となって空気を震わせます。 「りんご」と発声するとしましょう。

音声は空気を媒体に人間の耳の鼓膜を震わせます。

ここまで連続的な音波であり空気を震わせる波です。量子化もされていないし変調もかかっていません。

鼓膜からの信号は、脳に届きます。

脳では音が入力され発音、声の調子、音の大きさなどの情報から今までの経験と照らし合わせて類似したパターンが「りんご」だと判断する。同時にその人のりんごに対する感情などの情報も浮き上がってくるでしょう。(人によって「うまそう」「うげ、気持ち悪い」など様々な感情とともに)

私は脳がコンピュータ的なデジタル処理をしているとは思っていないのでA/D変換の必要はありません。脳の働きを理解しているわけではないので、脳の中の処理はブラックボックスで上の脳の動きは私の想像でしかないですけどね。

「音声はデジタル」だと変だと思うのは

音声が離散だとする(ShinRai流デジタル)と、

人間の声は50個くらいの音素データのみである。

日本語の場合は、英語で使われる「あ」と「え」の中間音は全てカットまたは「あ」か「え」のどちらかにして発声しないといけない。

でも私たちの声は中間も出すし、それを「あ」か「え」の中間でどっちかな?と判断して聞き返したりするわけです。ShinRai流デジタルでは中間の音であることは分からないはず。

音声が離散だとするShinRai流デジタルでは、

「り」「ん」「ご」という音声そのものに意味がないということなので、発言した人間の発音、音色、声の大小などの情報はカットされてしまう。

女の子に「りんご食べる?」と言われるのと子供に「りんご食べる!」と言われるのはShinRai流デジタルでは同じ「りんごたべる」だが私には別の意味と認識する。

ShinRai流デジタルではこれらの説明がつかないと思うのです。

やはり音声はアナログと考えるべきでは?

5回目の回答なのでこれで最後になります。ではまた。


[44]>37 何かを認識するときに言語が必要不可欠なのですか? nofrills

ええと、また話が違う方向に来てますね。別にお書きになる必要もありませんが、音声で表される言語についてお考えになるのであれば、江戸っ子が「ブシンがないから取り寄せだね」と言い、江戸っ子ではない人が「部品がないから取り寄せだね」として聞き返さずに解釈できるのはなぜなのかといったことについても、ぜひご検討ください。そんなに複雑な話じゃないと思うんですけど、少なくとも、「人間の声がデジタルだから」とか「人間の声がアナログだから」とかいったことには結びつかないと思いますよ。


それで本題ですが、人それぞれで癖というか傾向があると思うんで、一概にはいえないのですが、日常生活の中で、あなたは本当に「すべてを言語化してから把握」していますか? 私は、何か刺激があってそれを受け止めるときはいちいち言語化はしません。それをアウトプットするときには言語化します。あなたが「いや、すべてを言語化する」とおっしゃるなら、「ああ、タイプが違うんですね」で、お互い「そういう人もいるんだなあ」ということで知見を広げて終わり、話はたぶん噛み合いません。(そしてそれは「ことばというものの不確かさ」とは関係ありません。)


先日、こんなことがありました――夜道を自転車で走行しているときに、突然目の前を黒い物体がサササッと横切りました。そのときに頭に浮かんだのは「わっ」でした(口からもそういう音声が出たかもしれません)。


その瞬間には私はハンドルを左に切って急ブレーキをかけ(その物体に衝突しないために。でもそれは言語化してから判断していたわけじゃないですよ)、そこにあった塀に軽く衝突していました。そして、ぶつかったときの衝撃を身体に受けつつ、「あぶな!」という音声が出ました(何について「危ない」と認識したのかは今もわかりません。自分が怪我するかもしれないことについて「危ない」なのか、その物体が怪我するかもしれないことについて「危ない」なのか)。


それから、その黒い物体のほうに目をやると、黒い(または黒っぽい)猫が急いで歩き去っていくところでした。で、「なんだ、猫か」と思って(またはつぶやいて)、さっきの「物体」が(ツチノコではなく)猫だということで完全に安心し(つまり、何ら不安を覚える必要のないことだと理解し)、「猫は急に飛び出してくるから危ないよなあ」とかなんとか思いながら、自転車をこぎ続ける。そして、そのことを誰かに伝えるときにはじめて、他人に理解できるように言語化します。でもそのときに「急に何かが飛び出してきたので危ないと思い、ハンドルを左に切った」云々と表すのは、事後的に「他人に説明するため」に言語化しているのであって、実際にそのときその場でその通りの言語化が行なわれていたのではありません。


[45]>33 少々定義が異なるのですが… takahiro_kihara

僕は"analog"という概念を、”digital では推し量れないもの”と定義します。

人間の声の周波数変化を追っていくだけなら、いくらでもdigital化出来るでしょうが、

人間の声には、口調だとか声色だとか、機械による測定数値だけでは表現しきれないものがあると思います。

ですから、A/D変換しようとしても100%変換できるわけではないのではないでしょうか?

99.9%は可能でも(そして、たいていの目的にはそれで十分だと思います)。


[46]>37 禅のお話は「教訓」を読み取るためのエクリチュール nofrills

もう一点、非常に重要だと私が感じていることですが、禅のお話は――禅に限らず宗教全般に同じ傾向がありますが――それを聞いた/読んだ人が「教訓」を読み取るために洗練されたエクリチュールであり、純粋な「事実の描写」というよりは、「比喩」ではありませんか。


それをどのように解釈するかは人それぞれの自由なので、「頭に草履」を「大脳新皮質に格納されている言葉など踏まれてしまえ」と解釈するのもありだと思いますが、それを「事実」であるかのように扱って何らかの科学的な事実についての立論の根拠とすることはできませんよね。


ShinRaiさんは、「比喩」というものについてあまりにも無防備に見えます。しかもその「比喩」についての「自分の解釈」を「事実」として先に進んでしまわれることがままあるので、余計なことかと思いますが、一言書かせてください。


話の立て方があまりに極端なので、あえて極端に書いてみました。言葉がとげとげしく感じられたらごめんなさい。


[47]>22 ふーん godric

でも、発想は面白いと思う。

振り返ると、やっぱりどう考えても、デジタルっていう言葉の基本的なイメージっていうものがそもそも世間にはあるので、shinraiさんの言い方では、みんなの中でそれが定義の相違の問題になっちゃうのは当たり前かもしれない。デジタルっていうもの自体、デジタルが一定の高度さを持つようなものであるっていう認識を背景にした言も、デジタルを必要とする機械処理により人々が得られる利便性の枠内の「一定の高度さ」に過ぎない・・という現状からも、残念ながら現在のところ「アナログ」を超越してはいないのですねー。だから当然デジタル・アナログっていう定義はだいたい何?となる。結果的に議論の帰結がそもそも出来レースになってしまっているかもしれない。人間と同等のAIも創れない現状のデジタル技術な訳だから。デジタル=下位という帰結に向けて、明確な前提定義なしの議論はちょっと辛いかもしれない。


だけど、人間の声をディジタイズ可能にする、という技術論なら話は別でとても面白い。人間の声をディジタイズするっていうことを、サンプリングなしでやる、サンプリングありでやる・・数値化してアルゴリズムでエフェクト処理するっていう技術論ならサンプリングしようとすまいと同じだと思うけど、そのヘンはshinraiさん、どういう話の詳細なんでしょう?


[48]>47 デジタルとアナログは目に見えないから、ディジタル通信の変調方式・符号化方式あたりの基礎理論を理解する必要があるのかもしれませんねぇ。僕もちょっとかじった程度だから、うまく ShinRai

?1?

地上波のテレビ放送がアナログからデジタルに変わっても、一見すると番組内容も、見た目も変わらない。

テレビ受像機を新しくしなければならないといわれているけど、チューナーを買えば古い機材で見ることもできる。

だから、アナログとデジタルの違いは、「利便性の枠内の一定の高度さ」に過ぎないという見方も可能になるのだと思います。


しかし、デジタルとアナログの違いは、実は大きい。目に見えない部分で。

1 効率が格段に上昇する

2 誤り訂正ができる

どちらも目には見えませんね。

とくに、誤り訂正符号理論という理論は、一般人には縁遠い世界ですから、「一定の高度」に過ぎないと思うのも、しかたないかも。


デジタル通信理論の基礎を理解する必要があるのかもしれませんね。

とくに情報源符号化と誤り訂正符号理論のところあたり。


?2?

「人間の声をディジタイズする」というお言葉ですが、脳がディジタイズしているので、発声器官は脳の命ずるままにディジタル信号を作っているだけですよ。

すでにディジタルなんです。

それが、フォルマント周波数の組み合わせを瞬間瞬間に切り替えて、周波数ホッピングしているということなのです。


[49]>45 言葉はデジタルでも、それ以外の顔色や口調はアナログだという場合ですね ShinRai

「言葉の意味付け論」によれば、言葉そのものよりも、口調や顔色、目が伝えるメッセージを人は信頼するということでした。

アナログは、ホンネを隠しにくいということですね。


ただ、たとえそうであったとしても、言葉(音素や音節によって表現される言葉)がデジタルであることは、否定しようがないのではないかと思うのですが、いかがでしょうか。

音素や音節によって表現される言語が、アナログであるという説明あるいは立証を、どなたかやってみていただけませんか。


[50]>25 こちらの問題も、実に大きな問題であると思います ShinRai

近々別のイワシを立てようと思います。

聴覚認知、聴覚認知障害などの分野と関係してくるのでしょうか。

さらに、記号論的な「意味するものの同語反復」(記号が意味を隠す)といったことや、

個別脳内辞書の標準化の問題、さらには敵味方識別機能、あるいは言葉の嘘をどうやって見分けるか、という問題にも及びそうです。


人間は、知らなくてもいいことを頭に詰め込んで、知らなくてはいけないことに無自覚である、ということもあるかもしれません。

さらには、情報操作や大衆操作、選挙での投票行動の誘導、消費行動の誘導といったマニピュレーションの問題ともかかわってくるかもしれない。


人が発した言葉、人が書き残した言葉の意味を理解することって、簡単に考えてはいけないことなのかもしれませんね。


[51]>48 アナログとは nasi-goreng

アナログは時間軸にそって連続的に変化する値

http://ja.wikipedia.org/wiki/%E3%82%A2%E3%83%8A%E3%83%AD%E3%82%B...

デジタルはアナログの量を単位×数字で表したもの。

http://ja.wikipedia.org/wiki/%E3%83%87%E3%82%B8%E3%82%BF%E3%83%A...

ではないかと思います。

1 効率が格段に上昇する

2 誤り訂正ができる

両方ともアナログ通信とデジタル通信の話だと思います。

アナログとデジタルの差が大きいのは伝送するからだと思います。

信号が劣化しなければアナログでもデジタルでも変わらないと思いますけどね。

アナログの伝送で劣化があるならば、デジタルにすると有利だと思います。

目にみえないと言いますが、AVマニアがデジタル論を戦わせるのも目に見える違いがあるからなのではないかと思います。

フォルマント周波数・・・周波数成分があって連続的に変化しているのでアナログと言いたいのですが、、、難しいですね。フォルトマン周波数の塊を1つの値と考えて飛び飛びの値・・・むずかしい。

これを理解できると言うことは人間の脳は0/1のデジタルのコンピュータじゃないと言うことでしょうね。

どんなアナログも rsc960744pt

精度の良い観測機をつかえば、デジタルです。

これの意味がわからないのですが、測定機器はデジタルでデータを取っているという意味でしょうか?


[52]>49 ShinRaiさんのアナログとは? nasi-goreng

口調や顔色、目が伝えるメッセージを人は信頼するということでした。

アナログは、ホンネを隠しにくいということですね。

声はデジタルなのに目が伝えるメッセージはアナログなんですか?

音声は口調と言葉、アナログとデジタルに分かれると言うことなのでしょうか?


[53]>8 脳のA/D変換は nasi-goreng

ここで言っているのは、脳内のアナログデータを脳内のデジタルデータに変換すると言うことではないでしょうか?

感情を言葉に変換するって感じではないかと思います。


[54]>53 そのとおりです。感情(アナログ)と言葉(デジタル)の脳内変換です。 ShinRai

nasi-gorengさん、

言葉足らずを説明いただき、ありがとうございました。


[55]>43 読ませていただきましたがちょっと疑問が。 nasi-goreng

そして見たものに応じて、聞く人の使う言語に応じて使う辞書を切り替えながら、脳が言葉を選ぶときに、脳内辞書にもとづいてA/D変換をしているといえるでしょう。

意味から言葉にするときにアナログからデジタルに変換していると言うのがよく判りませんでした。

耳から入ってくる音を、自分の脳内辞書の項目と一致させる作業は、ディジタル的じゃあありませんか。

参考にアナログコンピュータと言うものもありますよ。

http://ja.wikipedia.org/wiki/%E3%82%A2%E3%83%8A%E3%83%AD%E3%82%B...


[56]>52 声の調子もアナログだといえるでしょう ShinRai

音声は、子音は離散的な音を出し分けており、母音も離散周波数に乗っかっていてデジタルですが、声の調子とか、震えとかは、アナログといえる。悲しそうな声とか、うれしそうな声も、アナログといえるでしょう


そう思います


[57]たとえば早口言葉はどうですか。 seenone

言葉自体に意味はなくて、複製も難しいですな。


[58]>56 それでは言語はどちらか判りませんが Gay_Yahng

音声はデジタルではなく、デジタルとアナログの両方の性格を持つと言うことですね?

言語としては離散的音であり、

音声としては連続的音を伝える。

ということでしょうか。


[59]>57 早口言葉は、より離散的な構音を行うための訓練 ShinRai

コメントありがとうございます

早口言葉は、われわれが音声符号を発音するにあたって、発声器官が誤りや符号歪を生み出しやすい状況にあっても、より高速な音節デジットで符号を送信することになっても、離散的状態(デジタルな状態)を音響的に保持することができるように、聞く人が音節を聞き分けやすいように構音するための訓練であると考えられませんでしょうか


[60]>58 言語としては離散的であり、音声においては、フォルマント周波数の組み合わせとしても離散的であるが、音調が相似的であるということかな ShinRai

言葉遊びをしているつもりもないのですが、、、、、

連続的な音声だけど、フォルマント周波数の組み合わせが離散的だから、ちょっと表現を変えてみました


[61]>59 音節デジットの歪について、音節デジット・レートとは音節/秒 ShinRai

隣の客はよく柿食う客だ、の場合、早く発音すると「か、き、く、う、きゃ、く」が「か、き、くぅ、きゃ、く」になるけど、これは「a-i-u」と連続的に周波数を変化させることが、実は発声器官にとっては難しいから言いにくいのだと思います。

これをいかにしてきちんと「か、き、く、う、きゃ、く」と発音するか、聞いてもらうかの訓練じゃないでしょうか。



上で、「高速な音節デジット」と書いてあるのは、「高速な音節デジット・レート」(シラブル/秒)のつもりで書きました。


[62]図を見てください、オレンジ色の部分が子音、母音であり、離散的(デジタル)に立ち現れていることがわかりませんか ShinRai

http://q.hatena.ne.jp/images/question/1222220/1222220668.png


[63]>60 結局、デジタルという言葉の定義次第で変わると思う takahiro_kihara

通常の意味では、数字では推し量れないものはデジタル化できないでしょうし。文系的な考え方を出発点とするか、理系的な考え方を出発点としりかによっても大きく違ってくると思います。


[64]>63 OED(Oxford Dictionary of English)の定義を引っ張ってきましょう ShinRai

digital (1) relating to or using signals or information represented by discrete values of a physical quantity such as voltage or magnetic polarization: digital TV. Often contrasted with ANALOGUE

このdiscrete values が、「離散的な値」として音節を含むのか、「離散的な数値」であって数字でなければならないのか、というところが問題なのでしょうか。


[65]>55 ShinRaiさんがデジタル化されていますね。 Gay_Yahng

前にデジタル化の理屈はよく判っているような書き込みがあったのでそこは理解しているのかと思っていたのですがまったく理解していなかったのですね。

私をはじめ他のみなさんが一生懸命説明しても理解されないわけですね。

秋葉原の事件の犠牲者は

デジタルで思考していたから死んだとでも言うのですか?アナログで思考していなかったから、死んでしまったと?

あの事件で犠牲者は何も悪くないでしょ?

私はあの加害者のやったことは、どういう理由であれ認めませんよ。

変な理論からくだらない解を導かないでください。

それこそ、無神経な発言ができるShinRaiさんはデジタルの罠にはまっているんじゃないですか? ニュースで見た事件をただの記号に置き換えてしまって関わっているのは人間であることが分からなくなっているのでは?


[66]>65 秋葉原の事件のことが書いてあったのですね。 nasi-goreng

僕もこの考え方は被害者を馬鹿にしていると思います。


[67]>66 秋葉原の事件 DNADHA

僕も馬鹿にしてると思う


[68]>67 被害者 DNADHA

被害者の気持ちがわかってほしい。


[69]>68 たしかに satoutosuzuki

そうだ


[70]>69 たしかに satoutosuzuki

あの事件で犠牲者は何も悪くない。


[71]>70 しかし satoutosuzuki

罪を憎んで人を憎まず


[72]>71 それが satoutosuzuki

人なんです。


[73]>72 人は satoutosuzuki

ガラスの心を持った生き物なんです。

関連質問


●質問をもっと探す●



0.人力検索はてなトップ
8.このページを友達に紹介
9.このページの先頭へ
対応機種一覧
お問い合わせ
ヘルプ/お知らせ
ログイン
無料ユーザー登録
はてなトップ