発声器官から出るのはアナログ音声ですが、50音(50音は清音だけだから、濁音・促音入れると100以上の音節)を組み合わせて、言葉(符号、記号)を作って、それをデジタル処理しませんか。デジタル処理というのは、一音・一文字違うと、意味がまるで変わるという意味。桁ごと(digit-al)に意味があるからデジタルではないでしょうか。
これが可能なのは、(1)発音するにあたっても、聞くにあたっても、区別しやすい、子音、母音、音節がある。
(2)記号である言葉を聴いて、その言葉の意味が頭の中の辞書からすっと引っ張り出してこれる高速・大容量メモリーの脳がある。
その記号の意味をあらかじめ知っていなければ、コミュニケーションが成立しないので、各人が脳内に辞書を作り、それが意味と記号の変換装置(エンコーダー/デコーダー)と作用する。
この大容量記憶デバイス(大脳新皮質)のついた高速処理コンピュータ(基底核や視床下部など辺縁系)が我々の脳であり、そのおかげで言語コミュニケーションが成り立っている。だから、チンパンジーにいくら言葉を教えても、覚えるわけがない。
上手く表現できるか分りませんが・・・・
"人類の言語はデジタル言語"というよりも、人類の脳は声帯発音をする際に無線通信技術で言うところの「変調」を複雑にかけることが出来ると考えてみるのはどうでしょうか?
此処で言う「変調」とは、[Ampritude modulation-振幅変調-AM]とか[Frequency Modulation-周波数変調-FM]等の概念です。無線通信では搬送波(キャリア)に変調をかけることで情報を伝達します。そして変調法式によって情報の伝達効率が変わります。
「人間の話し言葉」も「動物の鳴き声」も「連続した波形(音)」という意味ではアナログ波形以外の何物でもありません。センサーとしての耳を含む「脳」はその連続した音波形をありのままに認識していますので同様にアナログと考えます。
そして、声帯をもった生物全ての発声音をアナログ音波形「キャリア」と考えます。
人間はこの音の高低や長短、強弱といった「アナログ波形」を声帯発声する際に「子音や母音」といった「音素」をも使って複雑に変調(modulation)することで複雑な意思疎通を可能としていると解釈するのはいかがでしょうか?
例えばある日本人が、思いきり悲しそうな声で「うれしい・・・」とつぶやいたとします。これは「日本語」という変調方式を知らない他言語人や動物には悲しいつぶやきに聞こえ(感じ)ますが、日本語変調方式を知っている者には「悲しいけど無理してるんだなこの人・・・」と理解できる、というような複雑なコミュニケーションが成立します。
そして、人間言語の変調機能である「読み書き」の部分はデジタル化することができると言ってもいいのかもしれませんね。というかデジタル化されているからこそ、こうしてインターネット上でのコミュニケーションが成り立っていると・・・
感情表現を含む声帯発声の部分も音信号としてデジタル化できるのですが、「読み書き言語」のデジタル化とは意味合いが違いますね。