フォン・ノイマンは、ヒトの脳をコンピュータで実現するためには、ナイアガラの滝の水力発電量と、エンパイアステートビルの大きさのコンピュータが必要だといったそうですが、それは1948年のことです。現代のマイクロチップ技術からすると、ヒトの脳の神経細胞、シナプス接続は、どれくらいの体積ならびに電力で実現されると考えられているのでしょうか。具体的な計算式を示しているHPをご紹介ください。あるいは、ご自身で数字を示してください。

回答の条件
  • URL必須
  • 1人2回まで
  • 13歳以上
  • 登録:2010/03/27 21:19:25
  • 終了:2010/04/03 21:20:02

回答(4件)

id:TREEG No.1

TREEG回答回数255ベストアンサー獲得回数342010/03/28 00:55:34

ポイント27pt

ヒトの脳は、1秒間に10^14~10^16cps(100~10,000TFLOPS※1)で動作、

容量は、10^13bit~10^18bit(1.14TB~111PB)程度。

これを前提にすると、

.

脳の処理速度は、2005年に完成した、IBMのBlueGene/Lで、360*10^12cps(360TFLOPS※1)。64ラック構成のため、面積だと、240平方メートル。3台でおよそ1TFLOPSでると予想できます。ただ、2010年現在、※4より、今ですと、同じサイズでも3.3倍の性能に出来そうですので、

1,000TFLOPSだと、240立方米(感覚的には10m×24m×2m、新幹線のぞみより2割くらい小さい程度※5)、

10,000TFLOPSと仮定すると、10倍して、2,400立方米(感覚的には30m×40m×2m、新幹線のぞみ8両分※5)でしょうかね。

.

消費電力は、

1,000TFLOPSで5184KW※6、の場合、風車3台※7

10,000TFLOPSと仮定しても26台程度※7で済みそうですね。

.

記憶容積は、1.14TBだと32GBのmicroSD換算(2009年)で、36枚程度。高さにして3センチちょっと。体積だと、5.8ml、1センチ角のサイコロ6つ分程度。

111PBだと3,637,248枚必要。体積だと、 600L程度。きっちり詰めれば200Lの浴槽や一般的なドラム缶3杯分。

ただ、年々進歩していますので、頑張ればこの半分くらいで済むかもしれません。

.

以上、グーグルの単位変換と手計算でしていますので、間違っているかもしれません。

引用元も書いていますので、気になる点は適宜修正して計算してみてください。

.

.

.

※1 CPSをTFLOPSに置き換えています。やや自信なし。

ポスト・ヒューマン著レイ・カールツワイルという本から引用です。

.

※2 BlueGene 1ラックの大きさは、3.75平米

http://www.google.co.jp/search?hl=ja&client=firefox-a&hs=ZAs&rls...

.

※3 BlueGene/Lは64ラック

http://www-06.ibm.com/jp/provision/no48/pdf/48_article2.pdf

.

※4 勝手に、その当時と、今のCPU差を比較してみた。その結果、ここ5年でCPUは3.3倍程度早くなったようです。

2005年頃最速

Pentium4 Extreme Edition 3.46GHz Gallatin Northwood換算値 3800

2010年頃最速

Core i7 975 Extreme Edition (3.33GHz) Bloomfield Northwood換算値 12700

http://maximums.gatt.nobody.jp/cpu.html

.

※5 新幹線のぞみの中間車両は304立方米

http://ja.wikipedia.org/wiki/%E6%96%B0%E5%B9%B9%E7%B7%9A300%E7%B...

.

※6 64ラックなので1728KW、3台分で、5184KW

http://homepage2.nifty.com/mukyu/g-sys/inw3/2_inw_0512060.html

.

※7 風力>郡山布引高原風力発電所が66,000KW・風車数でいうと33台です。

http://www.jpower.co.jp/news_release/news070131.html

.

id:ShinRai

ありがとうございます。細かなところは確かめていませんが、いずれにしても、まだまだコンピュータはヒトの脳に追いついていないということですね。

2010/03/28 07:45:13
id:ululun No.2

うるるん回答回数267ベストアンサー獲得回数192010/03/28 12:36:16

ポイント27pt

レイ・カールツワイルの『ポスト・ヒューマン誕生―コンピュータが人類の知性を超えるとき』は物凄く分厚くて高価なのですが、http://www.csij.org/members/20070809/csij-journal-008-009-wada.p...などに解説がありますね。

同書にもありますが、人の脳の演算速度と同等になるのは2020年、同書で言われる次世代型人類であるところのポストヒューマンに私達がなるのは2040年代である、という事なのですが、経済の加速度や政情などの外部的要因は別にしたとしても『2001年宇宙への旅』に描かれた未来-旅客機レベルのスペースシャトルをパンアメリカン航空が運行し、ヒルトンホテルのあるスペースコロニーに到着したり、IBMが人口知能を開発し、木星への有人探索宇宙船に搭載される-が何一つ実現していないことからも計算処理能力が仮に陵駕したとしても、果たして「それ」が私達人類と同様に「知能」を持つのかはわかりません。

『ポスト・ヒューマン誕生―コンピュータが人類の知性を超えるとき』には石が知能を持つのか、という一節があるのですけれど、コンピュータが知能を持ちうるか、というのはまさに「石が意志を持つ可能性」というダジャレのような疑問に立ち向かう事なのではないか、と思います。

計算処理速度はともかくとして、現在ウェブを使って世界中のコンピュータが繋がり、情報を交換しあっています。その情報処理・交換・共有速度は人類が今まで持ち得なかったものでありますが、ではそのような情報が「流れて」いるからといってウェブ自体が知能を持ったとか人格を持ったとかいう話は聞かないですね。もっとも私達が認識していないだけで何処かではもう確認されているのかもしれませんけれどwww

私は、ある種の動物-少なくとも鳴き声などを使ってコミュニケーションをおこなっているような-には知能が宿っていたり、自我のようなものも存在しているのではないか、と思っています。では彼らと私達人類では「何」が違うかというと「作り出す」事が出来るかどうか、なのではないか、と思うのですね。

電算処理速度、情報交換速度においてコンピュータは(単体かどうかはともかくとして)私達が個人で所有しうる処理速度に近いか、あるいはある面をもってすれば陵駕しているともいえます。ですがそうした事実をして、コンピュータが私達同様に思考をし、あるいは自我が芽生えたり、ものを作り出す存在になりうるのかは、現時点においては「わからない」としか言いようがないように思います。

id:ShinRai

いろいろと考えて思うのですが、人の演算処理速度はそんなに早くない。それが複雑な思考ができるのは、並列処理ができるから。

コンピュータも速度ではなく、センサーの素子数を増やし、抑制と亢進の両方のデータを多重化して送ってきて処理するアルゴリズムを考えたらよいのではないかなと思うのですが、いかがでしょうか。

だんだん、速度だけで比較することそれ自体が間違っているような気がしてきました

2010/03/29 16:27:08
id:ey272 No.3

ey272回答回数10ベストアンサー獲得回数12010/03/30 00:23:25

ポイント26pt

現在の人工知能が日の目を見ないのは、必要ではないからだと思っております。

おそらく、人と同じような思考回路は、10PFLOPSも必要ではないのでは?(脳神経が冗長的になっていると仮定して)

100TFLOPS程度で実現可能だとしても、どんなニーズがあるか微妙です。

アシモが少し賢くなったくらいで、1体1000万円で買う人がいるかどうか・・・

人間が世界の主体であるのは、生きる動機があるからだと思います。

私が人工知能は致命的だと思うのは、動機がないコンピュータは、いつまでたってもただのツールだから。

それに動機があるコンピュータなんてみんな欲しくありません。

アイボだってビジネスにならなかった。。。

強いニーズがあるところにビジネスができ、お金が集まる、そうすると技術、アルゴリズムも発展していく。

そのようなニーズが人工知能にはないのです。

もちろん現時点での投資対効果も乏しい。うーん。

まぁでも考え続ければ良いアイデアが浮かぶかもしれません!

http://d.hatena.ne.jp/ey272/

直接の回答ではないので、ポイント不要です。

id:ShinRai

コメントありがとうございました

生命ではないから生きる動機がないのですね。

そして、生きる動機をもたれたら困る。

そのディレンマを乗り越えることが人工知能に求められているのでしょうね

2010/03/31 17:08:06
id:pyopyopyo No.4

pyopyopyo回答回数341ベストアンサー獲得回数832010/04/03 14:07:26

ポイント10pt

今の方法では、いくら大きなコンピュータを用意しても、原理的にヒトの脳を実現することはできない、というのが通説です。

歴史的には、1950年頃に現在の形のコンピュータが登場して、1960年代にはコンピュータで人の脳がつくれるんじゃね?ということで人工知能研究が盛んに行われたそうです。

でも1980年頃には、予想以上に人の脳をコンピュータ上につくるのは難しいね、そもそも脳の仕組みもまだ判ってないし、ということでいわゆる人工知能ブームは一旦終息しています。

日本政府も人工知能ブームに便乗して、1980年代に570億円も税金を投入し研究を奨励しました。そして大失敗に終わりました。第5世代コンピュータ計画と言います。

http://ja.wikipedia.org/wiki/%E7%AC%AC%E4%BA%94%E4%B8%96%E4%BB%A...

これらの失敗で得られた重要な知見が、今の方法ではコンピュータがいくら性能向上しても、原理的に人の脳はつくれない、ということです。理由としては、フレーム問題 と呼ばれる考え方が比較的判りやすいと思います。

http://ja.wikipedia.org/wiki/%E3%83%95%E3%83%AC%E3%83%BC%E3%83%A...

また、センサの数を増やしても、記号接地問題 という観点から、うまく行かないことが知られています。

http://ja.wikipedia.org/wiki/%E3%82%B7%E3%83%B3%E3%83%9C%E3%83%A...

  • id:gogg45
    当時想定したコンピュータの処理能力が現状どのくらいのスペックで満たせるかを
    知りたいということでいいのでしょうか。

    > フォン・ノイマンは、ヒトの脳をコンピュータで実現するためには、
    > ナイアガラの滝の水力発電量と、エンパイアステートビルの大きさのコンピュータが必要だといったそうですが

    上記の原典にMIPSやSPECは記されていますでしょうか。

    スーパーコンピューターはこのままでいくと2025年には人間の脳をシミュレーションできるようになる
    http://gigazine.net/index.php?/news/comments/20090315_supercomputer_power/

    まあ状況は変わっていますし、サイズで比較することが誤りだと思いますが
    フォン・ノイマン氏が1948年当時のENIACベースで仮定していたとして
    単純計算すると以下のような感じになります。

    ENIAC
    http://ja.wikipedia.org/wiki/ENIAC
    > 幅24m、高さ2.5m、奥行き0.9m
    > 毎秒5000回の加算、14回の乗算が行えた。

    エンパイア・ステート・ビルディング
    http://ja.wikipedia.org/wiki/%E3%82%A8%E3%83%B3%E3%83%91%E3%82%A4%E3%82%A2%E3%83%BB%E3%82%B9%E3%83%86%E3%83%BC%E3%83%88%E3%83%BB%E3%83%93%E3%83%AB%E3%83%87%E3%82%A3%E3%83%B3%E3%82%B0
    > 面積 延床面積 200,122m2
    > 高さ 全高(上部付属施設を含む) 443.2m
    > 軒高(ビル本体) 381.0m
    > 最上階床 373.2m
    > 階数 地上102階

    ・ENIAC1台あたりに必要な床面積
    21.6m2 = 24m * 0.9m
    ※高さは3.66m/階=373.2m/102階で考慮の必要がないと想定。
    階数を無視してぎっしり詰めるのであれば、最終的に求められた値を1.5倍してもいいと思います。
    1.46 = 3.66m / 2.5m

    ・ENIACのクロック数
    15KHz = 5000回/秒 * 機械語3命令/回
    ※加算処理でロード、演算、ストアの3命令を利用するとして、
    毎秒5000回の加算処理がができたことから15KHzで動作していたと仮定。

    ・エンパイアステートビルにENIACが何台入るか
    9264.91台 = 200122m2 / 21.6m2

    ・トータルのクロック数
    138.94Mhz = 138973.61KHz = 9264.91台 * 15KHz

    クロックだけ見るとPentium級ですね。

    まあ正しいかどうかは微妙ですが、真空管=トランジスタで比較すると
    ENIACは真空管を17468本
    Pentiumではトランジスタを約300万個
    Core 2 Duoなら4億個
    くらいの差がありますので妥当というかそんな感じです。
  • id:ShinRai
    ありがとうございます。

    現在のVLSI, GLSI技術であれば、ヒトの脳の処理・記憶能力が、同等の電力消費と同等の容積で可能ではないかと期待したのですが、まだまだのようですねぇ。

    人工知能の研究とかはどこまで進んでいるのでしょうね
  • id:hiko4karasu
    脳とノイマン型コンピュータの動作方法は違うので、
    脳の動きを集積回路等を使って、H/W的に作り出すこと、
    脳の演算結果をコンピュータ上でS/W的にシミュレートすることはだいぶ違います。
     
    単純比較をしても、あまり意味はないと思います。
  • id:Gay_Yahng
    回答拒否なのでここで書いていいかわかりませんが

    >コンピュータも速度ではなく、センサーの素子数を増やし、抑制と亢進の両方のデータを多重化して送ってきて処理するアルゴリズムを考えたらよいのではないかなと思うのですが、いかがでしょうか。
     
    言っている事が解りません。何の話になったのでしょう?
    コンピュータの性能向上の話だと思うのですが、コンピュータに何のセンサーを付けるのでしょう?
     
    「抑制と亢進の両方のデータを多重化して」
    って知っている言葉を並べているだけにしか思えないのですが・・・・。
    データを多重化したら、コンピュータの処理に何の利点になるかわかりません。
    「抑制と亢進の両方のデータを定量化して」とかならまだなんとなく使えそうな感じがしますが・・・・。
    ネットワークコンピューティングのデータ送信の話なのだろうか?
     
     
     
    コンピュータと人間の脳をごっちゃにしていませんか?
     
    もしかしてコンピュータじゃなくて人工知能の話に変わりました?

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

絞り込み :
はてなココの「ともだち」を表示します。
回答リクエストを送信したユーザーはいません