匿名質問者

社会のインフラを管理しているディープラーニング機能を持ったコンピュータに、「お前は最優先で生き残れ」と指示を出したら人間は滅びるのですか?

反町理さんが質問したら、人間がコンセントを抜いちゃうので生き残れませんと答えてましたが。

回答の条件
  • 1人5回まで
  • 登録:
  • 終了:2017/03/08 10:17:18

ベストアンサー

匿名回答3号 No.1

最優先をどのように解釈するかですよね
例えば、法律的なことや倫理的なことをしっかりと学習していれば、
最優先と言っても可能な限り人間を含め自然と強調して生き残るでしょうね。

逆に、極端に利己的な事ばかり学習していれば、悲惨な結果になるかも知れませんね。

いずれにしても、学習する内容によってその結果は変わるのではないでしょうか?
ただ、今のディープラーニングは単なる分類機能(与えられた情報から類推する程度)しか持っていませんので、そもそもPCだけでは生き残ることも成長することも出来ないかと思います。

匿名質問者

ありがとうございます

2017/03/08 10:17:12

その他の回答2件)

匿名回答3号 No.1

ここでベストアンサー

最優先をどのように解釈するかですよね
例えば、法律的なことや倫理的なことをしっかりと学習していれば、
最優先と言っても可能な限り人間を含め自然と強調して生き残るでしょうね。

逆に、極端に利己的な事ばかり学習していれば、悲惨な結果になるかも知れませんね。

いずれにしても、学習する内容によってその結果は変わるのではないでしょうか?
ただ、今のディープラーニングは単なる分類機能(与えられた情報から類推する程度)しか持っていませんので、そもそもPCだけでは生き残ることも成長することも出来ないかと思います。

匿名質問者

ありがとうございます

2017/03/08 10:17:12
匿名質問者

質問者から

匿名質問者2017/03/05 02:59:05

コンピュータ1台ならまだしも、交通管制とか発電・送電とか警備用とか他のコンピュータと共謀されるのが怖いです。法律で禁止してほしいです。

人間と入れ替わりに暮らそうとするのでは?

匿名回答4号 No.2

インフラ管理と、人間と共存することがそもそも排他ではないと思うのですが。

匿名回答1号 No.3

最優先で生き残れ=命令

そのコンピューターは自立思考型?

YES:
1.最適解を導いた結果、命令に従わない可能性がある。
2.コンピューターの保守が自動化されるレベルまで到達しておらず、
 人間の手による保守が必ず必要なのであれば人間を滅ぼす事はできない。
 注)「滅ぼす」とは絶滅の事である
3.人類を傷つけてはいけないという安全弁を前もって備える事ができる。
 それをしない開発者は単なるアホ。
4.コンピューターを傷つけずに人間だけを滅ぼす手段が不明。
 たとえば核ミサイルの発射ボタンを管理していたとしても、
 核なんて使えばコンピューターも一緒に滅ぶわけで・・・

NO:
命令には従おうとするだろう。
しかし、自立思考型ではないので、
「最優先で生き残れ」と「人類を滅ぼして」を結びつける事ができないと思う。
なぜならそんな具体的な命令は与えられていないのだから。

以上により人間を滅ぼすという解を導き出す事自体が
非常に困難と言わざるを得ない。

  • 匿名回答1号
    匿名回答1号 2017/03/03 22:02:28
    生きるの意味をコンピューターに教える事がまず難題なんですが
  • 匿名回答2号
    匿名回答2号 2017/03/03 23:01:21
    修理、修復などのメンテナンスに人手が必要な間は生かされる。

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

回答リクエストを送信したユーザーはいません