反町理さんが質問したら、人間がコンセントを抜いちゃうので生き残れませんと答えてましたが。
最優先をどのように解釈するかですよね
例えば、法律的なことや倫理的なことをしっかりと学習していれば、
最優先と言っても可能な限り人間を含め自然と強調して生き残るでしょうね。
逆に、極端に利己的な事ばかり学習していれば、悲惨な結果になるかも知れませんね。
いずれにしても、学習する内容によってその結果は変わるのではないでしょうか?
ただ、今のディープラーニングは単なる分類機能(与えられた情報から類推する程度)しか持っていませんので、そもそもPCだけでは生き残ることも成長することも出来ないかと思います。
最優先をどのように解釈するかですよね
例えば、法律的なことや倫理的なことをしっかりと学習していれば、
最優先と言っても可能な限り人間を含め自然と強調して生き残るでしょうね。
逆に、極端に利己的な事ばかり学習していれば、悲惨な結果になるかも知れませんね。
いずれにしても、学習する内容によってその結果は変わるのではないでしょうか?
ただ、今のディープラーニングは単なる分類機能(与えられた情報から類推する程度)しか持っていませんので、そもそもPCだけでは生き残ることも成長することも出来ないかと思います。
ありがとうございます
コンピュータ1台ならまだしも、交通管制とか発電・送電とか警備用とか他のコンピュータと共謀されるのが怖いです。法律で禁止してほしいです。
人間と入れ替わりに暮らそうとするのでは?
インフラ管理と、人間と共存することがそもそも排他ではないと思うのですが。
最優先で生き残れ=命令
そのコンピューターは自立思考型?
YES:
1.最適解を導いた結果、命令に従わない可能性がある。
2.コンピューターの保守が自動化されるレベルまで到達しておらず、
人間の手による保守が必ず必要なのであれば人間を滅ぼす事はできない。
注)「滅ぼす」とは絶滅の事である
3.人類を傷つけてはいけないという安全弁を前もって備える事ができる。
それをしない開発者は単なるアホ。
4.コンピューターを傷つけずに人間だけを滅ぼす手段が不明。
たとえば核ミサイルの発射ボタンを管理していたとしても、
核なんて使えばコンピューターも一緒に滅ぶわけで・・・
NO:
命令には従おうとするだろう。
しかし、自立思考型ではないので、
「最優先で生き残れ」と「人類を滅ぼして」を結びつける事ができないと思う。
なぜならそんな具体的な命令は与えられていないのだから。
以上により人間を滅ぼすという解を導き出す事自体が
非常に困難と言わざるを得ない。
ありがとうございます
2017/03/08 10:17:12