人力検索はてな
モバイル版を表示しています。PC版はこちら
i-mobile

機械学習の基本的な識別器であるパーセプトロンについて質問があります。
パーセプトロンの限界として、よく特徴空間が線形分離可能な場合にしか使えないということが言われています。
しかし基底関数(http://aidiary.hatenablog.com/entry/20100429/1272504218←この方のページの関数Φにあたるもの)として非線形な写像を入れれば特徴空間が線形分離不可能な場合にも適用できるのだと理解していました。
またPRML5章にも「パーセプトロンの代わりにニューラルネットワークやサポートベクターマシンを使うことの利点は高次元データの識別ができることだ」という旨のことが書いてあったと思います。(うろ覚えですが)
私の「パーセプトロンは基底関数を使えば非線形な特徴空間にも使える。NNやSVMを使うのは高次元データを識別するため」という理解は間違っているでしょうか?

●質問者: 匿名質問者
●カテゴリ:科学・統計資料
○ 状態 :キャンセル
└ 回答数 : 0/0件

回答がありません
関連質問

●質問をもっと探す●



0.人力検索はてなトップ
8.このページを友達に紹介
9.このページの先頭へ
対応機種一覧
お問い合わせ
ヘルプ/お知らせ
ログイン
無料ユーザー登録
はてなトップ