パーセプトロンの限界として、よく特徴空間が線形分離可能な場合にしか使えないということが言われています。
しかし基底関数(http://aidiary.hatenablog.com/entry/20100429/1272504218←この方のページの関数Φにあたるもの)として非線形な写像を入れれば特徴空間が線形分離不可能な場合にも適用できるのだと理解していました。
またPRML5章にも「パーセプトロンの代わりにニューラルネットワークやサポートベクターマシンを使うことの利点は高次元データの識別ができることだ」という旨のことが書いてあったと思います。(うろ覚えですが)
私の「パーセプトロンは基底関数を使えば非線形な特徴空間にも使える。NNやSVMを使うのは高次元データを識別するため」という理解は間違っているでしょうか?
コメント(0件)