http://www.google.com/search?q=%88%F6%8Eq%95%AA%90%CD
URLはダミーです。
有意な分析結果を得るための「最低」ということであれば、明確な決まりはありません。経験則で“最低50個”とか“変数の10倍”などという人もいますが、数学的な根拠はないです。
そもそも、データの質や因子の数にもよりますから、どのような場合にでも適用できる「最低」は存在しないと言ってよいでしょう。
なお、数学的な意味での「最低」ということであれば、「データ数が変数の個数以上」であるということが条件です(固有値・固有ベクトルを算出するため)。まぁ、10変数に対して5データで分析しようなどということはないでしょうが。
http://www.google.com/search?q=%88%F6%8Eq%95%AA%90%CD
URLはダミーです。
有意な分析結果を得るための「最低」ということであれば、明確な決まりはありません。経験則で“最低50個”とか“変数の10倍”などという人もいますが、数学的な根拠はないです。
そもそも、データの質や因子の数にもよりますから、どのような場合にでも適用できる「最低」は存在しないと言ってよいでしょう。
なお、数学的な意味での「最低」ということであれば、「データ数が変数の個数以上」であるということが条件です(固有値・固有ベクトルを算出するため)。まぁ、10変数に対して5データで分析しようなどということはないでしょうが。
分かりやすい回答有難うございます。
明確な根拠はないということが良く分かりました。
http://home.hiroshima-u.ac.jp/keiroh/maeda/statsfaq/efa.html
この方は
>最低限100は欲しいと
言っていますね。
>専門家の方からすれば「100の根拠は?」とたたきたくもなるでしょうけれども
とも言っていますが。
また、因子の数にもよると思います。
こういう統計のことは、データが多ければ多いほどいいくらいは分かっている。
で、どれくらい必要なんだ?
という具体的な量が欲しくなりますね。
残念ながら因子分析のことはのっていませんが、
統計学的なセンスのことは書いてあります。
よかったら参考にしてください。
http://www.fizyka.umk.pl/nrbook/bookcpdf.html
例えば、多くの自然科学的なデータから、平均値を求めたいときに、
それらをプロットしていくと、正規分布することが分かっています。
ここで、ガウシアンでFittingし、カイ二乗/NDFを求め、1に近ければ、
信頼性があるといえます。
なんでそういえるのか。
というようなことが書かれています。
有難うございます。英語ですね・・・
分かりやすい回答有難うございます。
明確な根拠はないということが良く分かりました。