・ロボット型検索エンジンのスパイダーからのアクセス
・RSSリーダーなどからのXMLファイルへのリクエスト
・WEBサーバのステータスコード304(Not Modified)
大規模サイトで広告価値の指標として使っている場合はどのように計測しているのか、そのガイドラインとなるようなものがあると良いです。
ページビューの絶対的な定義というのは存在しないのですが、一般的には特定のページのHTMLファイルに1回アクセスがあった場合、ステータスコードが304でも1ページビューと見なすようです。あるディレクトリ以下のページビューであれば、そのディレクトリ以下にあるHTMLファイルのページビューの総数を、ディレクトリのページビューとして扱います。
商用のアクセス解析ソフトではXMLなどの特定のファイルへのアクセスや、制作会社からのアクセスといった特定のアドレス(ドメイン)からのアクセスを除外する事も可能です。
大規模サイトでは、広告価値の指標としてはページビューやユニークユーザー数の増減によって効果を測定しますが、広告からの被リンクページのページビュー、ユニークユーザーの増減で広告効果を判断し、さらに他のページへの遷移、その場合の滞在時間を判定して実効値を算出します。
1日のアクセス数が1000に満たないような少ない場合に遭遇した事はないのですが、そういった場合で、かつ高価な解析ソフトが導入できない場合には秀丸などのテキストエディタを使って生ログを切り出したりして判定するといい精度で結果が出ると思います。
蛇足ですが、解析ソフトによってページビューやユニークユーザの数がまちまちであるのは良くある事で、これはどのようなアクセスを有効なページビューとして扱うかという解釈の違いによって起こるものなのですが、クライアントが納得しなくてアクセス解析より逆に時間の掛かる作業になりそうになった事があります。
最近ではアーチンが結構流行っているようで。
コメント有難うございます。
解析ソフトを2つ使っていると、恐らく差が気になるでしょう。
でもそれはPVの計算方法の違いが大きく含まれますから、それぞれのソフトの中で異常な動きがなければ、どちらかの値だけを継続的に使う事をお勧めします。
でないと、ソフトウェアの計算ロジックの考察までしないといけないですから。
アクセス解析では、特に不要なアクセスの排除に気をつけなくてはいけません。1万PVぐらいだと制作会社や関係者のアクセスが20%ぐらいあったりしても不思議ではありませんし、不正攻撃によってアクセス数が増える場合もあります。ですので、PVだけの数の変化だけではなく、アクセス元ドメインの変化やアクセス対象ファイルについても吟味する必要はあります。
設定の変更ができないとなると、若干宝の持ち腐れナ感はありますが、例えば正確な数字を出す事が求められるのであれば、
まだ使った事は無いのですが、
http://www.sitegram.com/pro/index.html
外部のアクセス解析エージェントなら、いろいろ相談に乗ってもらえるかもしれないですね。ここならいろいろチューンが効くのかも・・・
こちらこそ、ありがとうございます。恐縮です。
おっしゃる通り、解析ソフトの差が非常に気になります。「アクセス元ドメインの変化やアクセス対象ファイル」、なるほど注意してみます。PVの数値だけで一喜一憂しても、不要なアクセスを排除しないと実際役に立たないですしね。
sitegram というのは初めて知りました。雑誌の特集で「Site Catalyst」、「Visionalist」というのも知ったのですが、結構なお値段なので当面、導入は難しく。。sitegramは比較的安そうなので、とりあえず資料請求だけでもしてみようかと思います。
ありがとうございます。非常に参考になります。また、考えれば考えるほどわからなくなるような気もします。。
現在UrchinとGoogleAnalyticsを併用しているのですが、5000以下のPVでは特に差が顕著で前者は後者の2倍以上になったこともありました。逆に10万以上になると、相対的に低くなります(Urchinの設定は自分で変更できず、詳細は不明ですが)。
と考えると、PVが少ない頃のアクセスは、実は検索エンジンとかRSSリーダーとかが半分くらいだったのかも。。?などと思います。