cobalt+UrchinでバーチャルサイトごとのWEBアクセス解析をしていますが不定期で解析データが抜け落ちます。cobaltサーバはApacheの生ログを定期的に各バーチャルサイト毎に振り分けており、(Lotate?ログの容量も関係してるみたいです)、そのタイミングでUrchin側がログ収集できないのだと思うのですが、どこをどういじればいいのかわかりません。同様の事象&対策情報をいただければと存じます。宜しくお願いします。

また、Urchin側のログ収集は「毎時」55分で行っています。

回答の条件
  • URL必須
  • 1人2回まで
  • 登録:
  • 終了:--
※ 有料アンケート・ポイント付き質問機能は2023年2月28日に終了しました。

回答3件)

id:moke3rd No.1

回答回数34ベストアンサー獲得回数3

ポイント10pt

http://www.mediaweb.biz/database/cobalt_tips/index.html

レンタルサーバーとSSLサーバー証明書 - コバルトを使いこなそう

URLはダミーです。ごめんなさい。


Urchinに web.log のみしか指定していないのではないでしょうか?


このファイルはあるサイズ以上になると自動的に圧縮されローテイトされます。

このときに未解析のデータが抜け落ちるのだと思います。


対応としては圧縮されローテイトされたファイルまで解析対象にすることです。

具体的にはログ指定するところで /home/sites/www.sample.com/logs/web.log* のようにすれば簡単だと思います。

id:chatoraneko No.2

回答回数221ベストアンサー獲得回数0

ポイント50pt

http://www.mediaweb.biz/database/others/cron.html

レンタルサーバーとSSLサーバー証明書 - サーバーデータベース

cobaltへのsshもしくはtelnetでのアクセスは可能ですか?

もし可能であれば

/etc/crontabの

02 4 * * * root run-parts /etc/cron.daily

の行があるのを確認してください。

上記の場合毎日4時2分にログが切られますので

Urchinを毎時55分ではなく毎時1分に実行するように変更してください。

id:masashi0316

cronでの実行は4:02でした。

試してみます、ありがとうございます。

2005/06/03 13:34:07
id:kikue70 No.3

回答回数111ベストアンサー獲得回数1

ポイント50pt

http://www.hatena.ne.jp/1117760357#

人力検索はてな - cobalt+UrchinでバーチャルサイトごとのWEBアクセス解析をしていますが不定期で解析データが抜け落ちます。cobaltサーバはApacheの生ログを定期的に各バーチャルサイト毎に..

split_logsで切り分けられたログは抜け落ちていませんか?

毎日早朝にsplit_logsが動きますが結構時間もリソースも食います。

cronで時間をずらしてみるとか、Raq自体のログ保存期間や保存方法を

調整してみるのも良いと思います。

id:masashi0316

split_logs=バーチャルサイトごとに切り出すですね。抜け落ちはなかったです。やはりlotateの実行ファイルをいじらないとだめかな・・いろいろ試してみます。ありがとうございました。

2005/06/03 13:36:27

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

回答リクエストを送信したユーザーはいません