ウェブサイトをオフラインで分析するために、まとめてダンプできるWeb Crawlerみたいなソフトウェアでお勧めを教えてください。

回答の条件
  • URL必須
  • 1人2回まで
  • 登録:2006/01/13 06:47:27
  • 終了:--

回答(1件)

id:KuroNeko666 No.1

黒猫回答回数144ベストアンサー獲得回数22006/01/15 06:02:28

ポイント40pt

ダンプという言葉がよくわかりませんでしたが、特定のサイト(ホスト)上にあるhtmlファイルを、ディレクトリ構造ごと丸ごと取得するということでよろしいでしょうか?


「波乗野郎」とか、テレホ全盛時に使われていたものがありますが、個人的な好みで書きます…

wgetというCUI上で使うコマンドなのですが、GNUなので、フリーでいろいろなバージョンがあります。

とりあえず、Windows上で使うなら紹介URLのパッケージが使えます。


オプションの使い方次第で、indexファイルから、そのホスト上でリンクされるすべてのファイルをダウンロードしたり、複数のサイトをまたがってダウンロードしてきたりできます。


コマンドに慣れていないと、ちょっと難しく感じるかもしれません。

http://www.vector.co.jp/vpack/filearea/winnt/net/www/download/in...

Download: WindowsNT/2000/XP用ソフト > インターネット&通信 > Web用ユーティリティ > ダウンロード

オススメ以外にも、いろいろダウンロード用ソフトがあります。


ローカル環境にダウンロードしてきたファイルは、テキストファイルそのものなので分析は可能だと思います。

http://www.bug.co.jp/nami-nori/

�g�����Y�z�[���y�[�W

念のために波乗野郎を確認したら、フリーウェアになってました(^^;

GUIで使えるWWW用の自動巡回ソフトでは実績のあるものなので、こちらのほうが使いやすいかもしれません。

id:akibare

ありがとうございます。波乗野郎がイメージに近いかな。結局HTTrackというフリーソフトを見つけました。

2006/01/15 18:40:43

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

絞り込み :
はてなココの「ともだち」を表示します。
回答リクエストを送信したユーザーはいません