ウェブサイトをオフラインで分析するために、まとめてダンプできるWeb Crawlerみたいなソフトウェアでお勧めを教えてください。

回答の条件
  • URL必須
  • 1人2回まで
  • 登録:
  • 終了:--
※ 有料アンケート・ポイント付き質問機能は2023年2月28日に終了しました。

回答1件)

id:KuroNeko666 No.1

回答回数144ベストアンサー獲得回数2

ポイント40pt

ダンプという言葉がよくわかりませんでしたが、特定のサイト(ホスト)上にあるhtmlファイルを、ディレクトリ構造ごと丸ごと取得するということでよろしいでしょうか?


「波乗野郎」とか、テレホ全盛時に使われていたものがありますが、個人的な好みで書きます…

wgetというCUI上で使うコマンドなのですが、GNUなので、フリーでいろいろなバージョンがあります。

とりあえず、Windows上で使うなら紹介URLのパッケージが使えます。


オプションの使い方次第で、indexファイルから、そのホスト上でリンクされるすべてのファイルをダウンロードしたり、複数のサイトをまたがってダウンロードしてきたりできます。


コマンドに慣れていないと、ちょっと難しく感じるかもしれません。

http://www.vector.co.jp/vpack/filearea/winnt/net/www/download/in...

Download: WindowsNT/2000/XP用ソフト > インターネット&通信 > Web用ユーティリティ > ダウンロード

オススメ以外にも、いろいろダウンロード用ソフトがあります。


ローカル環境にダウンロードしてきたファイルは、テキストファイルそのものなので分析は可能だと思います。

http://www.bug.co.jp/nami-nori/

�g�����Y�z�[���y�[�W

念のために波乗野郎を確認したら、フリーウェアになってました(^^;

GUIで使えるWWW用の自動巡回ソフトでは実績のあるものなので、こちらのほうが使いやすいかもしれません。

id:akibare

ありがとうございます。波乗野郎がイメージに近いかな。結局HTTrackというフリーソフトを見つけました。

2006/01/15 18:40:43

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

回答リクエストを送信したユーザーはいません