人力検索はてな
モバイル版を表示しています。PC版はこちら
i-mobile

ウェブサイトをオフラインで分析するために、まとめてダンプできるWeb Crawlerみたいなソフトウェアでお勧めを教えてください。

●質問者: akibare
●カテゴリ:コンピュータ
✍キーワード:Web お勧め ウェブサイト オフライン ソフトウェア
○ 状態 :終了
└ 回答数 : 1/1件

▽最新の回答へ

1 ● 黒猫
●40ポイント

http://members.at.infoseek.co.jp/futora/wget153/

wget

ダンプという言葉がよくわかりませんでしたが、特定のサイト(ホスト)上にあるhtmlファイルを、ディレクトリ構造ごと丸ごと取得するということでよろしいでしょうか?


「波乗野郎」とか、テレホ全盛時に使われていたものがありますが、個人的な好みで書きます…

wgetというCUI上で使うコマンドなのですが、GNUなので、フリーでいろいろなバージョンがあります。

とりあえず、Windows上で使うなら紹介URLのパッケージが使えます。


オプションの使い方次第で、indexファイルから、そのホスト上でリンクされるすべてのファイルをダウンロードしたり、複数のサイトをまたがってダウンロードしてきたりできます。


コマンドに慣れていないと、ちょっと難しく感じるかもしれません。

http://www.vector.co.jp/vpack/filearea/winnt/net/www/download/in...

Download: WindowsNT/2000/XP用ソフト > インターネット&通信 > Web用ユーティリティ > ダウンロード

オススメ以外にも、いろいろダウンロード用ソフトがあります。


ローカル環境にダウンロードしてきたファイルは、テキストファイルそのものなので分析は可能だと思います。

http://www.bug.co.jp/nami-nori/

?g?????Y?z?[???y?[?W

念のために波乗野郎を確認したら、フリーウェアになってました(^^;

GUIで使えるWWW用の自動巡回ソフトでは実績のあるものなので、こちらのほうが使いやすいかもしれません。

◎質問者からの返答

ありがとうございます。波乗野郎がイメージに近いかな。結局HTTrackというフリーソフトを見つけました。

関連質問


●質問をもっと探す●



0.人力検索はてなトップ
8.このページを友達に紹介
9.このページの先頭へ
対応機種一覧
お問い合わせ
ヘルプ/お知らせ
ログイン
無料ユーザー登録
はてなトップ