ダンプという言葉がよくわかりませんでしたが、特定のサイト(ホスト)上にあるhtmlファイルを、ディレクトリ構造ごと丸ごと取得するということでよろしいでしょうか?
「波乗野郎」とか、テレホ全盛時に使われていたものがありますが、個人的な好みで書きます…
wgetというCUI上で使うコマンドなのですが、GNUなので、フリーでいろいろなバージョンがあります。
とりあえず、Windows上で使うなら紹介URLのパッケージが使えます。
オプションの使い方次第で、indexファイルから、そのホスト上でリンクされるすべてのファイルをダウンロードしたり、複数のサイトをまたがってダウンロードしてきたりできます。
コマンドに慣れていないと、ちょっと難しく感じるかもしれません。
http://www.vector.co.jp/vpack/filearea/winnt/net/www/download/in...
Download: WindowsNT/2000/XP用ソフト > インターネット&通信 > Web用ユーティリティ > ダウンロード
オススメ以外にも、いろいろダウンロード用ソフトがあります。
ローカル環境にダウンロードしてきたファイルは、テキストファイルそのものなので分析は可能だと思います。
http://www.bug.co.jp/nami-nori/
�g�����Y�z�[���y�[�W
念のために波乗野郎を確認したら、フリーウェアになってました(^^;
GUIで使えるWWW用の自動巡回ソフトでは実績のあるものなので、こちらのほうが使いやすいかもしれません。
ありがとうございます。波乗野郎がイメージに近いかな。結局HTTrackというフリーソフトを見つけました。