httpサーバ上の指定したディレクトリ下のファイルをすべて保存したいのですがどうすればできますか?

たとえばhttp://www.xxx.jp/sample/ 下のすべてのhtmlファイルを保存したい場合などです。フリーのツールなどがあれば方法と一緒に教えてください。

回答の条件
  • URL必須
  • 1人2回まで
  • 登録:2005/11/26 19:34:45
  • 終了:--

回答(3件)

id:esecua No.1

esecua回答回数510ベストアンサー獲得回数102005/11/26 19:54:01

ポイント40pt

http://cowscorpion.com/WEB/HTTrackWebsiteCopierforWindows.html

ダウンロード | HTTrack Website Copier for Windows 3.41 Beta 10 - ウェブサイトをダウンロードするソフト

ブラウザ上からという意味でよろしいですか?


でしたら上記のツールで可能です。FTPで接続できるのであればそのままローカルにDLすれば可能かと思います。

id:maruyamatyou

正直かなりびっくりしました。怖いソフトですね。ありがとうございます。

2005/11/26 21:37:02
id:ngc02 No.2

ngc02回答回数108ベストアンサー獲得回数22005/11/26 20:06:11

ポイント10pt

FTPなどソースにアクセスできないのであれば、リンク追跡ダウンローダーを使うしかありません。

リンク追跡ダウンローダーでは、完全に被リンクされていないページはダウンロードできませんが、リンクされているページはダウンロードできます

id:maruyamatyou

リンクされていないのものも含めてほしかったのです。上記は日本語で使いやすそうですね。ありがとうございます。

2005/11/26 21:39:46
id:t111 No.3

t111回答回数68ベストアンサー獲得回数02005/11/26 20:09:49

ポイント10pt

http://www.bug.co.jp/nami-nori/index.html

�g�����Y�z�[���y�[�W

数年前、ダイヤルアップ接続が主流だった時代に流行ったソフトに「波乗野郎」というものがあります。

これは、指定したページからのリンクを指定した階層だけ検索してダウンロードするというものです。

しかし、これは指定したディレクトリ以下のファイルをすべて保存するものではありませんから、リンクの切れているページはダウンロードできません。

http://www.atmarkit.co.jp/flinux/rensai/linuxtips/399usewget.htm...

@IT:HTTPサーバにあるファイルをダウンロードするには

UNIX版が主ですがwgetというツールもあります。

しかし、コマンドラインで使用するので、難しいかもしれません。

http://weather.is.kochi-u.ac.jp/winwget.html

Windows �� wget ���Ȥ���ˡ

Windows版wgetの説明

wgetの詳しい解説

id:maruyamatyou

ありがとうございます。

2005/11/26 21:41:34

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

絞り込み :
はてなココの「ともだち」を表示します。
回答リクエストを送信したユーザーはいません