webページを高速にバックアップ取る方法を教えてください。そのページにアクセスして一ページずつバックアップ取る方法でなく、長い適切なURLを入力してバックアップを取る方法でもない方法を教えてください。

回答の条件
  • URL必須
  • 1人2回まで
  • 登録:2009/06/24 09:00:50
  • 終了:2009/07/01 09:05:02

回答(4件)

id:seble No.1

seble回答回数4675ベストアンサー獲得回数6172009/06/24 09:34:05

ポイント60pt

そのページの構成によって使えるツールが異なり、保存できない場合もあります。

使い勝手も様々ですが、取りあえずコレ。

http://www.infosurfing.jp/products/cpcache.html

IEに限りますが、キャッシュをローカルへ整理して保存する事ができます。

webの階層がそのままフォルダになるので、ほとんどの場合でオフラインでも同様に表示可能です。

当然ながらキャッシュに残らないページは保存できません。

cgiなどは駄目な場合が多い。

id:wise10 No.2

wise10回答回数71ベストアンサー獲得回数12009/06/24 11:00:41

ポイント10pt

ご自分のホームページでしょうか?

でしたらFFFTPがお勧めです。

自分のサイトではなく、ホームページ全体を、とのことでしたらGETHTMLWという自動巡回ソフトがあります。

http://www.vector.co.jp/soft/win95/net/se077067.html

・ホームページを階層構造ごとまるごと Get できます

他にもフリーウェアはたくさんあるのでVectorで探してみると良いかもしれません。

http://www.vector.co.jp/vpack/filearea/win/net/www/auto/

id:fe26 No.4

回答回数19ベストアンサー獲得回数02009/06/25 07:55:03

ポイント10pt

http://webox.sakura.ne.jp/software/webox/

上記のような自動巡回ソフトを使えば可能ですが

一部のサイトでは巡回に失敗してしまうようです。

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

絞り込み :
はてなココの「ともだち」を表示します。
回答リクエストを送信したユーザーはいません