先日、あるサイトが削除されるとのことで、webページをローカルに保存しました。自動巡回保存ツールを利用したのですが、保存されたhtmデータは元のページと表示が変わってしまいます。(cssが反映されていないのかわかりませんが)

紙copiLiteというソフトウェアでの取り込みでは表示が崩れることはありませんが、1ページずつしか保存できません。

そこで、紙copiLiteのように表示の崩れが起きずに、かつページ数の多いサイト丸ごと取り込めるようなソフトウェアはありませんでしょうか?
あと、なぜ紙copiLiteでは表示の崩れが起きないのかその原因もできれば知りたいです。

回答の条件
  • URL必須
  • 1人2回まで
  • 登録:
  • 終了:2008/06/02 21:03:44
※ 有料アンケート・ポイント付き質問機能は2023年2月28日に終了しました。

ベストアンサー

id:pahoo No.2

回答回数5960ベストアンサー獲得回数633

ポイント27pt

なぜ紙copiLiteでは表示の崩れが起きないのか

CSS, JavaScript, 各種画像データをローカルディスクにコピーし、対応する本文 HTML のリンク先をローカルディスクに書き換えているためです。


リンク先まで含めてホームページの構造を丸ごとダウンロードするツールとして、フリーソフトの「GetHTMLW」をお勧めします。

その他の回答2件)

id:seble No.1

回答回数4796ベストアンサー獲得回数629

ポイント26pt

http://www.infosurfing.ne.jp/products/cpcache.html

これええよ。

ちょっとバグがあって、html.htmlとかなったりするサイトもあるけど、

リネームソフトで修正するねん。

cgiのページは無理みたいやけどね。

普通のページならほぼ完璧。

最近はcssだのcgiだのフラッシュだの訳わかんないけどね。

id:pahoo No.2

回答回数5960ベストアンサー獲得回数633ここでベストアンサー

ポイント27pt

なぜ紙copiLiteでは表示の崩れが起きないのか

CSS, JavaScript, 各種画像データをローカルディスクにコピーし、対応する本文 HTML のリンク先をローカルディスクに書き換えているためです。


リンク先まで含めてホームページの構造を丸ごとダウンロードするツールとして、フリーソフトの「GetHTMLW」をお勧めします。

id:rubikitch No.3

回答回数120ベストアンサー獲得回数22

ポイント27pt

wgetを使うといいでしょう。

wget -r -p -k URL
-r:再帰取得
-p:画像やCSS等も取得する
-k:相対URLを適切に処理する

http://d.hatena.ne.jp/rubikitch

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

回答リクエストを送信したユーザーはいません