先日、あるサイトが削除されるとのことで、webページをローカルに保存しました。自動巡回保存ツールを利用したのですが、保存されたhtmデータは元のページと表示が変わってしまいます。(cssが反映されていないのかわかりませんが)

紙copiLiteというソフトウェアでの取り込みでは表示が崩れることはありませんが、1ページずつしか保存できません。

そこで、紙copiLiteのように表示の崩れが起きずに、かつページ数の多いサイト丸ごと取り込めるようなソフトウェアはありませんでしょうか?
あと、なぜ紙copiLiteでは表示の崩れが起きないのかその原因もできれば知りたいです。

回答の条件
  • URL必須
  • 1人2回まで
  • 登録:2008/06/02 19:04:17
  • 終了:2008/06/02 21:03:44

ベストアンサー

id:pahoo No.2

pahoo回答回数5960ベストアンサー獲得回数6332008/06/02 19:26:59

ポイント27pt

なぜ紙copiLiteでは表示の崩れが起きないのか

CSS, JavaScript, 各種画像データをローカルディスクにコピーし、対応する本文 HTML のリンク先をローカルディスクに書き換えているためです。


リンク先まで含めてホームページの構造を丸ごとダウンロードするツールとして、フリーソフトの「GetHTMLW」をお勧めします。

その他の回答(2件)

id:seble No.1

seble回答回数4675ベストアンサー獲得回数6162008/06/02 19:15:40

ポイント26pt

http://www.infosurfing.ne.jp/products/cpcache.html

これええよ。

ちょっとバグがあって、html.htmlとかなったりするサイトもあるけど、

リネームソフトで修正するねん。

cgiのページは無理みたいやけどね。

普通のページならほぼ完璧。

最近はcssだのcgiだのフラッシュだの訳わかんないけどね。

id:pahoo No.2

pahoo回答回数5960ベストアンサー獲得回数6332008/06/02 19:26:59ここでベストアンサー

ポイント27pt

なぜ紙copiLiteでは表示の崩れが起きないのか

CSS, JavaScript, 各種画像データをローカルディスクにコピーし、対応する本文 HTML のリンク先をローカルディスクに書き換えているためです。


リンク先まで含めてホームページの構造を丸ごとダウンロードするツールとして、フリーソフトの「GetHTMLW」をお勧めします。

id:rubikitch No.3

るびきち回答回数120ベストアンサー獲得回数222008/06/02 20:31:54

ポイント27pt

wgetを使うといいでしょう。

wget -r -p -k URL
-r:再帰取得
-p:画像やCSS等も取得する
-k:相対URLを適切に処理する

http://d.hatena.ne.jp/rubikitch

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

絞り込み :
はてなココの「ともだち」を表示します。
回答リクエストを送信したユーザーはいません