人力検索はてな
モバイル版を表示しています。PC版はこちら
i-mobile

先日、あるサイトが削除されるとのことで、webページをローカルに保存しました。自動巡回保存ツールを利用したのですが、保存されたhtmデータは元のページと表示が変わってしまいます。(cssが反映されていないのかわかりませんが)
紙copiLiteというソフトウェアでの取り込みでは表示が崩れることはありませんが、1ページずつしか保存できません。

そこで、紙copiLiteのように表示の崩れが起きずに、かつページ数の多いサイト丸ごと取り込めるようなソフトウェアはありませんでしょうか?
あと、なぜ紙copiLiteでは表示の崩れが起きないのかその原因もできれば知りたいです。

●質問者: y18
●カテゴリ:コンピュータ インターネット
✍キーワード:CSS Web サイト ソフトウェア データ
○ 状態 :終了
└ 回答数 : 3/3件

▽最新の回答へ

1 ● seble
●26ポイント

http://www.infosurfing.ne.jp/products/cpcache.html

これええよ。

ちょっとバグがあって、html.htmlとかなったりするサイトもあるけど、

リネームソフトで修正するねん。

cgiのページは無理みたいやけどね。

普通のページならほぼ完璧。

最近はcssだのcgiだのフラッシュだの訳わかんないけどね。


2 ● pahoo
●27ポイント ベストアンサー

なぜ紙copiLiteでは表示の崩れが起きないのか

CSS, JavaScript, 各種画像データをローカルディスクにコピーし、対応する本文 HTML のリンク先をローカルディスクに書き換えているためです。


リンク先まで含めてホームページの構造を丸ごとダウンロードするツールとして、フリーソフトの「GetHTMLW」をお勧めします。


3 ● るびきち
●27ポイント

wgetを使うといいでしょう。

wget -r -p -k URL
-r:再帰取得
-p:画像やCSS等も取得する
-k:相対URLを適切に処理する

http://d.hatena.ne.jp/rubikitch

関連質問


●質問をもっと探す●



0.人力検索はてなトップ
8.このページを友達に紹介
9.このページの先頭へ
対応機種一覧
お問い合わせ
ヘルプ/お知らせ
ログイン
無料ユーザー登録
はてなトップ