http://www.infosurfing.jp/products/cpcache.html
この手のキャッシュソフトを使えば、IEで表示したページだけはwebサイトをローカルに構築し直せます。ただ、最近の著作権保護やjavaやらcgiなどはうまく保存できない場合も多いです。
(アマゾンはだめでした)
また、アマゾンのような巨大サイトは、全てを落とす事は難しいです。
自動巡回ソフトなどもありますが、これも難しい部分が多々あります。
http://www.umechando.com/webex/
サーバーに負荷をかけるので拒否られる場合もあり、大きなサイトを丸ごと落とすのはかなり難しいです。
巡集
http://www.vector.co.jp/soft/win95/net/se314781.html
サイトを丸ごとというのならこれが使えます。
昔はこの手のソフトはかなりあったのですが
今ではまともに動作するものはあまりありません。
GetHTMLW
ホームページをまるごと Get して、オフラインで閲覧 GUI版
http://www.vector.co.jp/soft/win95/net/se077067.html
私はこのソフトを旧バージョンから長年使っています。
ダウンロードNinja
http://www.e-frontier.co.jp/dlninja/7/
この手の自動巡回ソフトでは、大規模かつリンクが多く貼られたサイトを保存する際は注意が必要ですが(リンクを延々と辿ってどこまでもダウンロードしてしまう可能性がある)、このソフトはダウンロードする階層やファイルの種類など細かく指定できますので、設定をきちんと行えば必要なページだけを保存することが可能です。