現在、検索した結果ページをキャッシュする方法を探しています。
自分のサイトの検索結果表示ページだけであればSmartyなどを使用すれば検索結果表示ページ自体のキャッシュを別のフォルダに保存し、次回表示する際わざわざデータベースから結果を引っ張ってこなくても表示でき最終的にサーバーに負担をかけないというものです。
ただ、検索した先の別サイトのキャッシュを保存するにはSmartyではできません。この場合、簡単にやるとPHPでサイト全てのHTMLを取得し名前と日にちをつけて保存すればおおよそ可能かと思います。ただ検索するサイトの数が多いと膨大なデータ量となり、スクリプト自体も高負荷のものとなり、レンタルサーバーで行うことは不可能かと思います。
又、PEARのインストールですが、通常はSSHなどを利用してインストールするのが一般的です。ただ、SSHやTelnetなどが使用できない場合は http://pear.plus-server.net/installation.shared.html の「ftp を通じた PEAR のローカルコピーのインストール - 昔ながらの方法」を試してみてください。
間違っていたらごめんなさい。
esecuaさんこんにちは。 回答ありがとうございました。
教えていただいたSmartyも調べてみましたが、結局、PEARで進めることにしました。 あれからコチラのページ
http://lab.urume.net/2006,0529,447.html
を見つけ進めているのですが、中ほどに書いてある「適当にパッケージを検索してインストールする。」の部分の意味がわかりません。
PEARのほかにパッケージというものも必要なのでしょうか?? 質問内容が変わってしまったかもしれませんが、ご指導よろしくお願いします。