1.現在表示しているページのURLを取得し、そのURLから指定された部分のみを抽出する。(例:URLから検索ワードをURLエンコードしている部分のみを取得)
2.ヘッダーのrefererを取得する。
3.これらの情報をローカルファイル?オンライン上?で保存する。
4.保存した情報を元に解析し、現在考えている機能に利用する。(
5.ツールバーを作成する。
6.専用のウィンドウを作成する。
私が調べた限りでは1,2,4,6はjavascript、5はXUL、で作成すれば良いと思うのですが、3について出来ればローカルで自動でファイルを作成し、そのファイルに情報を保存させたいです。しかしjavascritptではローカルでファイルを作成できないと伺ったのですがそれは本当ですか?出来れば制御部分は全てjavascritpt、ツールバーはXULで行いたいのですがXULでも十分制御部分を構成できるようで、上記のような事はどの言語で構成したほうがベストなのでしょうか?お願いします。
とりあえず 3. の課題について。
ブラウザで処理を完結したい場合、Google Gears を利用してはいかがですか?
http://itpro.nikkeibp.co.jp/article/COLUMN/20070911/281630/
ローカルのsqlite DBに保存することができます。
再利用する際には、Gears API経由で操作することになります。
もうすこし複雑でも良いのであれば、
ローカルにApacheとDBをインストールして、
スクリプト経由でデータを保存させても良いと思います。
これは面白そうですね。早速使わせてもらいます。
それで3のほしい情報とは違うのですが、Gearsについて少し聞きたいです。
このサイトによると
http://journal.mycom.co.jp/articles/2007/06/01/gears2/index.html
指定したURLからの情報のキャッシュをこちら側がコントロール?(横取り?)出来るようで、このGearsの機能を使ってGears対応でないページ(普通のWebページ)をローカルで見れるような事は出来るでしょうか?HTMLとCSS情報のみでよく、アドオンで言うScrapBookのような事をローカル上にデータを保存せずに、ローカルサーバからデータを読み込んで表示させたいのです。
ScrapBookと同じ原理でしてしまうとどうしても読み込み時間が掛かってしまうので、どうしてもブラウザからのHTTP/HTTPSリクエストを途中で横取りし、キャッシュからリソースを読みだすGearsをScrapBookに応用したいのですが可能でしょうか?