一旦、PDFで保存しておいて、論文を執筆する際にURLを叩いてページが存在するか確認するという方法をとったらいかがでしょうか?
Googleデスクトップというローカル専門の検索ツールがなくなってしまったので、Everythingというフリーソフトを使って検索すれば無駄な労力が少しは減るかと思います。http://www.voidtools.com/
ローカルにPDFを保存するだけでしたら、個人利用ということで別段問題ないと思います。
PDFも保存の仕方でURLも一緒に保存できます。
もちろん、リンク先が切れている場合もありますので、そのときには権利者に確認するなどすれば良いと思います。
tumblrがマッチしていると思います。記事や画像などをスクラップしていくウェブサービスです。
Sign up | Tumblr
Tumblr(タンブラー)って何?ゼロから始める使い方と楽しみ方 | nanapi [ナナピ]
▽3
●
cubick ●50ポイント ベストアンサー |
操作の自動化に関しては例えばWindowsなら「UWSC」などで実現できそうです。
http://www.uwsc.info/
なお、引用に関して懸念の内容も理解出来ますが、引用元(一次ソース)が生きているうちは
出来る限り元のサイトのURLを載せるべきではないでしょうか。
Internet Archiveも一般に広く知られているというだけで、信頼性も恒久性も本当に保証が
あるのかというと他のサービスと変わりない気がします。
また、IAでアーカイブされたページも、画像ファイルが抜け落ちている事がままあるので、
元の状態を保っているかというと個人的には信頼性低いです。
既に挙がっていますが、URL含めて元ページのキャプチャ撮ってPDFにして添付、の方がまだマシかと。
どんな手順をとるにせよ、「何時(いつ)の時点で確認した情報なのか」を含める事も重要かと思います。
元URIと保存先URI(IA等は諦めてネット上の私のストレージ内部の)を併記、というのが落とし所でしょうか……。
ご自身のストレージへの保存も視野に入れて良いのであれば、archive.todayというサイトが使えると思います。
いわゆる魚拓を取るサイトです。
まだ若いサイトなので恒久性という意味での信頼感はどうかな、という気はしますが、ページに含まれる画像やスタイルシート、はてはフレームの中まで複製を取ってくれます。
魚拓を取るサイトで有名なのは http://megalodon.jp/ だと思いますが、archive.today が優れているのは、魚拓のダウンロードができるところです。
魚拓を取ったページの上部に download.zip というリンクがあるのですが、これで魚拓を取ったソースを一括でダウンロードできます。
ちょっと前に、この質問の魚拓を取ったのが、こちらです。
https://archive.today/nftWQ
トップページでは保存対象の URL を入力するようになっていますが、Bookmarklet も用意されてます。
Bookmarklet を使えば、
1クリック+キー操作×2 で、ページの保存から URL の複写までが終わりますので、さして手間もかからないのではないかと思います。
以前、a-kuma3 様より、自動終了を避けるべきであるとお教えいただいたにも関わらず、また自動終了させてしまいました。皆様、申し訳ございません。
Internet Archive に似たサービスが多く立ち上がっていたことに、心強さを感じます。
しばらく時間がかかると思いますが、はてなブログに、まとめ記事を掲載したいと思います。
大変有難うございました。