ネットからの引用時、「Internet Archive等に保存させ、そのURIをクリップボードにコピーする」を一操作でしたい


私は、レポートや報告書を書くことがよくあり、ネットを情報源とする事も多々あります。しかしもちろん、生のデータは恒久性も信頼性も低いですので、中立的で信頼性の高いサイト(例えばInternet Archive、以下IA)に保存して頂いた上で、その保存先も併記したいと思います。

丸ごと自分で保存して……という手段もありますが、法的な問題がありえますし、内容の信頼性も低くなります。また、出典にさかのぼろうとした人にとっては、もしその人がネットに詳しければ、そのソースが存在する/した事は、ほぼ正確に判断できるでしょうが、そうでない人もいますし、そもそもそれでは、引用者としての良心(と親切心)を疑われます。

しかし、例えばIAのウェイバック・マシンなどは、保存を依頼されてから公開までに数ヶ月かかる事もあるとの事で、今度は私の生産性が低下します。

タイトルに書いた内容が理想ですが、できるだけそれに近い手間で、上記の各利点を実現できないでしょうか? お知恵をお貸し下さい。

回答の条件
  • 1人1回まで
  • 登録:
  • 終了:2015/04/08 06:50:05
※ 有料アンケート・ポイント付き質問機能は2023年2月28日に終了しました。

ベストアンサー

id:cubick No.3

回答回数129ベストアンサー獲得回数39

ポイント50pt

操作の自動化に関しては例えばWindowsなら「UWSC」などで実現できそうです。
http://www.uwsc.info/

なお、引用に関して懸念の内容も理解出来ますが、引用元(一次ソース)が生きているうちは
出来る限り元のサイトのURLを載せるべきではないでしょうか。

Internet Archiveも一般に広く知られているというだけで、信頼性も恒久性も本当に保証が
あるのかというと他のサービスと変わりない気がします。
また、IAでアーカイブされたページも、画像ファイルが抜け落ちている事がままあるので、
元の状態を保っているかというと個人的には信頼性低いです。

既に挙がっていますが、URL含めて元ページのキャプチャ撮ってPDFにして添付、の方がまだマシかと。
どんな手順をとるにせよ、「何時(いつ)の時点で確認した情報なのか」を含める事も重要かと思います。

id:akkeyyyy

【元URIとバックアップ先URIを併記する】
【バックアップはPDFの参照日時保存機能を使用する】

元URIと保存先URI(IA等は諦めてネット上の私のストレージ内部の)を併記、というのが落とし所でしょうか……。ご意見ありがとうございます。他の情報についても、ネット上のソースに関して『シカゴ・マニュアル』等が対応してきていますので、それに従おうと思います。

2015/04/03 13:09:54

その他の回答3件)

id:rafting No.1

回答回数2652ベストアンサー獲得回数176

ポイント50pt

一旦、PDFで保存しておいて、論文を執筆する際にURLを叩いてページが存在するか確認するという方法をとったらいかがでしょうか?
Googleデスクトップというローカル専門の検索ツールがなくなってしまったので、Everythingというフリーソフトを使って検索すれば無駄な労力が少しは減るかと思います。http://www.voidtools.com/
ローカルにPDFを保存するだけでしたら、個人利用ということで別段問題ないと思います。
PDFも保存の仕方でURLも一緒に保存できます。
もちろん、リンク先が切れている場合もありますので、そのときには権利者に確認するなどすれば良いと思います。

id:akkeyyyy

【アプリ "Everything" を調べる】
【PDFの参照日時データ機能を使ってローカルにバックアップしても問題ないだろう】

アプリのご紹介、ありがとうございます。試してみます。

2015/04/03 13:08:28
id:Cherenkov No.2

回答回数1504ベストアンサー獲得回数493

ポイント50pt

tumblrがマッチしていると思います。記事や画像などをスクラップしていくウェブサービスです。
Sign up | Tumblr

Tumblr(タンブラー)って何?ゼロから始める使い方と楽しみ方 | nanapi [ナナピ]

id:akkeyyyy

【×社会的信頼性 ×恒久性】

Cherenkov 様、いつもお世話になっております。

挙げていただいたサービスについては、重要な点である、「社会的信頼性」、そして「恒久性」が確保されているか怪しい、というのが難点です。

実は、質問文に収まりきらなかったのですが、私が書くレポート類の多くは、それ自体が「商品」でして、レポート類を受け取った側(クライエント)は、レポートの出典の内容に関して、一切の疑念(少なくとも、その内容、存在した日付時刻、及びどのドメインにあったか、等)が発生してはなりません。

その観点からは、挙げて下さいました "Tumbir" に関しては、あくまでも一瞥したところではですが、通常の、クルーシャルではないな用途では便利なのかもしれませんが、何しろ、IAのような、もっとも信頼されているウェブ・アーカイブの一つでさえも、その証拠能力の有無が米国連邦裁判所まで争われて、ギリギリのところで認められた経緯が近年になってからあったように記憶しておりますので、ましてや "Tumbir" に関しては、きわめて疑問です。

一応、ご教示くださった Tumblr の社会的信頼性と資本上の中立性についても、引き続き調べてみますが、現在のところ、私の今回の用途に対しては、有益であるとの結論に達する可能性は薄い感触を得ています。

とは言え、このサービスは、他の用途においては、非常に使えそうな感じがします。大変ありがとうございます。

2015/04/01 23:37:50
id:cubick No.3

回答回数129ベストアンサー獲得回数39ここでベストアンサー

ポイント50pt

操作の自動化に関しては例えばWindowsなら「UWSC」などで実現できそうです。
http://www.uwsc.info/

なお、引用に関して懸念の内容も理解出来ますが、引用元(一次ソース)が生きているうちは
出来る限り元のサイトのURLを載せるべきではないでしょうか。

Internet Archiveも一般に広く知られているというだけで、信頼性も恒久性も本当に保証が
あるのかというと他のサービスと変わりない気がします。
また、IAでアーカイブされたページも、画像ファイルが抜け落ちている事がままあるので、
元の状態を保っているかというと個人的には信頼性低いです。

既に挙がっていますが、URL含めて元ページのキャプチャ撮ってPDFにして添付、の方がまだマシかと。
どんな手順をとるにせよ、「何時(いつ)の時点で確認した情報なのか」を含める事も重要かと思います。

id:akkeyyyy

【元URIとバックアップ先URIを併記する】
【バックアップはPDFの参照日時保存機能を使用する】

元URIと保存先URI(IA等は諦めてネット上の私のストレージ内部の)を併記、というのが落とし所でしょうか……。ご意見ありがとうございます。他の情報についても、ネット上のソースに関して『シカゴ・マニュアル』等が対応してきていますので、それに従おうと思います。

2015/04/03 13:09:54
id:a-kuma3 No.4

回答回数4973ベストアンサー獲得回数2154

ポイント50pt

元URIと保存先URI(IA等は諦めてネット上の私のストレージ内部の)を併記、というのが落とし所でしょうか……。

ご自身のストレージへの保存も視野に入れて良いのであれば、archive.todayというサイトが使えると思います。

いわゆる魚拓を取るサイトです。
まだ若いサイトなので恒久性という意味での信頼感はどうかな、という気はしますが、ページに含まれる画像やスタイルシート、はてはフレームの中まで複製を取ってくれます。
魚拓を取るサイトで有名なのは http://megalodon.jp/ だと思いますが、archive.today が優れているのは、魚拓のダウンロードができるところです。
魚拓を取ったページの上部に download.zip というリンクがあるのですが、これで魚拓を取ったソースを一括でダウンロードできます。

ちょっと前に、この質問の魚拓を取ったのが、こちらです。
https://archive.today/nftWQ

トップページでは保存対象の URL を入力するようになっていますが、Bookmarklet も用意されてます。
Bookmarklet を使えば、

  1. とっておきたいページがあったら、Bookmarklet をクリック。
    スナップショットを取るのに、しばし待たされます。
  2. 完了すると、スナップショットのページに移動します。
  3. ctrl + L でロケーションバーにフォーカスを移動して、ctrl + C で URL をコピー。
  4. download.zip をクリックして、複製を保存する。

1クリック+キー操作×2 で、ページの保存から URL の複写までが終わりますので、さして手間もかからないのではないかと思います。

id:akkeyyyy

【archive.today について調べる】
【megalodon.jp について調べる】

ご免なさい、また自動終了になってしまいました。

「魚拓」という言葉を知りました。

あとで調べてまとめたいと思いますが、ご回答を拝読する限りでは、自分のストレージに保存する場合は、クライアントの記憶装置に落ちて来るのでしょうか。

しかしその問題も、回答 No. 3 の cubick 様がご紹介くださった "UWSC" を使えば、ほぼ消えそうです。

昔、"RocketMouse" という素晴らしい操作自動化アプリがありましたが(おそらく今でもありそうですが)、自動化した一連の動作が、ページの読み込み終了のタイミングが難しく(私の調査不足の可能性も大いにありますが)、それがより低水準化された様なもの(コンピュータ言語で書くのに近い)であれば、そちらの方が助かります。

大変有難うございました。

2015/04/09 15:52:05
id:akkeyyyy

以前、a-kuma3 様より、自動終了を避けるべきであるとお教えいただいたにも関わらず、また自動終了させてしまいました。皆様、申し訳ございません。

Internet Archive に似たサービスが多く立ち上がっていたことに、心強さを感じます。

しばらく時間がかかると思いますが、はてなブログに、まとめ記事を掲載したいと思います。

大変有難うございました。

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

回答リクエストを送信したユーザーはいません