指定したブログの新着記事を読み込み、リンクされている画像だけを自動で保存するツールなどないでしょうか。出来れば、その保存先ディレクトリはそのブログの記事のタイトルであると便利です。


Windows / Mac / UNIX何でもいいですが、Perlのスクリプトとかだとありがたいです。

回答の条件
  • 1人10回まで
  • 13歳以上
  • 登録:2012/01/01 23:45:38
  • 終了:2012/01/08 23:50:03

ベストアンサー

id:TransFreeBSD No.1

TransFreeBSD回答回数668ベストアンサー獲得回数2682012/01/02 01:49:35

まずブログの新着確認だと、やっぱりRSSかなと思ってググると、ちょうどそれらしいのありました。
RSSはXML::Feedで処理して、以前との重複分を除いて(それをDeduperと言うらしい)新着分を取得してます。
http://d.hatena.ne.jp/tokuhirom/20090407/1239079453
XML::Feed自体は次のエントリ。
http://d.hatena.ne.jp/ramtiga/20110711/p1

で、そこから画像取得というと、定番はWeb::Scraperかと思います。
http://d.hatena.ne.jp/inouetakuya/20100324/1269450251
あと、jQuery風なWeb::Queryというのがある様です。
http://perl-users.jp/articles/advent-calendar/2011/casual/22

まとめると、XML::Feed::Deduperで新着エントリのタイトルとURLを取得して、Web::Queryで画像URLを取得してLWP::UserAgentで画像自体を取得、という流れでしょうか。

その他の回答(1件)

id:TransFreeBSD No.1

TransFreeBSD回答回数668ベストアンサー獲得回数2682012/01/02 01:49:35ここでベストアンサー

まずブログの新着確認だと、やっぱりRSSかなと思ってググると、ちょうどそれらしいのありました。
RSSはXML::Feedで処理して、以前との重複分を除いて(それをDeduperと言うらしい)新着分を取得してます。
http://d.hatena.ne.jp/tokuhirom/20090407/1239079453
XML::Feed自体は次のエントリ。
http://d.hatena.ne.jp/ramtiga/20110711/p1

で、そこから画像取得というと、定番はWeb::Scraperかと思います。
http://d.hatena.ne.jp/inouetakuya/20100324/1269450251
あと、jQuery風なWeb::Queryというのがある様です。
http://perl-users.jp/articles/advent-calendar/2011/casual/22

まとめると、XML::Feed::Deduperで新着エントリのタイトルとURLを取得して、Web::Queryで画像URLを取得してLWP::UserAgentで画像自体を取得、という流れでしょうか。

id:hiromaca No.2

hiromaca回答回数8ベストアンサー獲得回数02012/01/02 13:18:21

id:naochin

手動でやる場合は、DownThemAllは非常に有用なツールだと思います。
実際、今利用しているのはDownThemAllです。
しかし、「新着記事を」「自動で」「ページのタイトルをディレクトリ名に」などの条件を満たしません。

2012/01/03 06:18:10
id:hiromaca

Perlでしたら、、、

http://yusukebe.com/

が参考になるかと。

2012/01/03 07:55:14

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

絞り込み :
はてなココの「ともだち」を表示します。
回答リクエストを送信したユーザーはいません