現在テキストファイルに数百のURLが書かれているとします。これらのページについてPDFを作成したいと思った場合、どのような手段がありますでしょうか。
当方Macを利用しており、Automatorの"Download URLs as PDFs"を利用しようとしたのですが、SnowLeopardでは動かないようです。Macに限らず、Windowsソフトやシェルスクリプト等でも可です。よろしくお願いします。
他社サービスの手を借りない場合では、プリンタAPIを使ってWindows上でバッチ処理を行ってみた人が居るようです。
URL参考になります。ありがとうございます。LivePDFは配布終了しているようですが、他のPDF作成ソフトがあれば、何とかなりそうですね。
このソフトでできるのではないかと思います。体験版あり。
littlesnapper
http://www.act2.com/products/littlesnapper.html
もっと手軽にシェルスクリプトとsafariでも行えます。
http://www.openspc2.org/projectX/MacOS/0006/index.html
#!/bin/sh Num=1 for url in `cat ~/list.txt` do open -a /Applications/Safari.app $url sleep 5 screencapture -x $Num.pdf
最初のソフトはこれから使ってみます。
2つ目のシェルスクリプト&safariはscreencaptureを使っているため、縦長のWEBページの場合、下の部分が切れてしまいますね。(ちなみに、snowleopardでは、screencaptureのデフォルトはpngなのでこのままだとpngが作成されました。
引き続き解答を募集したいと思いますので、よろしくお願いします。
URLを入力するだけでHTMLをPDFに変換する無償サービス,Web APIも公開
http://itpro.nikkeibp.co.jp/article/NEWS/20070206/260911/
が最近話題になっていたと思います。
1の方と同じサービスですね。ご回答ありがとうございます。
http://www.html2pdf.biz/api.php
ですね。
フリーWebAPIなので処理速度が心配ですが、検討してみます。直近でPDFにしたサイトが右に出てしまうのが、難点ですが^^;
ありがとうございます。