URLを指定すると他のサイトの画像を取得して、自分のサイトのディレクトリに保存できるCGI(できればPerlで書かれているもの)を探しています。一度ローカルに保存してアップすればいいだけの話なんですが、その手間を省く方法をご存知の方、ぜひ、ご教授ください。

回答の条件
  • URL必須
  • 1人2回まで
  • 登録:2003/06/24 14:51:45
  • 終了:--

回答(2件)

id:gwinzi No.1

gwinzi回答回数148ベストアンサー獲得回数02003/06/24 15:38:01

ポイント45pt

wgetというコマンドがあります。

これをCGIで引数(URL)を渡してあげればよいとおもいます。

id:gwinzi No.2

gwinzi回答回数148ベストアンサー獲得回数02003/06/24 15:42:02

ポイント45pt

UNIXコマンドでwgetというコマンドがあります。これは指定したURLのページを一括ダウンロードするコマンドです。ダウンロード支援ツールであり、ホームページ自動巡回ツールでもあります。

フォームのURLをCGI等でコマンドの引数として受け渡してあげればよいかとおもいます。

CRONが利用できるのなら、CGIでCRONタブを修正するようにすると便利になるかもしれません。

id:nektixe

なるほど、こんな便利なコマンドがあるんですね。

なんとかやりたいことができそうです。

お二方、ありがとうございました。

2003/06/24 17:03:06

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

絞り込み :
はてなココの「ともだち」を表示します。
回答リクエストを送信したユーザーはいません