うちのサーバにはドメインが2種類用意してあります。
http://www.hogehoge1.com/robots.txt
http://www.hogehoge2.com/robots.txt
どちらも同じrobots.txtを開くことが出来るんですが、
http://www.hogehoge2.com/robots.txt
と指定された場合はアクセスを拒否したいんです。
何か方法はないでしょうか。
・環境
OS: redhat linux 9
httpd: apache2
initd等は動かしていません。
うまくいくかわからないですが
http://httpd.apache.org/docs/2.0/ja/mod/core.html#virtualhost
VirtualHost内に
RedirectMatch /robots.txt http://www.hogehoge2.com
--------------
行けそうには思うのですが・・。
http.confまたは.htaccessに以下のような記述を。
// hogehoge2.com/.htaccess
RewriteEngine on
RewriteCond %{REQUEST_URI} robots.txt
RewriteRule ^.*$ - [F,L]
http://www.hogehoge2.com/robots.txtへのアクセスを
http://www.hogehoge1.com/robots.txt
に転送したいのなら
// hogehoge2.com/.htaccess
RewriteEngine on
RewriteRule robots.txt http://www.hogehoge1.com/robots.txt [R=301,L]
mod_rewriteが許可されている必要があります。
一度全ての回答を開きます。
検証させていただきます。
SetEnvIf Request_URI www.hogehoge2.com hogehoge2 <Files robots.txt> Order Deny,Allow Deny from env=hogehoge2 </Files>
ご質問どおりだと .htaccess にこんな感じで書いておけば対応可能かと思います。でも、
・・・という内容なのですが、それでニーズにあってますでしょうか?
一度全ての回答を開きます。
検証させていただきます。
お考え、あっています。
どこからもリンクされていない あるページを robots.txtからドメイン指定で拾わせたいのです。
通常アクセス拒否用に使うのかもしれませんが、今回は逆に拾わせる為に使用します。
・・・HTTP_HOST環境変数でredirect振り分けしたページ内のリンクにこっそりそのページをリンクしておけばいいのか・・・今気付いた・・・
でも皆さんに回答していただいた内容の方がスマートそうなので
全ての方法を検証させていただきます。
一度全ての回答を開きます。
検証させていただきます。