人力検索はてな
モバイル版を表示しています。PC版はこちら
i-mobile

検索エンジンを完璧に避ける方法を教えて下さい

.htaccessをサーバーに設置するなど色々とあるようですが完璧でないようですし
PHPなどでするセッションなどを利用したアクセス制限のやり方も見れないだけで拾われてるように感じます。

MIXIなどのSNSはどうやって回避しているかなどの実例の方が望ましいです。
プログラムはPHPを使っていますので、プログラムが必要な場合PHPでのやり方を教えて下さい

リンクでも構いませんが、具体的な例があるものをお願います

●質問者: robopit
●カテゴリ:ウェブ制作
○ 状態 :終了
└ 回答数 : 3/3件

▽最新の回答へ

1 ● oil999
●5ポイント

PHPであってもなくても確実に避けられる方法が以下に紹介されています。

robots.txt ファイルを使用してページをブロックまたは削除する

Google公式 http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=156449


robopitさんのコメント
ありがとうございます。

2 ● うぃんど
●100ポイント ベストアンサー

googleはrobots.txtに従いますが、
サイトの利用者や、他の検索エンジンが従うというものでもないため、
他の検索エンジン経由で漏れます。つまりは完璧どころか穴だらけです。

完璧を目指すのであれば物理的遮断しかありません。


それはさておき本題にもどりますが、
phpで作ったアプリケーションのカバー範囲で出来ることは非常に限られています。

phpのアプリケーションの前にはphp本体がありますが、
そこの脆弱性を衝かれたらどうしますか?
php本体の前にはapacheなどのwebサーバーソフトがありますね。
webサーバーソフトの前にはOSのネットワーク関連ソフトがありますよね。
さらにその前にはネットワークのデバイスドライバソフトもありますよね。
さらにその前にはルータもありますね…。

上に挙げたようなソフトの脆弱性に関してはセキュリティアップデートや、
セキュリティソフトで対処しますが、通信者の成りすましや、
他所からの侵入を防ぐために、銀行などの金融機関やmixiなどは、
httpsプロトコルを採用して他所からの通信を阻害するようにしています。
(はてなでは、ユーザー設定ページなど一部のページで、
httpsを選択できるようになっています。)

ちなみにmixiのサーバー証明書はサイバートラストが担当しています。
https://www.cybertrust.ne.jp/ssl/news/120419.html


なお、
httpsも共用SSLだと契約者単位ではなくサーバー単位での契約となるため、
同一サーバー上で運営される他者コンテンツ経由でのアクセスなどの危険性があります。

ちょっとした物販程度であればメールでの通信と変わらない程度の問題になりますが、
取引が大量に発生するような人気サイトになる前に、
占有サーバー+専用SSLへの移行が必要になってくるでしょう。


うぃんどさんのコメント
すでに知っているかもしれませんが、 phpでもやっておくべきことが色々書いてあるので、 下記も参照しておいてください。 http://php.net/manual/ja/security.php

robopitさんのコメント
詳しい情報ありがとうございます。 質問したいのですが、たしかにMIXIのログインページにはSSL証明がされていますが、ログイン後のページはSSLはされていないように思えます。 これは、mixiの内部は完璧ではないけど、robots.txtなどで大体はじけているからいいや という状態なんでしょうか?

うぃんどさんのコメント
httpsをログイン時だけ利用して、その時点でセッションを張る準備を済ませます。 セッション確立と同時にhttpによる通信に戻して以後の動作コストを少なくします。 (本人確認の時だけしっかりするというやり方) 銀行のネット取引はログイン手続きから後は常にhttps通信を使っていたりします。 (本人確認の後もしっかり続けるというやり方) 信頼性と運用コストを天秤にかけた結果として、 銀行系はより強固にしているということになります。

うぃんどさんのコメント
robots.txtはサーチエンジンのロールによる執拗なアクセスを減らす目的で設置します。 robots.txtによって行儀の良いサーチエンジンは自らアクセスするのを辞めたり減らしたりしますのでサーバー管理者は楽になります。 サーバー管理者はアクセスログなどを適宜監視して、執拗にアクセスしてくるエンジンなどがあれば、IPアドレスで拒否したりしますが、googleのように行儀良くしてくれるエンジンへの対応が減った分だけ、手間が減り、通信コストも減り、ルーターやサーバーの動作コストも減るということになるわけです。 今回の件とは直接はあまり関係しませんがrobots.txtを設置しておくことを頭の片隅には置いておいても良いでしょう。

robopitさんのコメント
ありがとうございます。 MIXIなどでは基本はPHPなどのプログラムで制御しているということなんですね。 ベストアンサーで締めきりたいと思います

うぃんどさんのコメント
ニュアンスの違いかもしれませんが、プログラムで制御ではなく、 sslで守られた上でphpなどを使った認証を行ってるというような表現になりますね。

3 ● 楽1978
●5ポイント

完璧にというのは無理ですが、簡単に避ける方法にはこのようなものがあります。
http://web-tan.forum.impressrd.jp/e/2009/01/06/4733


robopitさんのコメント
ありがとうございます
関連質問

●質問をもっと探す●



0.人力検索はてなトップ
8.このページを友達に紹介
9.このページの先頭へ
対応機種一覧
お問い合わせ
ヘルプ/お知らせ
ログイン
無料ユーザー登録
はてなトップ