大手のサーチエンジンは大抵 robots.txt や meta タグによるクロール制御に対応しているのでそれらを適切に行うことで検索されなくなります。
1つは、運営しているサイトの /robots.txt でアクセスできる場所に以下の内容のテキストファイルを置きます。
User-Agent: *
Disallow: /
これはこのサイトの全てのコンテンツをインデックスさせないという指定です。
以下のように隠したい場所のみをしていした Disallow を書いたり、User-Agent を * ではなく明記することで Google には検索されたいけど、Yahoo では検索されたくないといった指定も可能です。
User-Agent: Googlebot
Disallow: /himitu/
Disallow: /ura.html
User-Agent: Slurp
Disallow: /example.html
また、各ページ個別に以下のようなmetaタグを書くことでページ毎にHTMLだけで制御することもできます。
<meta name="robots" content="noindex,nofollow" />
noindexは検索対象ページにならないようにする指定で、nofollowはこのページのリンクをたどらないようにする指定です。