SEO 2025年07月11日

【インデックス停止の危機を回避】robots.txtの正しい書き方・設置とSEOクロール制御戦略

MIP編集部

この記事を書いた人

株式会社MIPのマーケティング専門チームです。デジタルマーケティング業界で5年以上の実務経験を持つ専門家が、実践的で価値のある情報をお届けしています。SEO、広告運用、コンテンツマーケティングの分野で数多くの企業様の成果向上をサポートし、その知見を記事として発信しています。

マーケティング専門家 実務経験5年以上 コンサルティング実績多数

Webサイトの公開と同時に、検索エンジンのクローラーは情報を読み取りに来ます。そのクローラーを迎え入れる門番であり、Webサイトのクロール効率を制御する最も重要なファイルが「robots.txt」です。

robots.txtは、一見単純なテキストファイルですが、その設定を誤ると、SEOに重要なページまでクロールがブロックされ、結果的に検索結果から姿を消すという致命的な事態を引き起こします。

この記事では、Webマーケターや経営者の方々が、robots.txtの基本的な役割から、Googleの公式ガイドラインに準拠した正確な記述方法、そしてSearch Consoleを活用したリスク回避策までを徹底解説します。御社のWebサイトのクロール体制を万全にし、不必要なリスクを排除しましょう。


サイトの「門番」robots.txtの基本とSEOにおける役割

robots.txtがSEO戦略の土台となる理由と、その基本的な役割を正しく理解します。

robots.txtの定義:クロールを制御する「唯一の公式文書」

robots.txtとは、検索エンジンクローラー(ロボット)に対し、「サイトのどの領域をクロールして良いか、またはクロールしてはいけないか」という指示を伝えるためのテキストファイルです。

このファイルは、Webサイトのルートディレクトリ(最上位の階層)に配置される必要があり、クローラーはWebサイトにアクセスする際、まずこのファイルを探し、そこに記載された指示に従おうとします。

  • 役割: クローラーの巡回先を指示し、Webサイトのサーバー負荷を軽減し、重要なページへのクロールを優先させる(クロールバジェットの最適化)。
  • 重要性: クローラーの巡回を制御する唯一の公式なファイルであり、設定を誤るとサイト全体がインデックスされなくなる(Googleに発見されなくなる)という極めて重大なリスクがあります。

robots.txtとnoindexタグの決定的な違いと使い分け

robots.txtとnoindexタグは、どちらもWebサイトを検索結果から除外するために使われることがありますが、その役割は決定的に異なります。

制御方法役割制御対象SEO上の効果
robots.txt (Disallow)クロールをブロックするクローラー(ロボット)サーバー負荷軽減、クロールバジェット最適化
noindexタグインデックスをブロックする検索エンジンのインデックス検索結果からの除外、コンテンツの品質維持

Googleは公式に、robots.txtのDisallowによってクロールがブロックされた場合でも、他のサイトからのリンクなどによってページが発見された場合、URL自体が検索結果に表示される可能性がある(タイトルやスニペットが表示されない場合がある)と述べています。

robots.txt ファイルを使用してページへのクロールをブロックしても、Google がそのページをインデックスに登録することを妨げることはできません。

引用元: Google 検索セントラル「robots.txt の概要」

URL: https://developers.google.com/search/docs/crawling-indexing/robots/intro?hl=ja

【正しい使い分け】

  • robots.txt: 検索結果に表示される必要がない、またはクロールされる必要がない、サーバー負荷をかけたくない(例: ログイン画面、管理画面、大量のパラメータ付きURL)ページに適用します。
  • noindexタグ: ユーザーに見せても問題ないが、検索結果には表示させたくない(例: サンクスページ、低品質なアーカイブページ)ページに適用します。

Google公式のrobots.txtの正しい記述ルールとディレクティブの使い方

robots.txtは厳格なルールに基づいて記述しなければなりません。記述ミスは致命的な結果を招きます。

User-agent、Disallow、Allowディレクティブの基本と記述例

robots.txtは、クローラーの種類を指定する「User-agent」と、クロールを許可/禁止する「Disallow/Allow」の3つの主要なディレクティブ(命令)で構成されます。

ディレクティブ役割記述例
User-agentどのクローラーに対して命令を適用するか指定するUser-agent: * (全てのクローラー)User-agent: Googlebot (Googleの主要クローラーのみ)
Disallowクロールを禁止するパスを指定するDisallow: /wp-admin/ (管理画面全体を禁止)Disallow: /private/secret.html (特定のファイルを禁止)
AllowDisallowでブロックしたパスの中でも、特別に許可するパスを指定するAllow: /wp-admin/admin-ajax.php (特定のファイルのみ許可)

【記述のルール】

  • 大文字・小文字の区別: パス名は大文字と小文字が区別されます(Disallow: /PrivateDisallow: /privateは別)。
  • アスタリスク(*): ワイルドカードとして利用可能(例: Disallow: /*?s= で検索パラメータを含むURLを禁止)。

クロールバジェットを効率化するrobots.txtの戦略的な活用法

クロールバジェットとは、GoogleがWebサイトに割り当てる「クロールに費やす時間と頻度」の予算です。クロールバジェットには限りがあるため、これを最適化することがSEO戦略において重要になります。

  • 重要性の強調: 重要なページにクローラーの時間を集中させ、SEO評価に無関係なページ(例: ログインページ、テストページ、フィルタリング結果)へのクロールを抑制することで、インデックス効率を高めます。
  • Disallowの活用: Webサイトの管理画面や、ユーザーにとって価値のない大量のパラメータ付きURLなど、インデックスする必要のない領域をDisallowで指定し、クローラーの時間を節約します。

この戦略的な制御は、特に大規模なECサイトやニュースサイトにおいて、新しいコンテンツの迅速なインデックスに直結します。

XMLサイトマップの場所をrobots.txtで通知する役割

robots.txtには、XMLサイトマップの場所をクローラーに知らせるという、もう一つの重要な役割があります。

記述例:

User-agent: *
Disallow: /wp-admin/
Sitemap: https://www.example.com/sitemap.xml

これにより、クローラーはWebサイトのクロールを開始する前に、サイト全体の目録であるXMLサイトマップの場所を把握でき、効率的かつ網羅的なクロールが可能になります。この記述は、Search Consoleへの送信とは別に、全クローラーへの通知として機能します。


robots.txtの設定ミスによる重大リスクとSearch Consoleでの検証

robots.txtの最大の課題は、設定ミスが表面化しにくいにも関わらず、その影響が致命的である点です。

設定ミスが引き起こす「インデックス停止」という致命的なリスク

robots.txtの記述ミスで最も恐ろしいのは、意図せずサイト全体をブロックしてしまうことです。

  • 例: ルートディレクトリのブロックDisallow: /この記述は、「ルートディレクトリ以下のすべてをクロール禁止」を意味し、Webサイト全体が検索結果から消えるという致命的な結果を招きます。
  • 例: 必須ファイルへの影響Disallow: /wp-content/CSSやJavaScriptファイルなどがこのディレクトリにあり、それがモバイルフレンドリーやCore Web Vitalsの評価に必要な場合、コンテンツのレンダリングが妨げられ、結果としてランキングが低下します。

このリスクを回避するためには、ファイルを公開する前の厳密なチェックが不可欠です。

Search Consoleの「robots.txtテスター」を使った検証手順

Googleは、robots.txtの設定ミスを未然に防ぐための公式ツールを提供しています。

  • ツールの場所: Google Search Consoleの「設定」メニュー内にある「robots.txtテスター」(現在は「クロールの統計情報」などに統合されている場合もありますが、ヘルプページで確認できます)
  • 検証手順:
    1. テスターに現在のrobots.txtの内容を貼り付ける、またはアップロードします。
    2. サイト内の重要なURL(例: トップページ、主要記事)を入力します。
    3. 「Googlebot」など特定のUser-agentを選択し、「テスト」を実行します。
    4. 結果が「許可」になっていることを確認します。「ブロックされています」と表示された場合は、記述を修正します。

このテスターは、サーバーにアップロードする前の最終チェックとして利用し、致命的なエラーを回避するための唯一の公式な手段です。

robots.txtをサーバーに設置する際のファイル名とアップロード場所

robots.txtのファイルがGoogleに認識されるためには、以下のルールを厳守する必要があります。

  • ファイル名: ファイル名は必ず小文字robots.txtとしなければなりません。
  • アップロード場所: Webサイトのルートディレクトリ(ドメイン直下)に配置する必要があります。
    • 正: https://www.example.com/robots.txt
    • 誤: https://www.example.com/folder/robots.txt

ファイルが正しい場所に見つからない場合、クローラーは「robots.txtが存在しない」とみなし、サイト内の全てのページをクロールしようとします。


まとめ:robots.txtは「アクセス許可」を与える重要な契約書

robots.txtは、Webサイトと検索エンジンとの間で交わされる「アクセス許可の契約書」のようなものです。

  • robots.txtはクロールを制御し、noindexはインデックスを制御するという決定的な違いを理解する。
  • User-agentとDisallow/Allowを正確に記述し、クロールバジェットの最適化を図る。
  • サーバーへのアップロード前に、Search Consoleのテスターで必ず設定ミスがないかを検証する。

この地味ですが、極めて重要なファイルを正確に管理することが、サイト全体のSEO評価を守り、重要なコンテンツのインデックス効率を最大化する鍵となります。

もし、robots.txtの設定や、それに関連するクロール制御、あるいは複雑な技術的SEOの問題解決にお悩みであれば、私たち株式会社MIPにご相談ください。Googleの公式ガイドラインと、実務的な改善ノウハウに基づき、貴社のWebサイトの土台を盤石なものにいたします。

マーケティングの運用でお困りですか?

当社の専門チームが、あなたのビジネスに最適な戦略をご提案いたします。

無料相談を申し込む