見出し画像

Webサイト作ったけど、Google検索に引っ掛からなくね?

はじめに


Webサイトの作成をし、デプロイした後、Google検索をしたが、作成したサイトが検索に引っかかっておらず、Googleの世界線にページが存在していなかったため、その原因と解決策をこちらに記述


原因


検索エンジンにサイトが認識されていなかった・・・

なぜ、それが発生したかというと
サイトマップファイルの作成・登録が行われていなかったから

サイトマップとは・・・

要するに、検索エンジンに「うちのサイトにはこんなページがあるよ」と教えるためのファイルのこと。このファイルを作成する事で、検索エンジンがWebサイトをより正確かつ効率的にデータベースに登録する形となり、
結果、検索結果に表示されやすくなる

この状況を、生活の中で例えると

車買った後、車両登録せずに乗り回したり
引越した後、住所変更手続きせずに、引越し先に住み続ける

そんな感じ。なので、生活の中だと

この車、今日から俺が乗ることになったから、よろしく!
・引越し先、今日からここだから、よろしく!

って、必要機関に情報をなんらかの形で提出すると思うんだけど
それを、WebサイトだとGoogle先生に提出(登録)するって事さ

サイトマップを登録する詳細目的と重要性

については、以下の通り

  • クローリングのサポート:検索エンジンがウェブサイトをより効果的に検索し、重要なページを見逃さないようにするのに役立。特に大規模なサイトや頻繁にコンテンツが更新されるサイト、ページ同士のリンクが少ないサイトにとっては非常に重要

  • メタデータの提供: ページの更新日時、更新頻度、ページの優先度といったメタデータを含めることができ、検索エンジンにページの状態を詳細に伝えられる

  • インデックスの最適化: 新規ページ・更新ページを迅速に検索エンジンに通知することが可能となり、サイト全体が見つかりやすくなる

解決方法 - 2ステップ


1 サイトマップの作成

まず、ファイルの種別ですが、多くの場合サイトマップは.xmlや.rss形式でファイルが作成される
また、CMS(WordPressなど)やフレームワーク(Laravelなど)を使用している場合サイトマップファイルを自動生成するためのプラグインやライブラリが存在する為、それを使用すればOK

2 Google Search Consoleにサイトマップを登録

  1. Google Search Consoleにアクセス
    サイトマップを生成したら、Google Search Consoleに登録し
    検索エンジンに認識してもらいます

  2. サイトの所有権を確認するためGoogleが提供する指示に従う
    (HTMLファイルをアップロードする、DNS設定を変更するなど)

  3.  サイトマップのURLを追加
    Google Search Consoleの「Sitemaps」セクションに移動
    サイトマップのURLを入力します。例えば、https://yourdomain.com/sitemap.xmlのように入力
    ・「送信」をクリックして完了

更にサイトマップを認識させたい場合(SEO改善)



更に検索エンジンがサイトマップを認識しやすくさせたい場合
ウェブサイトのルートディレクトリ(トップレベルディレクトリ)に
robots.txtファイルを作成・配置するとgood

robots.txtとは

収集されたくないコンテンツをクロールされないように制御するファイル
配置すると、Google先生に自サイトにとって重要なコンテンツを中心に
クロールさせることができる

要は、SEO改善が見込めるって事

robots.txtファイル作成(※ファイルの中身)

User-agent: *
Disallow: /admin/
Disallow: /login/

Sitemap: https://example.com/sitemap.xml

各項目の説明

  • User-agent: この項目で、特定のクローラーを指定。
    (* はすべてのクローラーを対象とする指定)

  • Disallow: クローラーに対して、クロールしてほしくないページやディレクトリを指定。たとえば、/admin/ や /login/ と指定すると、これらのページはクローラーにクロールされない

  • Sitemap: サイトマップのURLを記載。これにより、クローラーにサイトマップの位置を教えることができる。URLは実際のサイトマップのURLに変更しないとNG

実際の内容としては

  • 基本的なファイルであれば、上記の例をコピペして内容を作成し、必要に応じて Disallow のディレクトリをカスタマイズ

  • サイトマップのURL部分(https://example.com/sitemap.xml)は、実際のURLに置き換える

robots.txt の配置場所

  • 自分のサイトに合わせて記述を変更し、ファイルを作成します。

  • その後、この robots.txt ファイルをサーバーのルートディレクトリ(Laravelの場合は public ディレクトリ)にアップロードします。

robots.txt のカスタマイズをする場合

特定のページをクロールさせたくない場合や、特定のクローラーだけに指示を出したい場合にカスタマイズも可能

例1: すべてのページをクロールさせない

User-agent: *
Disallow: /

例2: 特定のクローラー(Googlebot)のみに指示を出す

User-agent: Googlebot
Disallow: /private/

参考情報

  • ほとんどの場合、上記の基本的な例で問題ない

  • 特に複雑な記述が必要ない場合は、robots.txt ファイルは簡単に作成できるイメージ

もしさらにカスタマイズが必要な場合や特別な指示を出したい場合
以下、検索エンジンのドキュメント資料を参考にしてみてくだされ


いいなと思ったら応援しよう!