Fess は robots.txt でクローリングできなくなる
Fess でクローリングを実行してもうまくいかない自分のサイトがあった。
いろいろ研究してみたところ、どうやら robots.txt でクローリングを無効化する設定をしていることが原因だと分かった。
一時的に robots.txt のファイル名を変えて無効化したところ、クローリングがうまくいった。
Fess 側のウェブクロール設定で「設定パラメータ欄」に以下のように設定することで robots.txt を無視できるらしいが、この方法はなぜか反映されなかった。
client.robotsTxtEnabled=false
参考:
robots.txtとは?意味から設定方法まで詳しく解説|アクセス解析ツール「AIアナリスト」ブログ
https://wacul-ai.com/blog/seo/internal-seo/seo-robots-txt/
robots.txtとは?意味やSEO効果、設定方法を徹底解説 | ウィルゲート
https://www.willgate.co.jp/promonista/robots-txt/
robots.txt の書き方、設定と送信 | Google 検索セントラル | ドキュメント | Google for Developers
https://developers.google.com/search/docs/crawling-indexing/robots/create-robots-txt?hl=ja
Fessでrobots.txtなどを参照する設定 | 今日のひとこと
https://www.chazine.com/archives/3983
この記事が気に入ったらサポートをしてみませんか?