WordPressが自動作成したrobots.txtを修正する

スポンサーリンク

WordPressは、パーマリンク設定を基本(例:https://demo.kimoba.com/?p=123)以外にすると、ドメイン直下に自動で仮想robots.txtを作成します。

仮想robots.txtの確認方法

仮想robots.txtは、FilezillaなどのFTPアプリではファイル名が表示されません。でも、確かに存在しています。

自分のサイトのURLに「/robots.txt」を追加すると、ブラウザーで内容が確認できます。
仮想robots.txt確認方法

 

仮想robots.txtの修正方法

仮想robots.txtを修正するには、テーマファイル内の「functions.php」に処理をしてくれる関数を追加します。

//robots.txtにサイトマップ指定
function edit_robots_txt($output) {
    $public = get_option('blog_public');
    $url = esc_url(home_url('/'));
    if ( '0' != $public ) {
        //検索エンジンがブロックされていない場合
        $output .="Sitemap:" .$url ."sitemap.xml\n";
    }
    return $output;
}
add_filter('robots_txt', 'edit_robots_txt');

上の例の関数では、仮想robots.txtにXMLサイトマップ情報を追加するように命令しています。

 

robots.txtのテスト方法

robots.txtが正しく書かれているかGoogle Search Consoleで簡単にチェックができます。
robots.txt google search consoleテスト

Google Search Consoleの右のメニューから「robots.txtテスター」を選ぶと、勝手にファイルを読み込んでくれてテストまでしてくれます。
エラー数や警告数が0であるなら問題ありません。

 

仮想robots.txtと自作robots.txtの優先順位

自分で作成したrobots.txtをドメイン直下にアップロードした場合、自作robots.txtが仮想robots.txtより優先されます。
なので、functions.phpを修正したくなかったり、簡単に済ませたい場合は、robots.txtを作成してアップロードする方法でも大丈夫です。

スポンサーリンク

逆引き辞典 

この記事と一緒によく読まれています!