在 SEO 优化中 robots.txt 文件非常重要,当搜索引擎爬虫访问一个网站的时候,会先去查看这个文件,它可以告诉搜索引擎,那些页面不希望被搜索引擎索引,避免垃圾收录。

robots.txt 文件一般直接添加到网站的根目录即可(https://www.weixiaoduo.com/robots.txt)。而很多朋友会发现,根目录即使没有 robots.txt 文件,访问时也不是 404 找不到报错,而是出现了一些内容。

默认内容

User-agent: *

Disallow: /wp-admin/

Disallow: /wp-includes/

虚拟 robots.txt 文件

看到的默认内容,就是 WordPress 的虚拟 robots.txt 文件。利用 PHP 的伪静态机制,实现虚拟 robots.txt 文件,当根目录真有一个 robots.txt 文件时,虚拟的就会被 “覆盖” 掉。

如果你要给虚拟 robots.txt 文件添加内容的话,可以使用下边的代码,添加到主题的 functions.php(了解更多) 或者插件里即可。

/**

    *WordPress 虚拟 robots.txt 文件

    *https://www.weixiaoduo.com/invented-robots-txt/

*/

functionBing_add_robots_txt($output){

    $output.=“Disallow: /wp-content/n”;

    $output.=“Disallow: /index.phpn”;

    $output.=“Disallow: /index.htmln”;

    $output.=“Disallow: /cgi-bin/n”;

    $output.=“Disallow: /*/feedn”;

    return$output;

}

add_filter(‘robots_txt’,‘Bing_add_robots_txt’);

使用虚拟 robots.txt 的好处

使用虚拟的 robots.txt 的好处就是在访问 robots.txt 的时候也会载入 WordPress 的代码,换句话说,任何插件和主题都可以对 robots.txt 进行修改,方便用户。

比如 Google XML Sitemaps 插件,可以利用虚拟 robots.txt 文件,自动帮你在 robots.txt 里引入网站地图,不用手动修改。

本站使用的就是虚拟的 robots.txt 文件,我觉得这种方式比较灵活。