robots.txt 是网站根目录下边的一个文本文件,文件名大小写敏感,必须小写。 robots.txt 告诉来爬取网站内容的搜索引擎蜘蛛哪些网站内容不需要抓取,哪些可以抓取。搜索引擎蜘蛛来抓取网站页面时首先读取 robots.txt 确定网站页面的抓取范围。如果不存在 robots.txt,会在服务器上产生一个 404 错误日志,加重服务器的负担,因此 robots.txt 的存在很有必要,如果你的网站 robots.txt 写的合理,可以优化搜索引擎蜘蛛的抓取效率,让搜索引擎更加偏爱你的网站,从而达到优化 WordPress 站点的目的。
WordPress 自动生成一个 robots.txt,即使你的 WordPress 网站根目录没有 robots.txt 文件,你在浏览器中输入 http://你的域名/robots.txt,会显示:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
以上语句是告诉搜索引擎蜘蛛不要抓取 WordPress 后台文件。
比较完整的 WordPress robots.txt 文件应该是这样的:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /*/comment-page-*
Disallow: /*?replytocom=*
Disallow: /category/*/page/
Disallow: /tag/*/page/
Disallow: /*/trackback
Disallow: /feed
Disallow: /*/feed
Disallow: /comments/feed
Disallow: /?s=*
Disallow: /*/?s=*
Disallow: /attachment/
使用方法:新建一个名称为 robots.txt 文本文件,将上面的内容拷贝进去,然后上传到 WordPress 网站根目录即可。
下面分别解释一下各项的作用:
1 、 Disallow: /wp-admin/、 Disallow: /wp-content/和 Disallow: /wp-includes/
用于告诉搜索引擎不要抓取后台程序文件页面。
2 、 Disallow: /*/comment-page-*和 Disallow: /*?replytocom=*
禁止搜索引擎抓取评论分页等相关链接。
3 、 Disallow: /category/*/page/和 Disallow: /tag/*/page/
禁止搜索引擎抓取收录分类和标签的分页。
4 、 Disallow: /*/trackback
禁止搜索引擎抓取收录 trackback 等垃圾信息
5 、 Disallow: /feed 、 Disallow: /*/feed 和 Disallow: /comments/feed
禁止搜索引擎抓取收录 feed 链接,feed 只用于订阅本站,与搜索引擎无关。
6 、 Disallow: /?s=*和 Disallow: /*/?s=*
禁止搜索引擎抓取站内搜索结果
7 、 Disallow: /attachment/
禁止搜索引擎抓取附件页面,比如毫无意义的图片附件页面。
使用 robots.txt 需要注意的几点地方:
1 、指令区分大小写,忽略未知指令
2 、每一行代表一个指令,空白和隔行会被忽略;
3 、 「#」 号后的字符参数会被忽略;
4 、有独立 User-agent 的规则,会排除在通配 「*」User agent 的规则之外;
5 、可以写入 sitemap 文件的链接,方便搜索引擎蜘蛛爬行整站内容。
6 、尽量少用 Allow 指令,因为不同的搜索引擎对不同位置的 Allow 指令会有不同看待。