在 SEO 優化中 robots.txt 文件非常重要,當搜索引擎爬蟲訪問一個網站的時候,會先去查看這個文件,它可以告訴搜索引擎,那些頁面不希望被搜索引擎索引,避免垃圾收錄。
robots.txt 文件一般直接添加到網站的根目錄即可 (https://www.weixiaoduo.com/robots.txt) 。而很多朋友會發現,根目錄即使沒有 robots.txt 文件,訪問時也不是 404 找不到報錯,而是出現了一些內容。
默認內容
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
虛擬 robots.txt 文件
看到的默認內容,就是 WordPress 的虛擬 robots.txt 文件。利用 PHP 的偽靜態機制,實現虛擬 robots.txt 文件,當根目錄真有一個 robots.txt 文件時,虛擬的就會被 「覆蓋」 掉。
如果你要給虛擬 robots.txt 文件添加內容的話,可以使用下邊的代碼,添加到主題的 functions.php(瞭解更多) 或者插件裏即可。
|
/** *WordPress 虛擬 robots.txt 文件 *https://www.weixiaoduo.com/invented-robots-txt/ */ functionBing_add_robots_txt($output){ $output.="Disallow: /wp-content/n"; $output.="Disallow: /index.phpn"; $output.="Disallow: /index.htmln"; $output.="Disallow: /cgi-bin/n"; $output.="Disallow: /*/feedn"; return$output; } add_filter('robots_txt','Bing_add_robots_txt'); |

使用虛擬 robots.txt 的好處
使用虛擬的 robots.txt 的好處就是在訪問 robots.txt 的時候也會載入 WordPress 的代碼,換句話説,任何插件和主題都可以對 robots.txt 進行修改,方便用户。
比如 Google XML Sitemaps 插件,可以利用虛擬 robots.txt 文件,自動幫你在 robots.txt 裏引入網站地圖,不用手動修改。
本站使用的就是虛擬的 robots.txt 文件,我覺得這種方式比較靈活。