在 SEO 最佳化中 robots.txt 檔案非常重要,當搜尋引擎爬蟲訪問一個網站的時候,會先去檢視這個檔案,它可以告訴搜尋引擎,那些頁面不希望被搜尋引擎索引,避免垃圾收錄。

robots.txt 檔案一般直接新增到網站的根目錄即可 (https://www.weixiaoduo.com/robots.txt) 。而很多朋友會發現,根目錄即使沒有 robots.txt 檔案,訪問時也不是 404 找不到報錯,而是出現了一些內容。

預設內容

User-agent: *

Disallow: /wp-admin/

Disallow: /wp-includes/

虛擬 robots.txt 檔案

看到的預設內容,就是 WordPress 的虛擬 robots.txt 檔案。利用 PHP 的偽靜態機制,實現虛擬 robots.txt 檔案,當根目錄真有一個 robots.txt 檔案時,虛擬的就會被 「覆蓋」 掉。

如果你要給虛擬 robots.txt 檔案新增內容的話,可以使用下邊的程式碼,新增到主題的 functions.php(瞭解更多) 或者外掛裡即可。

/**

    *WordPress 虛擬 robots.txt 檔案

    *https://www.weixiaoduo.com/invented-robots-txt/

*/

functionBing_add_robots_txt($output){

    $output.="Disallow: /wp-content/n";

    $output.="Disallow: /index.phpn";

    $output.="Disallow: /index.htmln";

    $output.="Disallow: /cgi-bin/n";

    $output.="Disallow: /*/feedn";

    return$output;

}

add_filter('robots_txt','Bing_add_robots_txt');

使用虛擬 robots.txt 的好處

使用虛擬的 robots.txt 的好處就是在訪問 robots.txt 的時候也會載入 WordPress 的程式碼,換句話說,任何外掛和主題都可以對 robots.txt 進行修改,方便使用者。

比如 Google XML Sitemaps 外掛,可以利用虛擬 robots.txt 檔案,自動幫你在 robots.txt 裡引入網站地圖,不用手動修改。

本站使用的就是虛擬的 robots.txt 檔案,我覺得這種方式比較靈活。