Discuz! 的 archiver 缺點:頁面中的 keyword,description 都是相同的,造成很多頁面重複度高的情況。
而且 archiver 帖子正文部分無法解析 UBB 程式碼,因此加重顏色、加粗、加連結等都失去了作用。
不建議開啟,非要開啟的話可以參考以下 2 點:
1. 給權威連結加上 Canonical 標籤,規範下最有價值 URL 。
- <link href="https://www.weixiaoduo.com/discuz/" rel="canonical" />
對一組內容完全相同或高度相似的網頁,透過使用 Canonical 標籤可以告訴搜尋引擎哪個頁面為規範的網頁,能夠規範網址並避免搜尋結果中出現多個內容相同或相似的頁面,幫助解決重複內容的收錄問題。
2. 使用 robots.txt 遮蔽搜尋引擎收錄 archiver,這樣 spider 遍歷速度會快些。
- User-agent: *
- Disallow: /archiver/
spider 在訪問一個網站時,首先會檢查該網站的根域下是否有一個叫做 robots.txt
的純文字檔案,這個檔案用於指定 spider 在您網站上的抓取範圍。您可以在您的網站中建立一個 robots.txt,在檔案中宣告
該網站中不想被搜尋引擎收錄的部分或者指定搜尋引擎只收錄特定的部分。
總之,不一樣的地址相同的內容會被搜尋引擎認為重複內容。開啟的話建議給權威連結加上 Canonical 標籤,或者把 archiver 用 robots.txt 遮蔽,防止重複性內容被收錄。