Discuz! 的 archiver 缺點:頁面中的 keyword,description 都是相同的,造成很多頁面重複度高的情況。
而且 archiver 帖子正文部分無法解析 UBB 代碼,因此加重顏色、加粗、加鏈接等都失去了作用。
不建議開啓,非要開啓的話可以參考以下 2 點:
1. 給權威鏈接加上 Canonical 標籤,規範下最有價值 URL 。
- <link href="https://www.weixiaoduo.com/discuz/" rel="canonical" />
對一組內容完全相同或高度相似的網頁,通過使用 Canonical 標籤可以告訴搜索引擎哪個頁面為規範的網頁,能夠規範網址並避免搜索結果中出現多個內容相同或相似的頁面,幫助解決重複內容的收錄問題。
2. 使用 robots.txt 屏蔽搜索引擎收錄 archiver,這樣 spider 遍歷速度會快些。
- User-agent: *
- Disallow: /archiver/
spider 在訪問一個網站時,首先會檢查該網站的根域下是否有一個叫做 robots.txt
的純文本文件,這個文件用於指定 spider 在您網站上的抓取範圍。您可以在您的網站中創建一個 robots.txt,在文件中聲明
該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。
總之,不一樣的地址相同的內容會被搜索引擎認為重複內容。開啓的話建議給權威鏈接加上 Canonical 標籤,或者把 archiver 用 robots.txt 屏蔽,防止重複性內容被收錄。