捨卒保帥-巧用robots.txt提高網站權重

  這不是啥子絕竅,而是向大家供給一種思考的線索。

  到現在為止搜集站眾多,加上百度算法次數多調試,被降權,被K成光杆將領的站比比皆是。

  我的新站易拍屋就更不例外了。這是一個網摘類站點,在會員收集保藏網頁的同時不止給網頁截圖還保留原網頁代碼,即絕對備案一個頁面,存在高度復制性。

  初時百度收錄3千頁每日就有1千多IP,可是美好景況不久,幾天下來,每日成為了0IP,一杆子降到盡頭,收錄也放緩了。

  我就在思索為何高度復制的網頁,百度只是降了權重,卻沒有拔毛。除開模型板絕對原創之外難不成還有何故讓百度覺得易拍屋仍然有些可親呢?

  思來想去約略端由只有一個,就是我的網站裡還有相當數目的網頁列表頁和標簽頁不存在太高的復制性,從百度收錄偏好上來看也是這麼,你可以檢查site:epioo.com,標筌頁收得最多。而標簽頁全是題目鏈接,對SEO十分有幫助,假如網站權重能提高的話,呵呵…

  為了進一步論證列表頁不會被視為垃圾頁,我專門特地觀查了網圖導航,該網站列表頁也存在復制性,不過一直沒有被降權,並且穩居百度網址長幼次序第2位:

  

  看見這處就有前線點曙光了——捨卒保帥,自已K掉內部實質意義頁!

  實在刪去內部實質意義頁不太有可能,最簡單的方法當然就是讓robots.txt奉告關系密切的百度不要理會內部實質意義頁了。

  怎麼樣設置robots.txt請參照

  需求加意的是Disallow與Allow行的順著次序是有意義的,robot會依據第1個般配成功的Allow或Disallow行確認是否過訪某個URL。

  GOOGLE和百度都支持運用*和$:

  baiduspider支持運用通配符*和$來依稀般配url。

  $ 般配行終了符。

  * 般配0或多個恣意字符。

  變廢為寶,大家快用robots.txt制造一個偽原創站吧!

  admin5首發