剔掉隱患:百度收錄同一內部實質意義的高重復鏈接

  普通的網站手續而言,老是有三種生成形式:動態頁面、靜態頁面、偽靜態頁不熟悉成。不過正是因為好些個的生成形式造成了同一內部實質意義中的不一樣URL顯露,最終造成搜索引擎網站再引得同一內部實質意義的時刻引得到不一樣的URL地址連署。不過也不要暗自高興自個兒又多了條收錄,高度重復的內部實質意義搜索引擎網站並不喜歡,何況仍然同一個站內的內部實質意義,對於這麼的內部實質意義假如過多顯露出來,不是遭到降權對內部實質意義施行剔掉,那末便是封站。所以站長照理應該對其看得起起來,防止被搜索引擎網站收錄同一內部實質意義的高重復鏈接。

  啥子樣的鏈接是重復鏈接?

  普通而言,眾多手續預設不完備,縱然如Discuz也會存在一小批的高重復性的鏈接。諸如一點:www .xxxx/1.html是網站的一個頁面,而同時又存在www .xxx/view.asp?id=1,這是典型的URL不一樣,但卻導致內部實質意義高度重復的鏈接。對於這麼的內部實質意義,蛛蛛爬到頁面也會大感煩悶,到盡頭哪個鏈接纔是要論述內部實質意義的鏈接呢?吃了那末多的鏈接,怎麼都是重復內部實質意義啊?介於此,蛛蛛再喜歡你獨立的原創,時間久了也會被一次次嚇跑。下邊還有一個典型實例:

  


  這個是二進制剛纔發覺有一個友誼鏈接的事情狀況。事情的真實情況上,這個文章也僅只是一篇罷了,不過為何被收錄了這麼之多呢?就是由於網站在優化過程中,疏忽了對一點鏈接的屏蔽,造成了同一內部實質意義顯露出來多條不規范的URL鏈接而被收錄。然而雖說被收錄了,不過被剔掉也是遲早的事,並且極容易帶來搜索引擎網站的將權辦罪,所以站長們不要學習怎麼樣增加收錄頁,要做的是防范未然的施行優化。

  怎麼樣防止內部實質意義重復的URL鏈接?

  發覺了問題的存在的地方,我們接下來便解決問題。對於以上問題,普通而言我們基本上用兩種辦法,第1種:規范URL,第二種:Robots.txt施行屏蔽。

  A:在網站建設之初就規范好網站URL的標准化,不管是對外仍然對內的鏈接,一統挑選靜態,將頁面所可能萌生兩重或多重的動態鏈接所有換做靜態生成。這麼下來,網站基本防止了內部實質意義重復的URL鏈接。

  B:Robots.txt,大多的SEOer們用此來施行內部實質意義或頁面的屏蔽。如設置(Disallow: /*?*)意在奉告搜索引擎網站不要過訪全部帶?的頁面,然而前提是做好了全站的靜態生成。

  當然,還有著一點個seo別的辦法,不過論效果而言,以上所紹介的可謂是最好的,二進制攜手北京SEO(www .seostudy.org)在做裡只是做一下子私人所用的經驗分享,期望可以幫到更多的朋友。如果有過載,請保存版權地址!

  有關鏈接: 站長網第十三期SEO培養訓練班著手報名  /article/20110616/352917.shtml