私人對於內裡死鏈的一點處理辦法

  昨日拿IIS日記剖析了下,值當欣慰的是baidu、google、yahoo的蛛蛛都來爬了,看來優化成功了,曾經沒爬到過的頁面在做了一點外鏈指導後沒有遇到困難被google抓取到並收錄,但也發覺了些問題,google的蛛蛛爬動記錄裡有眾seo多404頁面回返記錄,這個可不是好管閑事情啊,解釋明白代碼我都抄沒拾整潔,數量多顯露出來死鏈。隨後就我登陸google用網站管理工具一剖析,天啊,210個死鏈,估計對google來說我的頁面品質是不咋地了,可這樣多404頁面我查起來都費力更不要說改,這個時刻便想到達robots.txt。

  由於我這處的404頁面基本都是asp結末的,對於這麼大的404頁面我們可以這樣設置:

  User-Agent:Googlebot

  Disallow:/*.asp$

  今早過來一剖析日記昨晚的google爬動記錄,果不其然不再理會這些個asp結末的頁面。

  假如顯露出來的數量多死鏈不是閃現存規律的頁面的話,就不舒服合用robots.txt了,所以還有個方法就是手動設置404頁面,普通的主機商所供給的後臺裡應當會有供給404頁面的操作,若是.net做的手續,可以在web.config裡設置error頁面,我是直接登陸服務器改正IIS所處置的404代碼回返頁面,總歸一句話,把404頁面改成有幫助於指導客戶跳到其它有用的頁面來捕獲客戶。

  此文章由涎水漁網頁教程網()宣布,過載請注明,謝謝!