利用301跳轉和robot文件來消泯循環不正確頁面

  近來在優化貸款的網站,剛接替時有些頭痛,網站架構一塌胡涂,網站也有JS代碼和FLASH,並且面粉和水發酵制成的食品屑、導航、URL都沒整過,URL是很長一串的動態地址,基本上除開寫了三個標簽和做了301跳轉,就沒見到不論什麼的SEO優化。還好企業有幾個程序開發人員和網站預設員,先把JS代碼和FLASH刪掉,還有把面粉和水發酵制成的食品屑、導航、架構給設置好。但在把動態URL轉化為偽靜態時,企業同事沒注意,出錯了,造成大致相似於死循環的數量多復制偽靜態,非常很糾結。這些個頁面會造成蛛蛛沒有辦法爬動,影響其它頁面的收錄;非常多垃圾頁面也會減低用戶體驗認識;影響服務器的處置速度等,危害非常大,要趁早處置,下邊跟大家紹介下怎麼樣徹底整理數量多不正確的重復頁面的辦法

  然而因為曾經也遇到過這類問題,解決辦法也不難,有這樣幾種比較簡單的辦法:

  1、用ROBOTS.TXT文件把不存在的URL屏蔽掉

  2、把找不到記錄的URL設置成直接跳出404頁面

  3、利用301,把動態頁面跳轉seo到准確的靜態頁面

  4、用nofollow標簽把不正確頁面屏蔽,不讓蛛蛛爬取。

  1和2兩個辦法不舒服合如今這網站,新的URL已經出來了,蛛蛛也爬動過了,假如再用ROBOT.TXT文件屏蔽的話,屏蔽掉一點被收錄了的頁面,對搜索引擎網站不友善,對往後優化會有一定的影響,所以第1個辦法不舒服合;而網站顯露出來了數量多的重復URL,假如直接跳出404頁面的話,會減低用戶體驗認識,非常多404,蛛蛛也會鄙夷的,所以第二個辦法也不舒服合;用nofollow的話,不正確頁面那末多,要一個個添加,太麻煩了,也不符合適。

  剖析完後,我就表決用第三個辦法,用301來跳轉,但還有個問題就是:301只能在頁面代碼中的,有不正確頁面時,假如直接增加301的話,會造成服務器解體的。所以我計劃接合301跳轉和ROBOTS.TXT文件,分兩步來解決這個問題:

  1、我是先用301跳轉,首先要做的是把已經收錄的動態地址的頁面跳轉到所要改的靜態頁面上,而後要把偽靜態頁面和動態頁面給分辯出來,可以給偽靜態頁面加個參變量來差別那一些動態的不正確頁面,辯白出那一些是動態的不正確頁面就可以直接處置掉了。

  2、還有個問題是就算所有都轉偽靜態了,但還會有很多循環出來的偽靜態地址,這會兒我就設定ROBOTS.TXT文件,把不正確的重復頁面都屏蔽掉。

  做好後再用工具查緝了一下子頁面,不正確頁面沒了,URL也都一統了。

  無論是301跳轉仍然robot文件,都是很有用法的,特別是robot文件,設置好了可以屏蔽網站重復頁面、可以盡力照顧網站的安全、可以屏蔽一點沒想到蛛蛛抓取的內部實質意義、可以提交處理網站地圖等效用,而搜索引擎網站來網站時普通都是先抓取robot文件內部實質意義,對網站十分關緊,稍有不甚有可能就造成網站顯露出來眾多問題,所以我們日常都要多接觸一點這種層級略微深點的物品,來浩博自個兒SEO的知識,而不是每日麻草木的發外鏈和更新文章,這麼到頭來,啥子都不是,只是初等的外鏈擔任職務的人,不會有啥子進展。

  最終想說的是,處置問題的辦法有眾多種,不過有點辦法會留下一點後遺癥,處置好這個問題,有可能就帶來下一個問題,所以在優化過程中,盡力整潔利落的把問題斬斷。做SEO在發覺問題時,也要趁早的施行處置。