實際作戰剖析:改正robots文件百度谷歌對網站的反響

  做網站也做了這樣長時間,站長們能碰到的事物都碰到過了,最常見不過就是網站被降權,網站快照不更新網站主要關鍵字名次義之下降,,外鏈數目減損等等,這些個問題往往就是因為網站開始的一段時間准備辦公沒准備好就上線的最後結果,造成後期改易網站模塊還是次數多改正其他蛛蛛常常爬動的文件所引動的,今日采編和大家研究討論一下子改正robots文件後對網站的影響及一點搜索引擎網站的反響。

  首次改正robots文件後百度百度谷歌反響

  快照更新了,發覺了是4天一周期,每日流量非常大,不過用戶都在我屏蔽的/user/文件裡,蛛蛛沒有辦法抓取,最大的流量就是用戶核心,我就試著把robots文件改正下,讓蛛蛛可以過訪那一個文件。 曾經谷歌收錄12萬,想的起來很深刻的一次是改正robots.txt文件後,谷歌當初是收錄已經超過12萬,次日沒事接著以每日1000多收錄的速度抓取,再看百度這方面,也沒事。但不幸運的事物仍然發生了… 快照更新後再一次的site:域名發覺,谷歌收錄6萬(原來是12萬多),百度這方面也是變了,原來的3萬5千600到更新快照後的4萬9千整的收錄,當初改正的是把robots文件寫入屏蔽團購的頁面(那一個是調配使用的),當初感受不曉得是何故造成谷歌收錄大減,百度收錄大增的,但接著測試,纔發覺致命的端由…

  二次改正robots文件惹怒蛛蛛,谷歌直接K站

  剛著手站不是樹立許久老是喜歡改正這改正那的,把首頁都動起來了,我的站的門衛robots也是被我扮飾得非常浩博,事物發生在年根,把robots文件屏蔽了百度谷歌搜搜之外的蛛蛛(當初搜狗流氓抓獲得造成網站流量不夠),改正後的第三天,從谷歌收錄本一路下跌的淘寶廣東站一直到那天的6萬多到1200條收錄,看了心都當初涼了一截了,直到現在谷歌都半大抓取網站了,收錄在1000上下來回走。

  采編還有一個秒收的博客站也是由於改正了robots文件,谷歌直接K站,當初那一個站改正robots文件太過次數多,造成適得其反的效果,百度也連續不斷一周沒更新快照,蛛蛛對robots文件極端敏銳,這是新站不可以碰的優化地雷區。

  建站開始的一段時間應該各個方面設置好robots文件,避免後期更改

  後期對robots的改正是對seo各大搜索引擎網站的一種不友善的表達,尤其是谷歌,隨著引擎的人性化,搜索引擎網站也是有脾性的,當在你的網站萌生了一種習性時,你網站的略微改動很可能會引動搜索引擎網站的厭惡,就像改正了robots同樣,robots的改正不止對內部實質意義的收錄有影響,對網站的權重也有不可以不重視的影響。改正robots會引動網站快照不更新,收錄減損,外鏈數量減低,網站主要關鍵字減退甚至於前幾百名找不到關鍵字名次。

  蛛蛛來你站首先就是看網站根目次的robots文件,蛛蛛的時間也是很急迫的,像谷歌這麼的全世界搜索引擎網站企業每日要去成千累萬的站點抓取網頁內部實質意義,次數多地改正robots文件就是改正了你網站與蛛蛛之間的協議,為了網站安全,普通的蛛蛛都會篤守robots協議,依據你制定的規則來抓取准許的網頁文件及內部實質意義。

  通過采編幾個月的實際作戰最後結果我提議:robots文件是在建站開始的一段時間應當制定好,不要在網站收錄眾多或權重上來了的時刻想改正就去改正,錯非你不放心上從搜索引擎網站來的那一些流量。

  開店省錢網葉蔚卿原創文章 / 本文版權歸葉蔚卿@開店省錢網全部,熱烈歡迎過載,過載請注明筆者和來源。謝謝