新站不收錄不要疏忽了robots.txt文件

  今日無意入眼見一位站長朋友的傾訴,講的是他新站為何沒有被收錄,從發覺問題的端由到解決問題中一系列的辦公。感受比較典型,眾多人有seo可能會碰到,如今貼出來分享給大家。

  問題端由:

  該站長在新站上線後不長,網站內裡就顯露出來了重大的bug(破綻)。該站長先用robots.txt文件屏蔽了搜索引擎網站的的抓取,而後對網站的bng施行修復。

  問題處置:

  等到網站的bug修復完成後,該網友再次對robots.txt文件施行了改正,准許全部搜索引擎網站的抓取。外表受騙做到這一步就可以等搜索引擎網站過來抓取內部實質意義了,可是一個星期以往網站一點兒反響也沒有,檢查網站日記,連蛛蛛都木有來過。於是索性刪去開網站的robots.txt文件。

  問題原理:

  經過百度站長工具檢驗測定,發覺了原來端由就掩飾在robots.txt文件中,當他發覺網站有bng的時刻,他嚴禁了搜索引擎網站的抓取,而蛛蛛發覺這個網站是嚴禁抓取的,便會默許一個時間段不在去爬了。百度的站長工具顯露,網站robots.txt文件更新時間就稽留在嚴禁搜索引擎網站抓取的那天,往後都沒在更新過。這也就更加證實了蛛蛛在爬動到一個嚴禁抓取的頁面,它就不在抓取,並默許下次在來抓取的時間間隔,這就可以詮釋了眾多站長為何在去掉消除robots.txt文件限止蛛蛛抓取後,也要一段纔會從新收錄新內部實質意義的端由了,只是曾經百度沒有出站長工具我們不曉得罷了。

  解決方法:

  曉得了原理,那末解決起來也就容易多了。大家請看下圖:


  先去疏導百度站長工具-robots.txt工具,在更新一下子就可以了,新站沒有收錄一定不要疏忽robots.txt文件。

  本文版權:SEO學堂 過載請注明!