新浪博客更新robot文件 “屏蔽門”誤會消除

前幾日有文章稱由於眾多站長濫發信息做外鏈,導致垃圾博文充斥新浪博客,因此新浪博客開始屏蔽百度蜘蛛,有網友發現大部分新浪博客快照在百度中已經沒有更新,通過查看新浪robots文件(的搜索引擎的User-Agent代碼

User-agent: msnbot

#限制不能搜索的目錄,Disallow: 為空時開放所有目錄####

Disallow: /admin/

Disallow: /include/

Disallow: /html/

Disallow: /queue/

Disallow: /config/

User-agent: bing

#限制不能搜索的目錄,Disallow: 為空時開放所有目錄####

Disallow: /admin/

Disallow: /include/

Disallow: /html/

Disallow: /queue/

Disallow: /config/

#限制的搜索引擎的User-Agent代碼,*表示所有###########

User-agent: *

#臨時限制對所有目錄的禁止抓取

Disallow: /

#限制不能搜索的目錄,Disallow: 為空時開放所有目錄####

##Disallow: /admin/

##Disallow: /include/

##Disallow: /html/

##Disallow: /queue/

##Disallow: /config/

#開放搜索的目錄有####################################

# /

# /advice/

# /help/

# /lm/

# /main/

# /myblog/

可以看出新修改的robots.txt文件中的寫法已經完全支持各類主流搜索引擎抓取博客內容,一個開放的新浪博客又回來瞭!

針對前幾日出現的情況,個人猜測可能是由於以下幾種原因:

1、前幾日大部分新浪博客被K,可能是由於百度調整算法所導致的。

2、原來的robots.txt文件很可能是新浪博客剛上線得到時候建立的,由於當時google還沒有正式進入中國,中文搜索還是百度一傢獨大,因此設置的內容主要針對百度,此後該文件一直沒有修改,直到最近被網友發現,新浪工作人員才想起重新修改。

雖然這次屏蔽門隻是一場虛驚,但是也給各位站長敲響瞭警鐘,不要一味的盲目濫發垃圾信息,及污染瞭互聯網環境又耗費瞭網絡服務商的資源,小心竭澤而漁!培養10個高質量的博客比養100個垃圾博客更有效!

以上是我的一點見解,希望有朋友轉載的時候保留我的一個鏈接/多一份保留 多一倍運氣,多一份口碑,多一份成功,謝謝!