谷歌網站管理員詳解:如何使用robots.txt

核心提示:robots.txt 文件對抓取網絡的搜索引擎漫遊器(稱為漫遊器)進行限制。這些漫遊器是自動的,在它們訪問網頁前會查看是否存在限制其訪問特定網頁的 robots.txt 文件。如果你想保護網站上的某些內容不被搜索引擎收入的話,robots.txt是一個簡單有效的工具。這裡簡單介紹一下怎麼使用它。

如何放置Robots.txt文件

robots.txt自身是一個文本文件。它必須位於域名的根目錄中並 被命名為robots.txt。位於子目錄中的 robots.txt 文件無效,因為漫遊器隻在域名的根目錄中查找此文件。例如,http:///robots.txt 是有效位置,http:///mysite/robots.txt 則不是。

這裡舉一個robots.txt的例子:

User-agent: *Disallow: /cgi-bin/Disallow: /tmp/Disallow: /~name/

使用 robots.txt 文件攔截或刪除整個網站

要從搜索引擎中刪除您的網站,並防止所有漫遊器在以後抓取您的網站,請將以下 robots.txt 文件放入您服務器的根目錄:

User-agent: *Disallow: /

要隻從 Google 中刪除您的網站,並隻是防止 Googlebot 將來抓取您的網站,請將以下 robots.txt 文件放入您服務器的根目錄:

User-agent: GooglebotDisallow: /

每個端口都應有自己的 robots.txt 文件。尤其是您通過 http 和 https 托管內容的時候,這些協議都需要有各自的 robots.txt 文件。例如,要讓 Googlebot 隻為所有的 http 網頁而不為 https 網頁編制索引,應使用下面的 robots.txt 文件。

對於 http 協議 (http://yourserver.com/robots.txt):

User-agent: *Allow: /

對於 https 協議 (https://yourserver.com/robots.txt):

User-agent: *Disallow: /

允許所有的漫遊器訪問您的網頁

User-agent: *Disallow:

(另一種方法: 建立一個空的 /robots.txt 文件, 或者不使用robot.txt。)

使用 robots.txt 文件攔截或刪除網頁

您可以使用 robots.txt 文件來阻止 Googlebot 抓取您網站上的網頁。 例如,如果您正在手動創建 robots.txt 文件以阻止 Googlebot 抓取某一特定目錄下(例如,private)的所有網頁,可使用以下 robots.txt 條目:

User-agent: GooglebotDisallow: /private

要阻止 Googlebot 抓取特定文件類型(例如,.gif)的所有文件,可使用以下 robots.txt 條目:

User-agent: GooglebotDisallow: /*.gif$

要阻止 Googlebot 抓取所有包含 ? 的網址(具體地說,這種網址以您的域名開頭,後接任意字符串,然後是問號,而後又是任意字符串),可使用以下條目:

User-agent: GooglebotDisallow: /*?

盡管我們不抓取被 robots.txt 攔截的網頁內容或為其編制索引,但如果我們在網絡上的其他網頁中發現這些內容,我們仍然會抓取其網址並編制索引。因此,網頁網址及其他公開的信息,例如指 向該網站的鏈接中的定位文字,有可能會出現在 Google 搜索結果中。不過,您網頁上的內容不會被抓取、編制索引和顯示。

作為網站管理員工具的一部分,Google提供瞭robots.txt分析工具。它可以按照 Googlebot 讀取 robots.txt 文件的相同方式讀取該文件,並且可為 Google user-agents(如 Googlebot)提供結果。我們強烈建議您使用它。 在創建一個robots.txt文件之前,有必要考慮一下哪些內容可以被用戶搜得到,而哪些則不應該被搜得到。 這樣的話,通過合理地使用robots.txt, 搜索引擎在把用戶帶到您網站的同時,又能保證隱私信息不被收錄。