仲介交易 HTTP://www.aliyun.com/zixun/aggregation/6858.html">SEO診斷 淘寶客 雲主機 技術大廳
Robots.txt 檔對抓取網路的搜尋引擎漫遊器(稱為漫遊器)進行限制。 這些漫遊器是自動的,在它們訪問網頁前會查看是否存在限制其訪問特定網頁的 robots.txt 檔。 如果你想保護網站上的某些內容不被搜尋引擎收入的話,robots.txt 是一個簡單有效的工具。 這裡簡單介紹一下怎麼使用它。
如何放置 Robots.txt 檔
robots.txt自身是一個文字檔。 它必須位於功能變數名稱的根目錄中並 被命名為"robots.txt"。 位於子目錄中的 robots.txt 檔無效,因為漫遊器只在功能變數名稱的根目錄中查找此檔。 例如,HTTP://www.1520cc.cn/robots.txt 是有效位置,HTTP://www.1520cc.cn/mysite/robots.txt 則不是。
這裡舉一個robots.txt的例子:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~name/
使用 robots.txt 檔攔截或刪除整個網站
要從搜尋引擎中刪除您的網站,並防止所有漫遊器在以後抓取您的網站,請將以下 robots.txt 檔放入您伺服器的根目錄:
User-agent: *
Disallow: /
要只從 Google 中刪除您的網站,並只是防止 Googlebot 將來抓取您的網站,請將以下 robots.txt 檔放入您伺服器的根目錄:
User-agent: Googlebot
Disallow: /
每個埠都應有自己的 robots.txt 檔。 尤其是您通過 HTTP 和 HTTPs 託管內容的時候,這些協定都需要有各自的 robots.txt 檔。 例如,要讓 Googlebot 只為所有的 HTTP 網頁而不為 HTTPs 網頁編制索引,應使用下面的 robots.txt 檔。
對於 HTTP 協定 (HTTP://yourserver.com/robots.txt):
User-agent: *
Allow: /
對於 HTTPs 協定 (HTTPs://yourserver.com/robots.txt):
User-agent: *
Disallow: /
允許所有的漫遊器訪問您的網頁
User-agent: *
Disallow:
(另一種方法: 建立一個空的 "/robots.txt" 檔, 或者不使用robot.txt。 )
使用 robots.txt 檔攔截或刪除網頁
您可以使用 robots.txt 檔來阻止 Googlebot 抓取您網站上的網頁。 例如,如果您正在手動創建 robots.txt 檔以阻止 Googlebot 抓取某一特定目錄下(例如,private)的所有網頁,可使用以下 robots.txt 條目:
User-agent: Googlebot
Disallow: /private
要阻止 Googlebot 抓取特定檔案類型(例如,.gif)的所有檔,可使用以下 robots.txt 條目:
User-agent: Googlebot
Disallow: /*.gif$
要阻止 Googlebot 抓取所有包含 ? 的網址(具體地說,這種網址以您的功能變數名稱開頭,後接任一字元串,然後是問號,而後又是任一字元串),可使用以下條目:
User-agent: Googlebot
Disallow: /*?
儘管我們不抓取被 robots.txt 攔截的網頁內容或為其編制索引,但如果我們在網路上的其他網頁中發現這些內容,我們仍然會抓取其網址並編制索引。 因此,網頁網址及其他公開的資訊,例如指 向該網站的連結中的定位文字,有可能會出現在 Google 搜尋結果中。 不過,您網頁上的內容不會被抓取、編制索引和顯示。
作為網站管理員工具的一部分,Google提供了robots.txt分析工具 。 它可以按照 Googlebot 讀取 robots.txt 檔的相同方式讀取該檔,並且可為 Google user-agents(如 Googlebot)提供結果。 我們強烈建議您使用它。 在創建一個 robots.txt 檔之前,有必要考慮一下哪些內容可以被使用者搜得到,而哪些則不應該被搜得到。 這樣的話,通過合理地使用 robots.txt , 搜尋引擎在把使用者帶到您網站的同時,又能保證隱私資訊不被收錄。