如何寫robots.txt?

來源:互聯網
上載者:User
關鍵字 搜尋引擎 Robots.txt

仲介交易 HTTP://www.aliyun.com/zixun/aggregation/6858.html">SEO診斷 淘寶客 雲主機 技術大廳

在國內,網站管理者似乎對robots.txt並沒有引起多大重視,應一些朋友之請求,今天想通過這篇文章來簡單談一下robots.txt的寫作。

robots.txt基本介紹

robots.txt是一個純文字檔,在這個檔中網站管理者可以聲明該網站中不想被robots訪問的部分,或者指定搜尋引擎只收錄指定的內容。

當一個搜索機器人(有的叫搜索蜘蛛)訪問一個網站時,它會首先檢查該網站根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該檔中的內容來確定訪問的範圍;如果該檔不存在,那麼搜索機器人就沿著連結抓取。

另外,robots.txt必須放置在一個網站的根目錄下,而且檔案名必須全部小寫。

robots.txt寫作語法

首先,我們來看一個robots.txt範例:HTTP://www.csswebs.org/robots.txt

訪問以上具體位址,我們可以看到robots.txt的具體內容如下:

# Robots.txt file from HTTP://www.csswebs.org
# All robots will spider the domain

User-agent: *
Disallow:

以上文本表達的意思是允許所有的搜索機器人訪問www.csswebs.org網站下的所有檔。

具體語法分析:其中#後面文字為說明資訊;User-agent:後面為搜索機器人的名稱,後面如果是*,則泛指所有的搜索機器人;Disallow:後面為不允許訪問的檔目錄。

下面,我將列舉一些robots.txt的具體用法:

允許所有的robot訪問

User-agent: *
Disallow:

或者也可以建一個空檔 「/robots.txt」 file

禁止所有搜尋引擎訪問網站的任何部分

User-agent: *
Disallow: /

禁止所有搜尋引擎訪問網站的幾個部分(下例中的01、02、03目錄)

User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/

禁止某個搜尋引擎的訪問(下例中的BadBot)

User-agent: BadBot
Disallow: /

只允許某個搜尋引擎的訪問(下例中的Crawler)

User-agent: Crawler
Disallow:

User-agent: *
Disallow: /

另外,我覺得有必要進行拓展說明,對robots meta進行一些介紹:

Robots META標籤則主要是針對一個個具體的頁面。 和其他的META標籤(如使用的語言、頁面的描述、關鍵字等)一樣,Robots META標籤也是放在頁面的<head></head>中,專門用來告訴搜尋引擎ROBOTS如何抓取該頁的內容。

Robots META標籤的寫法:

Robots META標籤中沒有大小寫之分,name=」Robots」表示所有的搜尋引擎,可以針對某個具體搜尋引擎寫為name=」BaiduSpider」。 content部分有四個指令選項:index、noindex、follow、nofollow,指令間以「,」分隔。

INDEX 指令告訴搜索機器人抓取該頁面;

FOLLOW 指令表示搜索機器人可以沿著該頁面上的連結繼續抓取下去;

Robots Meta標籤的缺省值是INDEX和FOLLOW,只有inktomi除外,對於它,缺省值是INDEX,NOFOLLOW。

這樣,一共有四種組合:

<META NAME=」ROBOTS」 CONTENT=」INDEX,FOLLOW」>
<META NAME=」ROBOTS」 CONTENT=」NOINDEX,FOLLOW」>
<META NAME=」ROBOTS」 CONTENT=」INDEX,NOFOLLOW」>
<META NAME=」ROBOTS」 CONTENT=」NOINDEX,NOFOLLOW」>

其中

<META NAME=」ROBOTS」 CONTENT=」INDEX,FOLLOW」>可以寫成<META NAME=」ROBOTS」 CONTENT=」ALL」>;

<META NAME=」ROBOTS」 CONTENT=」NOINDEX,NOFOLLOW」>可以寫成<META NAME=」ROBOTS」 CONTENT=」NONE」>

目前看來,絕大多數的搜尋引擎機器人都遵守robots.txt的規則,而對於Robots META標籤,目前支援的並不多,但是正在逐漸增加,如著名搜尋引擎GOOGLE就完全支援,而且GOOGLE還增加了一個指令「 archive」,可以限制GOOGLE是否保留網頁快照。 例如:

<META NAME=」googlebot」 CONTENT=」index,follow,noarchive」>

表示抓取該網站中頁面並沿著頁面中連結抓取,但是不在GOOLGE上保留該頁面的網頁快照。

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.