為網站的Web Robot 設計路標

來源:互聯網
上載者:User
關鍵字 可以 是否

仲介交易 HTTP://www.aliyun.com/zixun/aggregation/6858.html">SEO診斷 淘寶客 雲主機 技術大廳

Internet越來越酷,WWW的知名度如日中天。 在Internet上發佈公司資訊、進行電子商 務已經從時髦演化成時尚。 作為一個Web Master,你可能對HTML、JAVAscript、JAVA、 ActiveX瞭若指掌,但你是否知道什麼是Web Robot? 你是否知道Web Robot和你所設 計的主頁有什麼關係?




Internet上的流浪漢--- Web Robot




有時你會莫名其妙地發現你的主頁的內容在一個搜尋引擎中被索引,即使你從未與他們有過任何聯繫。 其實這正是Web Robot的功勞。 Web Robot其實是一些程式,它可以穿越大量Internet網址的超文字結構,遞迴地檢索網路網站所有的內容。 這些程式有時被叫「蜘蛛(Spider)」,「網上流浪漢(Web Wanderer)」,「網路蠕蟲(web worms)」或Web crawler。 一些Internet網上知名的搜尋引擎網站(Search Engines)都有專門的Web Robot程式來完成資訊的採集,例如Lycos,Webcrawler,Altavista等,以 及中文搜尋引擎網站例如北極星,網易, GOYOYO等。




Web Robot就象一個不速之客,不管你是否在意,它都會忠於自己主人的職責,任勞任怨、不知疲倦地奔波于萬維網的空間,當然也會光臨你的主頁,檢索主頁內容並生 成它所需要的記錄格式。 或許有的主頁內容你樂於世人皆知,但有的內容你卻不願被洞察、索引。 難道你就只能任其「橫行」于自己主頁空間,能否指揮和控制Web Robot的行蹤呢? 答案當然是肯定的。 只要你閱讀了本篇的下文,就可以象一個交通 員警一樣,佈置下一個個路標,告訴Web Robot應該怎麼去檢索你的主頁,哪些可以 檢索,哪些不可以訪問。




其實Web Robot能聽懂你的話




不要以為Web Robot是毫無組織,毫無管束地亂跑。 很多Web Robot軟體給網路網站的 管理員或網頁內容製作者提供了兩種方法來限制Web Robot的行蹤:




1、Robots Exclusion Protocol 協定




網路網站的管理員可以在網站上建立一個專門格式的檔,來指出網站上的哪一部分 可以被robot訪問, 這個檔放在網站的根目錄下,即 HTTP://.../robots.txt




2、Robots META tag




一個網頁作者可以使用專門的HTML META tag ,來指出某一個網頁是否可以被索 引、分析或連結。




這些方法適合於大多數的Web Robot,至於是否在軟體中實施了這些方法,還依賴于 Robot的開發者,並非可以保證對任何Robot都靈驗。 如果你迫切需要保護自己內容, 則應考慮採用諸如增加密碼等其他保護方法。




使用Robots Exclusion Protocol協定




當Robot訪問一個 Web 網站時,比如HTTP://www.sti.net.cn/,它先去檢查檔HTTP: //www.sti.net.cn/robots.txt。 如果這個檔存在,它便會按照這樣的記錄格式去分析:




User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/




以確定它是否應該檢索網站的檔。 這些記錄是專門給Web Robot看的,一般的流覽 者大概永遠不會看到這個檔,所以千萬不要異想天開地在裡面加入形似<img src=*> 類的HTML語句或是「How do you do? where are you from?」 之類假情假意的問候語。




在一個網站上只能有一個 "/robots.txt" 檔,而且檔案名的每個字母要求全部是小寫。 在Robot的記錄格式中每一個單獨的"Disallow" 行表示你不希望Robot訪問的URL, 每個URL必須單獨佔一行,不能出現 "Disallow: /cgi-bin/ /tmp/"這樣的病句。 同時在一個 記錄中不能出現空行,這是因為空行是多個記錄分割的標誌。




User-agent行指出的是Robot或其他代理的名稱。 在User-agent行,'*' 表示一個特殊的含義---所有的robot。




下面是幾個robot.txt的例子:




在整個伺服器上拒絕所有的robots:




User-agent: *
Disallow: /




允許所有的robots訪問整個網站:
User-agent: *
Disallow:
或者產生一個空的 "/robots.txt" 檔。




伺服器的部分內容允許所有的robot訪問
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /private/




拒絕某一個專門的robot:
User-agent: BadBot
Disallow: /




只允許某一個robot光顧:
User-agent: WebCrawler
Disallow:
User-agent: *
Disallow: /




最後我們給出 HTTP://www.w3.org/網站上的robots.txt:
# For use by search.w3.org
User-agent: W3Crobot/1
Disallow:
User-agent: *
Disallow: /Member/ # This is restricted to W3C Members only
Disallow: /member/ # This is restricted to W3C Members only
Disallow: /team/ # This is restricted to W3C Team only
Disallow: /TandS/Member # This is restricted to W3C Members only
Disallow: /TandS/Team # This is restricted to W3C Team only
Disallow: /Project
Disallow: /Systems
Disallow: /Web
Disallow: /Team




使用Robots META tag方式




Robots META tag 允許HTML網頁作者指出某一頁是否可以被索引,或是否可以用來查 找更多的連結檔。 目前只有部分robot實施了這一功能。




Robots META tag的格式為:




<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
象其他的META tag一樣,它應該放在HTML檔的HEAD區:
<html>
<head>
<meta name="robots" content="noindex,nofollow">
<meta name="description" content="This page ....">
<title>...</title>
</head>
<body>
...




Robots META tag指令使用逗號隔開,可以使用的指令包括 [NO]INDEX 和[NO] FOLLOW。 INDEX 指令指出一個索引性robot是否可以對本頁進行索引;FOLLOW 指 令指出robot是否可以跟蹤本頁的連結。 缺省的情況是INDEX和FOLLOW。 例如:




<meta name="robots" content="index,follow">
<meta name="robots" content="noindex,follow">
<meta name="robots" content="index,nofollow">
<meta name="robots" content="noindex,nofollow">




一個好的Web 網站管理員應該將robot的管理考慮在內,使robot為自己的主頁服務, 同時又不損害自己網頁的安全。




HTML文檔中小meta的大作用


robots.txt和Robots META標籤


Robots.txt指南


Robots Meta Tag的使用
相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.