搜尋引擎優化中robots.txt的妙用

來源:互聯網
上載者:User

仲介交易 HTTP://www.aliyun.com/zixun/aggregation/6858.html">SEO診斷 淘寶客 雲主機 技術大廳

對於robots.txt,可能一般人的觀點是可寫可不寫,寫錯了還有麻煩,所以乾脆不寫。 其實,在搜尋引擎優化中,robots.txt有這麼幾個妙用。 現在咱們一一來看下robots.txt的妙用。

1、新站創建的時候引導蜘蛛抓取清單頁。 新站初建,在你的robots.txt寫入網站的欄目位址以便抓取。 示例如下

# HTTP://www.xxxxx.cn/ 網站優化的robots.txt

User-agent: *

Disallow: /

Disallow: /plus/advancedsearch.php

Disallow: /plus/car.php

Disallow: /plus/carbuyaction.php

Disallow: /plus/shops_buyaction.php

Disallow: /plus/erraddsave.php

Disallow: /plus/posttocar.php

Disallow: /plus/disdls.php

Disallow: /plus/feedback_js.php

Disallow: /plus/mytag_js.php

Disallow: /plus/rss.php

Disallow: /plus/search.php

Disallow: /plus/recommend.php

Disallow: /plus/stow.php

Disallow: /plus/count.php

Disallow: /include

Disallow: /templets

採用了dedecms預設的robots.txt,個人感覺還是挺不錯的。

2、遮罩低品質的頁面收錄。 例如,你的一個網頁是動態的頁面,content.asp,通過參數id來獲得不同的內容,而假如你需要增加一個參數style,以便給不同的使用者顯示不同樣式,但是內容相同的頁面,那麼,對於id為1的同一個內容的頁面, 可能會出現好幾個連接

content.asp?id=1

content.asp?id=1&style=red

content.asp?id=1&style=green

對於這些連接而言,內容相同,但是連接不同,就可能導致重複內容的出現,在此,你可以通過robots.txt遮罩重複頁面的收錄,寫法如下

User-agent: *

Disallow: content.asp?id=*&style=*

3、無須向各大搜尋引擎提交sitemap。 谷歌,微軟以及雅虎均已經支援這一robots.txt的擴展寫法。 所以也省了提交sitemap的時間

至於robots.txt的具體寫法,建議還是參照百度給出的指南,十分詳細 HTTP://www.baidu.com/search/robots.html

站長網首發,轉載請請保留 HTTP://www.zzyoua.cn/ 連結。

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.