舍卒保帥:巧用robots.txt提升網站權重

來源:互聯網
上載者:User
關鍵字 Robots.txt

仲介交易 HTTP://www.aliyun.com/zixun/aggregation/6858.html">SEO診斷 淘寶客 雲主機 技術大廳

這不是什麼絕竅,而是向大家提供一種思路。

目前採集站很多,加上百度演算法頻繁調整,被降權,被K成光杆司令的站比比皆是。

我的新站易拍屋www.epioo.com就更不例外了。 這是一個網摘類網站,在會員收藏網頁的同時不僅給網頁截圖還保存原網頁代碼,即完全備份一個頁面,存在高度複製性。

剛開始的時候百度收錄3千頁每天就有1千多IP,可是好景不長,幾天下來,每天變成了0IP,一杆子降到底,收錄也放緩了。

我就在思索為什麼高度複製的網頁,百度只是降了權重,卻沒有拔毛。 除了範本完全原創以外難道還有什麼原因讓百度認為易拍屋還是有點可親呢?

思來想去大概原因只有一個,就是我的網站裡還有相當數量的網頁清單頁和標籤頁不存在太高的複製性,從百度收錄偏好上來看也是如此,你可以查看site:epioo.com,標筌頁收得最多。 而標籤頁全是標題連結,對SEO非常有利,如果網站權重能提升的話,呵呵...

為了進一步論證清單頁不會被視為垃圾頁,我特地觀查了網圖導航www.wt265.cn,該網站清單頁也存在複製性,但是一直沒有被降權,而且穩居百度網址排行第2位:

HTTP://up.baidu.com/rank_16.html

看到這裡就有一線點曙光了——舍卒保帥,自已K掉內容頁!

真的刪除內容頁不太可能,最簡單的辦法當然就是讓robots.txt告訴親愛的百度不要理會內容頁了。

如何設置robots.txt請參考 HTTP://www.baidu.com/search/robots.html

需要特別注意的是Disallow與Allow行的順序是有意義的,robot會根據第一個匹配成功的Allow或Disallow行確定是否訪問某個URL。

GOOGLE和百度都支援使用"*"和"$":

baiduspider支援使用萬用字元"*"和"$"來模糊比對url。

"$" 匹配行結束符。

"*" 匹配0或多個任一字元。

變廢為寶,大家快用robots.txt打造一個偽原創站吧!

admin5首發

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.