關於SEO最佳化方案(網上整理的資料)

來源:互聯網
上載者:User

1.title標籤網站標題

      一般格式:文章名 – 分類名 – 網站名
      如果太長的話,就只要文章名 – 網站名

       搜尋引擎只考慮標題標籤中有限的字數,比如說前十到前十五個字。所以很長的充滿關鍵詞的title tag,只能使你的網站看起來更像垃圾。

2.meta標籤

       標題標籤不要超過十到十二個字。描述標籤也不要超過三十到三十五個字。關鍵詞標籤只要列出確實和你的網站有關的重要關鍵詞
        在這所有的三個標籤裡,都切忌重複和堆砌關鍵詞。meta不要每個頁面都千篇一律。

3.URL中的關鍵詞

      對英文網頁來說,關鍵詞出現在URL中,多少會有點協助。對搜尋引擎相關性演算法的協助可能很小,但其實對使用者協助蠻大的。因為搜尋結果列在搜尋引擎中時,使用者可以從你的檔案名稱就判斷出這個網頁是討論什麼的。
       關鍵詞可以在網域名稱裡,也可以在目錄名裡,也可以是檔案名稱,不過切忌關鍵詞堆砌在URL中。

4.文章長度有利於SEO

      首先,文章最短也應該在200字左右以上。原因有兩個:
      1)如果只有幾十個字,搜尋引擎不容易判斷出文字的主題是什麼,也就判斷不出與什麼關鍵詞最相關。
       2)本文太短的話,有可能比導航系統,菜單,著作權聲明等雜七雜八的東西加起來的字數還少,被懷疑是複製內容。如果這樣的文字過少的頁面大量存在,可能造成網站內部複製網頁增多。因為你的網頁之間相似性太高,有區別的文字太短。
      長文章容易吸引連結。看過很多很長的文章,甚至長到幾十頁。雖然讀的時候拉來拉去有點兒不方便,但這樣的文章其實是比較容易吸引連結的。

5.robots.txt使用

      robots.txt是搜尋引擎中訪問網站的時候要查看的第一個檔案。Robots.txt檔案告訴蜘蛛程式在伺服器上什麼檔案是可以被查看的。
       文法:最簡單的 robots.txt 檔案使用兩條規則:
        User-Agent: 適用下列規則的漫遊器
       Disallow: 要攔截的網頁

  1. 每當使用者試圖訪問某個不存在的URL時,伺服器都會在日誌中記錄404錯誤(無法找到檔案)。每當搜尋蜘蛛來尋找並不存在的robots.txt檔案時,伺服器也將在日誌中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt。
  2. 網站管理員必須使蜘蛛程式遠離某些伺服器上的目錄——保證伺服器效能。比如:大多數網站伺服器都有程式儲存在“cgi-bin”目錄下,因此在robots.txt檔案中加入“Disallow: /cgi-bin”是個好主意,這樣能夠避免將所有程式檔案被蜘蛛索引,可以節省伺服器資源。一般網站中不需要蜘蛛抓取的檔案有:後台管理檔案、程式指令碼、附件、資料庫檔案、編碼檔案、樣式表檔案、模板檔案、導航圖片和背景圖片等等。
    User-agent:
  該項的值用於描述搜尋引擎robot的名字。在"robots.txt"檔案中,如果有多條User-agent記錄說明有多個robot會受到"robots.txt"的限制,對該檔案來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效,在"robots.txt"檔案中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"檔案中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那麼名為"SomeBot"只受到"User-agent:SomeBot"後面的Disallow和Allow行的限制。
  Disallow:
  該項的值用於描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空首碼,以Disallow項的值開頭的URL不會被robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問/help/index.html。"Disallow:"說明允許robot訪問該網站的所有url,在"/robots.txt"檔案中,至少要有一條Disallow記錄。如果"/robots.txt"不存在或者為空白檔案,則對於所有的搜尋引擎robot,該網站都是開放的。
  Allow:
  該項的值用於描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的首碼,以Allow項的值開頭的URL是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個網站的所有URL預設是Allow的,所以Allow通常與Disallow搭配使用,實現允許訪問一部分網頁同時禁止訪問其它所有URL的功能。
  需要特別注意的是Disallow與Allow行的順序是有意義的,robot會根據第一個匹配成功的Allow或Disallow行確定是否訪問某個URL。
  使用"*"和"$":
  Baiduspider支援使用萬用字元"*"和"$"來模糊比對url。
  "$" 匹配行結束符。
  "*" 匹配0或多個任一字元。

6.建立sitemap網站地圖

      XML地圖可以讓搜尋引擎更迅速地瞭解你網站的更新。Google和yahoo都已經使用sitemap xml地圖加速收錄服務了。

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.