1.title標籤網站標題
一般格式:文章名 – 分類名 – 網站名
如果太長的話,就只要文章名 – 網站名
搜尋引擎只考慮標題標籤中有限的字數,比如說前十到前十五個字。所以很長的充滿關鍵詞的title tag,只能使你的網站看起來更像垃圾。
2.meta標籤
標題標籤不要超過十到十二個字。描述標籤也不要超過三十到三十五個字。關鍵詞標籤只要列出確實和你的網站有關的重要關鍵詞
在這所有的三個標籤裡,都切忌重複和堆砌關鍵詞。meta不要每個頁面都千篇一律。
3.URL中的關鍵詞
對英文網頁來說,關鍵詞出現在URL中,多少會有點協助。對搜尋引擎相關性演算法的協助可能很小,但其實對使用者協助蠻大的。因為搜尋結果列在搜尋引擎中時,使用者可以從你的檔案名稱就判斷出這個網頁是討論什麼的。
關鍵詞可以在網域名稱裡,也可以在目錄名裡,也可以是檔案名稱,不過切忌關鍵詞堆砌在URL中。
4.文章長度有利於SEO
首先,文章最短也應該在200字左右以上。原因有兩個:
1)如果只有幾十個字,搜尋引擎不容易判斷出文字的主題是什麼,也就判斷不出與什麼關鍵詞最相關。
2)本文太短的話,有可能比導航系統,菜單,著作權聲明等雜七雜八的東西加起來的字數還少,被懷疑是複製內容。如果這樣的文字過少的頁面大量存在,可能造成網站內部複製網頁增多。因為你的網頁之間相似性太高,有區別的文字太短。
長文章容易吸引連結。看過很多很長的文章,甚至長到幾十頁。雖然讀的時候拉來拉去有點兒不方便,但這樣的文章其實是比較容易吸引連結的。
5.robots.txt使用
robots.txt是搜尋引擎中訪問網站的時候要查看的第一個檔案。Robots.txt檔案告訴蜘蛛程式在伺服器上什麼檔案是可以被查看的。
文法:最簡單的 robots.txt 檔案使用兩條規則:
User-Agent: 適用下列規則的漫遊器
Disallow: 要攔截的網頁
1. 每當使用者試圖訪問某個不存在的URL時,伺服器都會在日誌中記錄404錯誤(無法找到檔案)。每當搜尋蜘蛛來尋找並不存在的robots.txt檔案時,伺服器也將在日誌中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt。
2. 網站管理員必須使蜘蛛程式遠離某些伺服器上的目錄——保證伺服器效能。比如:大多數網站伺服器都有程式儲存在“cgi-bin”目錄下,因此在robots.txt檔案中加入“Disallow: /cgi-bin”是個好主意,這樣能夠避免將所有程式檔案被蜘蛛索引,可以節省伺服器資源。一般網站中不需要蜘蛛抓取的檔案有:後台管理檔案、程式指令碼、附件、資料庫檔案、編碼檔案、樣式表檔案、模板檔案、導航圖片和背景圖片等等。
User-agent:
該項的值用於描述搜尋引擎robot的名字。在"robots.txt"檔案中,如果有多條User-agent記錄說明有多個robot會受到"robots.txt"的限制,對該檔案來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效,在"robots.txt"檔案中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"檔案中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那麼名為"SomeBot"只受到"User-agent:SomeBot"後面的Disallow和Allow行的限制。
Disallow:
該項的值用於描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空首碼,以Disallow項的值開頭的URL不會被robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問/help/index.html。"Disallow:"說明允許robot訪問該網站的所有url,在"/robots.txt"檔案中,至少要有一條Disallow記錄。如果"/robots.txt"不存在或者為空白檔案,則對於所有的搜尋引擎robot,該網站都是開放的。
Allow:
該項的值用於描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的首碼,以Allow項的值開頭的URL是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個網站的所有URL預設是Allow的,所以Allow通常與Disallow搭配使用,實現允許訪問一部分網頁同時禁止訪問其它所有URL的功能。
需要特別注意的是Disallow與Allow行的順序是有意義的,robot會根據第一個匹配成功的Allow或Disallow行確定是否訪問某個URL。
使用"*"和"$":
Baiduspider支援使用萬用字元"*"和"$"來模糊比對url。
"$" 匹配行結束符。
"*" 匹配0或多個任一字元。
6.建立sitemap網站地圖
XML地圖可以讓搜尋引擎更迅速地瞭解你網站的更新。Google和yahoo都已經使用sitemap xml地圖加速收錄服務了。
#html/xhtml/xml專欄