SEO與技術是密切相關的,許多人都認為做SEO是不需要技術的,其實這是一個誤區,如果你不懂技術,就不可能把SEO做得很成功,出了問題也不能做出科學的決策,在許多人的眼裡,SEO無非是每天發一些文章、發一些外鏈這樣,如果你也這樣理解SEO,那說明你的水平還處於一個非常初級的階段,即使搜尋引擎是一個技術很強的東西,那麼,我們要想在它上邊擷取相應的流量,我們必需具備一定的技術,至少應該理解它的原理,那麼在網站的頁面是否符合SEO的技術要求上,我們應該注意哪些問題呢?
1、使用文本瀏覽器來檢查你的網頁,看網頁中重要的URL連結是否能夠被文本瀏覽器抓取得到
常用的文本瀏覽器是lynx,大家可以在linux環境下安裝它,它在瀏覽器你的網頁時,幾乎與搜尋引擎蜘蛛看到的內容一致,所以大家常常使用它來測試網頁的可抓取性,如果你的頁面中重要的連結使用了JS、AJAX等技術,lynx瀏覽器是看不到這些連結的,同樣的搜尋引擎也抓取不到這些連結。因此在網站上線前,可以先用文本瀏覽器檢查一下主要的網頁,看是否用了對搜尋引擎不友好的技術
2、允許搜尋引擎蜘蛛在不使用可跟蹤其網站訪問路徑的會話 ID 或參數的情況下抓取您的網站
一些session id對於跟蹤使用者的訪問行為來說是很有效,但是對於搜尋引擎來說,就不是好的作法了,如果使用了這些技術,你的網頁可能被索引得不完整,因為搜尋引擎程式還不能排除那一些從URL上看上來不同,但是網頁內容卻完全相同的網頁。對於收錄是不友好的。
3、確保您的網路伺服器支援 If-Modified-Since HTTP 標題
如果你的伺服器支援if-modified-since-HTTP標題的話,當搜尋引擎蜘蛛程式抓取到你的網頁的時候,會首先檢查這個If-Modified-Since HTTP 標題值,通過這個值,搜尋引擎爬蟲程式可以判斷出來你的網頁自從它上次抓取後,是否有所變化,如果沒有變化,它便可以不用下載相同的頁面內容,節約蜘蛛資源,也節約你的伺服器頻寬,這樣蜘蛛就可以抓取更多其他的頁面。
4、設定合理的robots檔案
每個網站最好都設定一個robots檔案,如果你的網站沒有任何內容不想被搜尋引擎索引,那麼可以建立一個空的以robots為命名的檔案,上傳到你網站的根目錄下,通過robots檔案,我們可以讓搜尋引擎抓取某些目錄,而不抓取某些目錄,例如一些模板檔案,可以禁止搜尋引擎抓取,一些後台登入檔案,也可以利用robots檔案加以禁止收錄,在設定robots檔案時,一定要小心,以避免把一些重要的檔案給禁止了,我們可以使用Google網站管理員工具進行測試。
5、對網站進行相容性測試,以確保在每個瀏覽器中都可以正確顯示
我們在網站上線前,最好先做大量的瀏覽實驗,確保網頁內容可以正確的顯示在所有的瀏覽器上邊,例如IE的有一個IE工具測試,可以測試各個IE版本的顯示效果,Google瀏覽器也有類似的外掛程式,可以對瀏覽器的相容性進行測試,等檢測完都能正常顯示時,再上線,在平時的維護中,也可以經常去測試頁面顯示的相容性
6、經常使用一些前端測試載入器來測試網頁的效能
例如我們可以使用Google的page speed工具以及yahoo的yslow對網頁進行效能的測試,這兩個工具還可以指出你的網站中頁面需要改進的地方,我們可以按照裡邊描述的步驟進行前端頁面最佳化,例如啟用GZIP、啟用keep-alive、使用css sprites技術、合并JS與CSS等。以上內容由中國美容人才網www.mrrencai.com在admin5首發,轉載請保留網址,謝謝!