新手SEO是為了什麼,也就是為了有一個好的排名,除了大型網站可以依靠長尾帶來巨大的流量,一般的新站長能用SEO得到一個穩定的關鍵詞排名,就能帶來穩定的流量,網上SEO的文章多如牛毛,但自己也要有系統學習的流程,想得到好的排名,就要知道搜尋引擎工作原理大致是怎麼樣的,詳細的工作原理你就不用管了,據說全世界也沒幾個,廢話不多說,進入正題。
搜尋引擎的工作原理是非常複雜的,前面就提過真正懂的全世界也沒幾個,但我們只要知道一些皮毛就夠用了。搜尋引擎的工作過程可以分為三個階段。
一.爬行和抓取
這個大家都應該知道,就是搜尋引擎的蜘蛛通過爬行連結訪問網頁,然後抓取頁面的HTML代碼存到伺服器的資料庫中。
二.預先處理
這個是排名前的一個處理過程,索引程式對蜘蛛抓取來的頁面資料進行文字提取,然後分詞,索引等處理。
三.排名
當你在搜尋方塊中輸入你想查詢的關鍵詞時,排名程式調用索引庫資料,計算相關性,然後產生搜尋結果頁面,到這裡你就可以看到你搜尋的結果了。
看似簡單的三個階段,其實每一步的演算法都是及其複雜的。今天先講一下爬行和抓取:
爬行和抓取是搜尋引擎工作的第一步,完成資料的收集任務。
為了抓取網上的內容,蜘蛛會跟蹤頁面上的連結,從一個頁面爬到另一個頁面,就跟蜘蛛在網上爬行是一樣的,這就是蜘蛛這名字的來由。
蜘蛛爬行方法有兩種,第一種是深度優先,第二種是廣度優先。深度優先是指蜘蛛沿著連結一直向前爬行,直到前面沒有連結,然後返回到第一個頁面,沿著另一個連結再爬下去。
廣度最佳化是指蜘蛛在一個頁面上發現了多外連結,不是順著一個連結向前爬行,而且把頁面上的所有第一層的連結全爬一遍,然後再去爬第二層。
事實上這兩種方法是混合使用的,這樣理論上是能夠爬完整個互連網,但由於資源,時間的限制,往往只能爬行抓取一小部分,所以吸引蜘蛛是SEO必做的功課。所以我必要講一下哪一些頁面蜘蛛會去抓取或者抓取的機率高。
1.與首頁點擊距離近,一般來說網站的首頁權重是最高的,所以蜘蛛訪問首頁的頻率最高,所以距離首頁距離近的被抓取的機率高。
2.頁面更新快,蜘蛛每次爬行都會被資料存起來,如果第二次爬行沒有變化的話,說明沒有更新,蜘蛛就認為這頁面沒有必要經常抓取,如果你更新快的話,蜘蛛就會更新過來,這裡說一點啊,在我以前我在A5發過的文章中也提過,就是更新最好有個時間表,每天固定時間更新,我貼上文章連結有興趣的可以看下http://www.admin5.com/article/20100112/204187.shtml 。
3.就是多去權重高的網站發點連結,這樣同樣也會提高被抓取的機率。
還有一個要說的就是地址庫,這裡只是簡單的說下,地址庫主要就是防止重複爬行和抓取網址。今天就寫到這裡,明天會寫有關預先處理和排名的部分。本文由張家港彎管機 http://www.zjgjixie.com站長撰稿,轉載請留連結。另需相關企業類,機械類網站做友情連結,有的請加QQ:26043721