SEO新手必看 搜尋引擎工作原理之一

來源:互聯網
上載者:User

  新手SEO是為了什麼,也就是為了有一個好的排名,除了大型網站可以依靠長尾帶來巨大的流量,一般的新站長能用SEO得到一個穩定的關鍵詞排名,就能帶來穩定的流量,網上SEO的文章多如牛毛,但自己也要有系統學習的流程,想得到好的排名,就要知道搜尋引擎工作原理大致是怎麼樣的,詳細的工作原理你就不用管了,據說全世界也沒幾個,廢話不多說,進入正題。

  搜尋引擎的工作原理是非常複雜的,前面就提過真正懂的全世界也沒幾個,但我們只要知道一些皮毛就夠用了。搜尋引擎的工作過程可以分為三個階段。

  一.爬行和抓取

  這個大家都應該知道,就是搜尋引擎的蜘蛛通過爬行連結訪問網頁,然後抓取頁面的HTML代碼存到伺服器的資料庫中。

  二.預先處理

  這個是排名前的一個處理過程,索引程式對蜘蛛抓取來的頁面資料進行文字提取,然後分詞,索引等處理。

  三.排名

  當你在搜尋方塊中輸入你想查詢的關鍵詞時,排名程式調用索引庫資料,計算相關性,然後產生搜尋結果頁面,到這裡你就可以看到你搜尋的結果了。

  看似簡單的三個階段,其實每一步的演算法都是及其複雜的。今天先講一下爬行和抓取:

  爬行和抓取是搜尋引擎工作的第一步,完成資料的收集任務。

  為了抓取網上的內容,蜘蛛會跟蹤頁面上的連結,從一個頁面爬到另一個頁面,就跟蜘蛛在網上爬行是一樣的,這就是蜘蛛這名字的來由。

  蜘蛛爬行方法有兩種,第一種是深度優先,第二種是廣度優先。深度優先是指蜘蛛沿著連結一直向前爬行,直到前面沒有連結,然後返回到第一個頁面,沿著另一個連結再爬下去。

  廣度最佳化是指蜘蛛在一個頁面上發現了多外連結,不是順著一個連結向前爬行,而且把頁面上的所有第一層的連結全爬一遍,然後再去爬第二層。

  事實上這兩種方法是混合使用的,這樣理論上是能夠爬完整個互連網,但由於資源,時間的限制,往往只能爬行抓取一小部分,所以吸引蜘蛛是SEO必做的功課。所以我必要講一下哪一些頁面蜘蛛會去抓取或者抓取的機率高。

  1.與首頁點擊距離近,一般來說網站的首頁權重是最高的,所以蜘蛛訪問首頁的頻率最高,所以距離首頁距離近的被抓取的機率高。

  2.頁面更新快,蜘蛛每次爬行都會被資料存起來,如果第二次爬行沒有變化的話,說明沒有更新,蜘蛛就認為這頁面沒有必要經常抓取,如果你更新快的話,蜘蛛就會更新過來,這裡說一點啊,在我以前我在A5發過的文章中也提過,就是更新最好有個時間表,每天固定時間更新,我貼上文章連結有興趣的可以看下http://www.admin5.com/article/20100112/204187.shtml 。

  3.就是多去權重高的網站發點連結,這樣同樣也會提高被抓取的機率。

  還有一個要說的就是地址庫,這裡只是簡單的說下,地址庫主要就是防止重複爬行和抓取網址。今天就寫到這裡,明天會寫有關預先處理和排名的部分。本文由張家港彎管機 http://www.zjgjixie.com站長撰稿,轉載請留連結。另需相關企業類,機械類網站做友情連結,有的請加QQ:26043721



相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.