國內做SEO的人可能會經常聽到這樣一句話“你可以不懂如何改META,但你必須知道如何做外鏈。”可見外鏈作為SEO最佳化中的一個手段被許多SEO從業者推到了一個非常高的高度。
其實這樣的看法是有一定的道理的,因為SEO的所有工作都是為了讓搜尋引擎對其網站頁面產生友好,但是頁面自身的最佳化對搜尋引擎來說是有一個標準的,這個標準好比一個極值,無論你如何進行最佳化都是在無限接近這個極值,但是不可能會超過,然而外鏈則作為一個外部因素是一個無窮大的數值,所以外鏈會被人感覺到是一個見效快,穩定,且不容易犯錯的最簡單也最容易衡量的一個最佳化手段。但是如果說真的要談到如何有效去對外鏈進行最佳化,你能說你真的懂嗎?如何去搞懂,如何去有效進行外鏈的最佳化工作,可能我們還是要從搜尋引擎的運行模組和原理進行分析,建模。
如果說SEO的工作就是服務搜尋引擎的話,那麼對外鏈的最佳化就是服務搜尋引擎的SPIDER模組,SPIDER如果通過大量連結爬取到你的網站,那麼他可能就會判斷出你可能是這些網頁中的一個資訊節點,資訊的來源,從而給你一個相當的權重。這個是外鏈對於搜尋引擎的意義同時也是對於SPIDER的意義。
我們先來看看SPIDER的工作,SPIDER作為一台伺服器從互連網某個資訊節點開始抓取網頁資訊回傳到資料庫。互連網的一開始網站以綜合資訊為主,所以SPIDER工作相對簡單,整個搜尋引擎的排序機制也相對簡單。但是隨著互連網的發展互連網的資訊被不斷的細分,SPIDER的工作也被變得複雜起來。搜尋引擎為了能夠快速的展示搜尋結果頁面必須對資料進行同樣的資訊細分,SPIDER從一開始的單一抓取又增加了一個資訊分類的功能,但是當資訊分類上升到千萬這個層級的時候整個資訊抓取再分類的過程就變得冗長且緩慢。最根本的解決方案就是在SPIDER抓取前就為伺服器定義分類,即特定的SPIDER伺服器只抓取某幾類的資訊內容,這樣分類就變得簡單且快速。SPIDER又是如何在抓取前就定義自己的抓取路徑呢?我們可以建立這樣的一個工作模型。
這個流程很容易理解,對我們最為重要,也是最需要瞭解的一個環節那就是路徑篩選。SPIDER是如何進行篩選的,用一個模型建立的邏輯來考慮這個問題就是,當一個模型沒法進行實驗的話,首先確定模型中兩個以上不辯自明的公理,再由這兩個公理進行邏輯推導。我們就先要確定的公理 第一:保證整體運轉的效率。第二:保證抓取內容與分類的匹配。
這樣通過邏輯推導我們可以設想出這樣一個工作原理:泛抓取SPIDER抓取的路徑通過分析(分析過程類似於路由器尋找節點間的最短路徑)。分析要得出的將是一條由連結組成的抓取路徑,路徑中所抓取到的頁面資訊都是屬於同一分類的資訊,然後計算路徑長度得出最優路徑,最後將最優路徑篩選的出後提交到定抓取的SPIDER伺服器,接著定抓取的SPIDER伺服器就能按照這條路徑進行快速的抓取和分類了,並且再下次泛抓取伺服器更新最優路徑前都是按照這個路徑進行抓取。
舉個例子的話就好比:在一座果園中均勻且分散了紅蘋果和青苹果,現在果農需要採摘蘋果並且按照紅蘋果和青苹果分類販賣。一開始果農按照順序把所有的蘋果全部摘下來,然後再進行分類封裝。後來為了提高效率,果農開始在把果樹畫在紙上,把所有的青苹果樹用線連在了一起,把紅蘋果樹用線連在一起,然後分成兩批人按照兩種不同的路線去採摘,采完後就直接裝包販賣。
那麼在瞭解到這個篩選機制後我們能夠做出怎樣的外鏈策略呢?
- 友情連結,外鏈所在的頁面和自己網站內容相關
- 外鏈所在的頁面匯出的連結指向的頁面絕大多數也需要和自己網站相關
- 避免和擁有大量外鏈的網站進行交換(就好比一個房間如果出口只有一個,那你能很快的判斷出如何出去,但是一個房間有上百個出口,你瞭解完這些出口分別通向哪裡就需要很長的時間,極大的降低SPIDER效率)
- 避免和大量有與其網站不相關的外鏈網站進行連結
- 不要讓你的網站一個匯出的連結都沒有,實在沒有外鏈也寧可連結到一個權重高的相關網站也比不做匯出連結更受SPIDER喜愛
以上這些可能是最基本的一些推匯出的結論。根據這個篩選規則,我們甚至可以自己製作一個讓蜘蛛迴圈抓取的路徑提供給搜尋引擎,這個迴圈路徑的表現形式,就是現在越來越被大家採用的連結論模式,將外鏈形成一個內容相同的環讓SPIDER不斷的抓取路徑上的所有網站提升路徑上網站的權重。
當然通過這樣的一個結論模型一個有創造力的SEO還能創造出各種最佳化手段,這裡就需要大家自己去慢慢琢磨了。
如果 你耐著性子看完了上面所有的文章,那麼再想一想,現在自己在做的外鏈是不是會有些盲目和低效呢~自己之前真的懂得如何有效做外鏈嗎?還是只知道如何快速的做大量的外鏈~
希望拙文對各位有用,愚見之處望討論~
來源:讀者投稿,原文連結。