當然搜尋引擎還有很多其他弱點。邁克·摩爾曾經說過:確實有辦法愚弄搜尋引擎,但是只有少數人能真正辦到。其實他就是其中的一個,因為他自己做了20年的搜尋引擎技術研究,在搜尋引擎領域有很多專利,能從頭到尾建立一個搜尋引擎。
先講一個作弊方法。以下的一個作弊方法,至今還能行得通的。
代碼如下:
這段代碼,搜尋引擎看到的是一個黑色背景下有一些白色的文字,這是不算作弊的。但是使用者看到的就是一片白色,不會看到裡面的文字。原因就是用一張白色的圖片作為了背景。在以table布局的網頁裡,如果同時定義了一個table的背景顏色和背景圖片,它是優先顯示圖片顏色的。這樣,使用者看到的是一片白色背景下的白色文字,當然就看不到這些文字了。這種作弊方法利用了一點:就是搜尋引擎至今不能識別一張圖片的顏色。
但是他那樣的專家,是不會用一些作弊的方法來做SEO的,原因就是這樣做太蠢了。
這要從搜尋引擎反作弊策略說起。一個搜尋引擎成功的反作弊策略一定是這樣的:
1,允許演算法被探測出來,而且即使演算法被公布,搜尋結果的公正性都不會受太大影響。要這麼做的原因就是不希望和作弊的人陷入到一種貓捉老鼠的死迴圈當中。如果老是以堵漏洞的做法來修正演算法,那永遠都沒有盡頭。出於這樣的考慮,搜尋引擎會把那些無法被作弊的的因素在排序演算法裡放到比較重要的程度。
2,儘可能用一切技術手段自動檢測,當技術手段不能解決問題,就用人工來解決。然後把人工發現的問題又反饋給自動檢測機制,使自動檢測越來越完善。
現在的google基本上就是這樣來做的。在現有的定序中,那些無法作弊的和能精確反應內容的因素,都是很重要的排序因素。
當然Google也不排斥頻繁的調整演算法,這也有出於給使用者一個最好的搜尋體驗考慮的。
至於技術檢測和人工審查,google也一直在做。
google很早就有匿名蜘蛛來檢測一個網站是不是在作弊的。如果去分析網站的伺服器LOG日誌,就會發現它們。
你會發現,有的爬蟲,通過IP查詢是來自google,但是它沒有自己的聲明(user-agent),這就是google的匿名爬蟲。它會判斷你有沒有對google爬蟲特別對待,做一些隱藏頁面,還會解析Javascript檔案和CSS檔案等等。有人用CCS檔案來隱藏內容,這種事情現在是不用去做的,google都能查出來。
Google也有人工審核機制,從webmaster tool 裡提交的問題,都是有人工跟進審核的。以下就是號稱google內部流傳出來審核規則,可以點此下載。
既然google反作弊那麼優秀,那文章一開始提到的那個作弊方法怎麼解決呢?
那個方法google確實檢測不出來,但是用這個方法的人,到最後還是會被google發現作弊。
google的反作弊是“善意原則”優先,是假設你這個網站是沒有作弊的,但是用其他所有作弊的特徵來檢查。 用了我提到的這個方法,在用顏色隱藏內容這一塊是沒事了,但是會在堆砌關鍵詞,反向連結,以及其他很多方面路出馬腳來。google就是相信,一個在頁面上隱藏內容的人,也一定會去做垃圾連結群發等等其他作弊的事情。就像現實生活中一個吸毒的人,當然也是愛打架的,或者愛偷東西的,總有一件事情讓你進局子裡。
而你假設其他什麼都不做,就是用那個方法隱藏一點內容,其實你也不能得到什麼。因為你僅僅是隱藏內容的話也不會有排名的。
google就是這樣捍衛了自己排名的公正性。
對這些瞭解得越多,就越發現作弊實在是費力不討好了。(作弊源於不瞭解,通過正常途徑提升SEO流量的方法有的是,為什麼放棄那麼多好的方法而選擇差的方法呢?在現在的SEO界,你會發現一個現象,越是SEO剛入門的人越喜歡搞一些作弊的事情,而SEO從業越久的人,就越不會參與這些。)
想做一個優秀SEOer的人,對所有這些因素都要有一定程度的瞭解的。這樣做即可以避開無意中犯下的錯,又可以避免不必要的恐慌。
比如沙箱效應,很多人總覺得很神秘,其實從搜尋引擎的角度出發沒什麼好神秘的。你要是站在搜尋引擎的角度考慮問題,就覺得這是一個很有必要的措施了。你也會知道如何發展自己的外部連結。避免google的反作弊手段落到你網站上。
還有,關於重複內容,google一定是“善意原則”優先的,它甚至會幫你處理掉因為網站大量採用模板帶來的重複問題。
要做到瞭解這些,就是不斷的實踐,學習和實驗。
最近的美劇《Lie to me》非常好看,有一個印象我很深刻,就是他們會定期做一些實驗,來瞭解人類各種複雜微妙的表情後面隱藏著怎樣的心理活動,會定期形成報告。這是一種非常好的研究程式。
面對google,我們就像那些心理學家面對人類的心理一樣,很多東西是你不瞭解的。你去測試,就能得到獨家的資料和資訊。這也是我部落格很多東西的來源