摘要: SEO行業中最怕的就是搜尋引擎演算法調整,因為一旦演算法調整我們就需要針對搜尋引擎的演算法調整及時的做出轉變,然後搜尋引擎的演算法調整又是真正利用SEO技術做好網站推廣工作的福音
SEO行業中最怕的就是搜尋引擎演算法調整,因為一旦演算法調整我們就需要針對搜尋引擎的演算法調整及時的做出轉變,然後搜尋引擎的演算法調整又是真正利用SEO技術做好網站推廣工作的福音,因為演算法的調整絕對是針對搜尋結果品質的調整, 針對SEO作弊手法的針對制約,只要我們充分運用好白帽SEO手段,不製造垃圾資訊頁面,搜尋引擎的調整只會利於我們正規SEO的工作。
不知道是不是為了順應潮流,還是學習跟風,百度在谷歌推出Panda演算法和企鵝演算法之後,也推出了自己的一套打擊垃圾資訊頁面的演算法, 主要是針對一些利用和放大Web2.0發展中的一些開源CMS,BBS,BLOG等程式存在漏洞的作弊群發垃圾資訊的一些建議和方法,雖然說有點後知後覺的感覺,但是如果這次演算法更新能夠執行好,還是對於白帽SEO技術的提升有很大的説明的。
白帽SEO講求的是做好網站的使用者體驗,主要有兩個大的方面,一是針對搜尋引擎,就是要讓搜尋結果更加的高品質,符合使用者需求,二是針對使用者,讓使用者通過搜索找到他們想要知道的資訊。 而因為大多數Web2.0建站系統存在漏洞,攻克技術成本較低,且群發軟件價格低廉,容易被作弊者利用,產生大量的垃圾資訊,借助這些高權重的Web2.0網站,非法獲取搜尋引擎的自然流量,影響搜尋結果品質,影響搜索使用者體驗。
要想提升搜尋結果品質,提高使用者搜索體驗,首先要清楚知道哪些頁面是搜尋引擎明確規定為垃圾內容的頁面。 百度這次Web2.0反垃圾攻略用了大量的篇幅講解垃圾內容頁面的定,其中主要分為五個大的方面:1、與網站或論壇版塊主題不符的內容;2、欺騙搜尋引擎使用者的內容;3、欺騙網站詐取分帳式廣告收益的內容; 4,惡意利用web2.0網站為自己做推廣、謀福利的內容;5,有違法律法規的不良資訊,如詐騙中獎連絡方式、虛假聯繫電話、不良資訊。 每個方面都舉了詳細的例子,相信大家看過這些例子會很有感觸。 舉幾個我覺得對於我們的SEO工作有指導作用的例子:
1、對於內容相關性的要求
網站的內容相關性很重要這個大家都在談,但是卻沒有引起大家過多的重視,一方面可能是因為很多正規操作的SEO,一直都是這樣做的,而那些利用Web2.0漏洞的傢伙們已經習以為常了,也不在乎了。 這次的《百度Web2.0反垃圾攻略》就明確要求網站要盡可能做到相關性,對於標題和內容,內容和欄目主題或者網站主題完全不行關的,建議清理掉,保證網站體驗,也是從自身發展考慮維護使用者忠誠度,提高核心競爭力的事情。 舉到的例子有化妝品網站卻出現「找小姐」資訊:
2、欺騙正常使用者需求的內容
對於網站內容來說,最常見的內容作弊方式就是搜索一個主題,被誘惑的標題吸引,進入卻發現完全不是我們想要的資訊,或者內容也能夠相關,但是強行的插入大量的關鍵字或廣告資訊,或者沒有大量的資訊, 但是通過採集和工具式的偽原創得出的文章,完全不顧使用者的感受,這樣的內容頁面也是垃圾資訊頁面,用來欺騙使用者真正需求,這裡還對於視頻內容也做了舉例,這個例子就是利用視頻網站的漏洞,建立視頻檔發佈,實際上看似是一個電影集, 但是卻只是不到一分鐘的短片,目的當然是發外鏈,這樣的頁面也建議刪除掉。
這兩個是比較常見的,我們容易在SEO中運用但是卻又是真正的垃圾內容資訊的操作,其他的一些方面,也有比較典型的,但是可能之前的《百度優化指南》中都有提到,這裡就舉了這兩種,希望大家能夠引起重視。
而對於垃圾資訊頁面最致命的其實不是上面的那些認定,這些認定有時候不那麼好做到,最致命的要屬於就是百度給網站主的一些建議,特別是針對論壇博客,建議刪除垃圾內容,提高註冊使用者門檻,限制機器註冊, 重點對使用者發佈內容和行為進行監控,減少垃圾內容的產生。 當然,這樣多的限制也會損失一些使用者,所以大家要注意平衡。