如果搜尋引擎不能有效的流覽到你的內容,怎麼辦呢,蜘蛛爬蟲能夠掃描到你網站所有的內容對於HTTP://www.aliyun.com/zixun/aggregation/8612.html"> 網站排名和SEO至關重要,太多的網站構建模式和結構佈局混亂導致網站的大部分內容不能被蜘蛛爬蟲掃描到,不能轉變成自身網站的真正價值。
以下哈根達斯月餅優化者列舉了5個共同的問題和建議,期望你在網站構建中可以避免。
1. 複雜導航 VS 簡單導航
許多網站設計師一開始頭痛的就是嚮導的設置太複雜,因為爬蟲是在內容和連接間流覽的緣故。 如果搜尋引擎過於複雜,那爬蟲就會經過層層的點擊、連接篩選 而到你所指向的內容。 說句諷刺的話,或許你是在和爬蟲的耐性打賭,在和使用者較勁,很明白是雞蛋碰石頭的對抗,後果不言而喻。
最直接的解決方案就是設計一個簡單的導航結構,確保使用者在兩只三步就可獲得自己期望的。 可以在主導航條下面設置子挑選條件,或者是增加一些內部連接。
2.過多的內容顯示在圖片和腳本上
蜘蛛爬蟲不是如我們一樣可以眼觀六路,耳聽八方。 他們就是一些虛擬的工具,只能簡單的辯解以文本和腳本為基礎的內容,而一些優秀圖片、動畫是無法被評估的。 這也是一些網站網路提高VI設計而絞盡腦汁設計一大堆高品質的圖片,到頭來卻無濟於事,白忙活一場。
而最簡單的解決方案就是轉換內容形式為一種可識別的載體。 同時借助一些搜尋引擎模擬器觀察爬蟲到你網站時的反映,如果有過多的內容丟失,或一些資訊被遮罩,那傳遞的資訊就是我們需要重新設置嚮導來引導。
3. 不連貫的連接操作
在建立連接的同時,我們必須小心的思考如何命名他們,搜尋引擎是不可能和我們一樣有判斷的標準,爬蟲更多的是以URLs為評判標準,有時兩段不同的連 接代碼卻同時指向一片內容, 這是爬蟲可能開始迷糊了,雖然我們明白其中的邏輯。 但考慮到寄人籬下的緣故,我們還必須讓爬蟲也明白。
為了避免指示資訊的錯誤,我們必須有連貫的連接。 如果你的網站有這樣類似的疏忽,就使用301跳轉重新定義新的內容,讓爬蟲明白你的連接代碼。
4. 錯誤的站內地圖
如果想提高站內結構的准入門檻,建立一個簡單的站內地圖無疑會事倍功半,這個功能會讓爬蟲更有傾向性的流覽你的網站網頁,但是要確保指示準確。
5. 錯誤的重定向
當它涉及到301重定向,就是簡單的在你網站間網頁的轉換。 你是否需要重命名他們,或者將這個網站內容引導到一個新的地點保證你能準確的指向那個方 向。 如果導引錯誤將會減少你千辛萬苦設計的導入連結的效果,還可能導致搜尋引擎排名的降低。 我們應該認真的思考這個問題,在此我也不再累贅。
由哈根達斯月餅(HTTP://www.abc888888.com)發佈。