仲介交易 SEO診斷 淘寶客 雲主機 技術大廳
去雙線伺服器合租購買好功能變數名稱和空間,就可以動手架設自己的網站或者Blog,架設網站之前,最好給自己網站今後發展計畫有個詳細的策劃,規劃好以後網站的具體發展路線,避免今後再去對網站框架結構大動干戈地去東改西改。 經常改動網站架構框架結構的內容對搜尋引擎是非常不友好的,就像人一樣,你常對別人說一套做一套的話,別人會慢慢不信任你,疏遠你是同一個道理。 你對搜尋引擎也是如此,不要今天這個網站是這個標題,明天心情不好或者靈感出現換個標題,讓搜尋引擎每次來你網站抓取都抓到相同內容的文章,那楊搜尋引擎蜘蛛就會覺得你是在耍它,它會開始對你越來越不不信任, 對你網站的權重評估也越來越低,某一天它無法忍受時,你真的就「歇菜」了。 據說GG是不輕易K人網站,一般K了那你就得等上1年半載都說不一定;百度是經常性的K站,相對GG比較頻繁,但被K後,等上幾個月有時就可以解禁了。
這幾天學了關於對搜尋引擎優化的影響,有點想換功能變數名稱和空間的衝動。 想到自己熬了2個月,現在好不容易被百度,GG收錄了將近200篇內容了,突然換空間和功能變數名稱必定會影響自己網站在GG和百度的權重,或者說我現在還沒PR值,直接給GG,百度留下換的影響,以後一段時間內都不來你網站採集文章, 很難得到搜尋引擎的賞臉,有些擔憂,有些害怕。 雖然說一般搜尋引擎比較喜歡內容原創的文章,但現在又沒備案,又沒獲得PR值,有些怕怕。 告訴張楠一個秘密:lxdong.com 我已經自己註冊了,哈哈。 謝謝你提醒我!~
言歸正傳,每次寫東西一上來都是2段廢話,然後才開始講,可能習慣了。 首先,建立一個網站要用一定符合W3C組織規定的HTML編寫代碼,只有這樣,你的網頁才能更容易被搜尋引擎蜘蛛或機器人抓取,讓蜘蛛或機器人抓取網站內盡可能多的內容,如果你的網站框架結構中的錯誤很多的話, 可能會讓蜘蛛或機器人被迫放棄轉去,順著你站內的友情連接而離開。 只遵循W3C組織規定的網站才可以獲得搜尋引擎最高的權重和PR值,我們一般把W3C標準的組織內容規範寫在網頁頭目最靠前的位置,當蜘蛛或奇跡人來到你網站時看到:這段代碼它就知道你的網站是遵循W3C組織, 當然不是加這麼一段代碼來的這麼簡單的事,你加了不代表你寫的HTML代碼就是規範的,比如,北漂領袖東並不是正真的北漂領袖毛澤東,有人曾經開玩笑的告訴我:「你第一看到你的空間標題,一位是寫毛澤東的事呢」,聽完我很是鬱悶。 大家可以通過在:HTTP://validator.w3.org 進行驗證你的網站,看有那些代碼是不符合W3C標準的。
其次,在網頁中,儘量用CSS來控制網頁中所出現的DIV框,我把他理解成一個小盒子,實用CSS可以控制重複代碼的出現,一句話改變網站結構變化也只有CSS才可以做到,當然要設置好了才可以,儘量用簡潔的代碼表達同一種意思,如, 實用DREAMWEAVER軟體裡面設計去做的話會產生很多無用的代碼,可以根據自己能力去適當定義CSS,那樣可以省去很多無用的多餘代碼。 CSS和DIV的結合註定TABLE的下崗,清除了那些無關緊要的代碼,可以加塊不少網頁的流覽速度,如果你的網站因空間不穩定,或者代碼太亂,太多,導致流覽速度下降的話,這對搜素引擎也是非常不友好的。 CSS和DIV合理的結合使用,可以保持人眼視覺上的一致性,也容易控制,比起TABLE需要一一調整,還方便了不少,省去了找代碼的時間,避免不同區域顯示錯誤的效果偏差。 如:用TABLE的話很有可能因為某個角落你沒注意,導致正版面變形,我就碰到過好幾會,遇到那種麻煩,心急的時候還一時找不處問題。 如果用CSS的話,改變某個定義DIV值就可以看到相同的變化,不需要再去逐個擊破困來。
還有在網頁之間一般會都的腳本,以下我就簡稱JS了,JS是腳本的尾碼名。 大家可以試著把類似的JS檔整理到同一個JS檔裡面,省去了迴圈調用,反復調用相同的js檔也可能而影響到流覽者訪問,同時也便於管理,省去了尋找東一個西一個JS檔的苦惱。 最重要的是,通過對JS檔的整理,可以讓搜尋引擎更快的去抓取你網站更多的內容。
另外網頁靜態化也是非常非常關鍵的一項工作,有人問,那到底如何區分靜態頁面和動態頁面呢??? 非常簡單,看網頁連接的尾碼名,一般都HTML,HTM,XHTML都是靜態的(如:www.ldong.com/post/emarketing.html ),剩下的如asp等,或者連接帶有「=」,「?」 的都是動態頁面(如:www.lxdong.com/guestbook.asp )。 2003年的時候幾大搜尋引擎都拒絕收錄動態頁面,因為那還可能就是閉環或者是一個陷進,影響搜尋引擎正常收錄的工作,最近兩年已經基本得到控制,嵌入式殺毒軟體的出現,終結了動態網頁製作病毒連接的歷史,但相比之下, 靜態頁面的收錄情況遠比動態頁面要好的多。 不管是搜尋引擎對動態頁面的抓取技術不夠成熟,還是動態頁面依然囂張不止,選擇靜態頁面絕對很好!靜態頁面易於管理,維護,而不需要多麼高深的資料庫調用技術,通過簡單的人工修改即可實現想要的效果, 這當然指小型的網站或者BLOG實用,Z-BOLG和DEDE的系統也都支援頁面靜態化。 今天有個人在QQ上問我,Z-BLOG如何設置靜態頁面,其實很簡單,在Z-BLOG的網站設置裡面有個靜態版面設定和檔重建設置,只要選擇啟用自訂靜態目錄功能和生成分類和靜態歸檔的首頁2個選項就可以實現, 如果你想定義不同類目的檔加,把不同類目的文章放在不同的類目裡,需要手動去改,有些麻煩,我就不在這細說了。
其中網頁內容大小的處理對搜尋引擎的抓取也是很有影響的,如果一個網站首頁都是圖片,打開一定很慢,而且首頁檔會很大,這是搜尋引擎最嫉妒的。 在2003年的時候,網路上一直流傳一句話,單頁大小超過100K的網頁,搜尋引擎一般收錄不完整,這個話題很敏感,想2003年的網路狀況,那是ADSL才剛新起,網吧行業迅速崛起的時候,很多人還用著電話線上網, 你說那速度有多塊大家可想而知吧。 在上傳圖片的時候儘量用PS處理一下,打開檔選擇存儲為WEB專用格式,可以省不少空間;在網頁中加入FALSH的時候,和PS一樣,打開檔那選擇發佈HTML格式,直接把代碼導入到網頁即可, 如果擔心有些瀏覽器不支援某些格式的FALSH播放機,你可以多寫幾種版本的FALSH供瀏覽器隨意選擇。 這樣可以提高訪問者觀看FALSH的速度。 注意一點,請慎用所謂的網頁減肥軟體,減少網頁內容很可能某些功能將無法顯示。
最後說一下ROTBOTS.txt檔,Z-blog程式預設沒有的,差點忘了介紹ROTBOTS,它是一個純文字檔,目的是通過此檔告訴搜尋引擎你的的拿些檔是可以抓取,哪些是不想被抓取,這樣方便蜘蛛更好的抓取,具體如何設置請忘下看吧。
三搜尋引擎蜘蛛名:GoogleBot-谷歌蜘蛛 baiduspider-百度蜘蛛 Yahoo Slurp-雅虎蜘蛛,所有蜘蛛名區分大小寫和空格一般格式!
User-agent(使用者代理設置的意思):(搜尋引擎蜘蛛名或機器人名
Disallow(拒絕的意思):/(不想被訪問到的檔所在相對路徑)
例如: User-agent:GoogleBot
Disallow:/upload/post/emarketing.html
趕快行動起來吧,你一定有什麼不想讓人看到文章吧?你可以試著在搜尋引擎再次光臨你網站前把ROTBOTS檔整理好,然後上傳到你空間根目錄就可以了。
今天困死了,先睡了,有什麼不理解的在下面留言或者加我QQ:3287924等我明天醒來給你解答。
更多精彩,敬請關注SEO完美理論探索者-北漂領袖東Blog:www.lxdong.com