案例分析:一次網站被掛黑鏈的分析過程

來源:互聯網
上載者:User

仲介交易 HTTP://www.aliyun.com/zixun/aggregation/6858.html">SEO診斷 淘寶客 雲主機 技術大廳

接到客戶消息說在站長工具tool.chinaz.com上用‘網站被黑檢測’檢測到網站異常,根據提供的線索在站長工具上進行了檢測發現如下:

  

很明顯被掛了黑鏈,由於從來沒有做過掛黑鏈的活所以對掛黑鏈的各種技巧不是很懂,第一反應肯定是網站檔被惡意篡改,於是立即檢查網站原始檔案,在經過了一番對比之後沒有發現明顯異常,但是黑鏈到底是從哪裡來的呢?

再次查看站長工具給出的檢測結果,發現下面的正常訪問類比結果的頁面是正常的,而上面出現的異常結果是通過類比搜尋引擎出來的,仔細看異常結果裡面,直接寫明瞭Baiduspider,到這裡大概意思就清楚了:當百度爬蟲過來的時候, 會給出黑鏈,但是不會影響正常使用者的訪問,以此來達到隱蔽的目的。

那我們也來類比一下看看這個檢測結果是否準確:

curl xxx.com 得到如下結果,顯示正常:

  

那我們再來模仿一下baiduspider:

curl -A "Baiduspider" xxx.com ,這是得到如下結果:

  

結果證明我們的猜測是成立的,但是既然網站原始程式碼沒有被修改,到底是哪裡鑽出來的黑鏈呢?既然黑鏈是根據爬蟲類型來的,那麼

我們直接根據爬蟲的關鍵字來查找:

grep -ri baiduspider web_root_master

這個時候終於發現問題所在了, 在global.asax檔裡面藏了一大段js腳本,由於客戶的網站程式是.NET開發的所以之前在win環境下做的對比,開始時也發現了global.asax檔,但是win下面用文本編輯類軟體打開的時候只看到一片空白,其實真正的代碼部分是隱藏在 幾百行。

下面,正好巧妙的利用了一般人不細心以及圖形介面下面打開文檔先顯示第一部分空白的弱點,這段代碼如下:

  

. NET程式的運行的時候如果預設網站根目錄下有global.asa或者二global.asax檔,那麼會當做通用檔案優先載入,而這一點估計也是廣大掛馬掛黑鏈玩家最愛使用的伎倆。 這段js的作用只針對百度爬蟲,難怪我用百度搜索技術文檔從來就沒準確過,太針對了。

同時我們也注意到掛黑鏈的內容來源使用了一個協力廠商域的html檔,這一點的聰明之處就在於掛黑鏈者可以根據情況來即時調整黑鏈內容,甚至有的專業的估計早已實現了黑鏈內容的動態更新。 我所碰到的網站也僅僅是他們一批次動作的無數受害者之一。

我們還注意到了黑鏈內容的來源網站,要是精力再旺盛點的話我恨不得把他這個點給打掉,不過還好,估計anquan.org和360網站安全中心對這樣的非法資訊網站是有興趣的。

文章來源:世紀東方(HTTP://www.51web.com/),轉載請標明位址,謝謝。

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.