MySQL批量SQL插入效能最佳化

來源:互聯網
上載者:User

標籤:des   style   http   color   java   使用   os   strong   

  對於一些資料量較大的系統,資料庫面臨的問題除了查詢效率低下,還有就是資料入庫時間長。特別像報表系統,可能每天花費在資料匯入上的時間就會長達幾個小時之久。因此,最佳化資料庫插入效能是很有意義的。

       網路上的牛人很多,總會有一些手段可以提高insert效率,大家跟我一起分享一下吧:

       1. 一條SQL語句插入多條資料。
       我們常用的插入語句大都是一條一個insert,如:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘0‘, ‘userid_0‘, ‘content_0‘, 0);INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘1‘, ‘userid_1‘, ‘content_1‘, 1);

現在我們將它修改成:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘0‘, ‘userid_0‘, ‘content_0‘, 0), (‘1‘, ‘userid_1‘, ‘content_1‘, 1);

【資料對比】

       下面是網上牛人提供一些測試對比資料,分別是進行單條資料的匯入與轉化成一條SQL語句進行匯入,分別測試1百、1千、1萬條資料記錄。通過對比,可以發現修改後的插入操作能夠提高程式的插入效率。


       【緣由分析】
        這裡第二種SQL執行效率高的主要原因是合并後日誌量(MySQL的binlog和innodb的事務讓日誌)減少了,降低日誌刷盤的資料量和頻率,從而提高效率。通過合并SQL語句,同時也能減少SQL語句解析的次數,減少網路傳輸的IO。

       2. 在事務中進行插入處理。
       在操作資料的時候,事務也是很常用的。現在我們把上面的插入語句修改成:

START TRANSACTION;INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘0‘, ‘userid_0‘, ‘content_0‘, 0);INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘1‘, ‘userid_1‘, ‘content_1‘, 1);...COMMIT;

【資料對比】

        這裡也提供了測試對比,分別是不使用事務與使用事務在記錄數為1百、1千、1萬的情況。亦發現資料的插入效率提高了。


       【緣由分析】

        這是因為進行一個INSERT操作時,MySQL內部會建立一個事務,在事務內才進行真正插入處理操作。通過使用事務可以減少建立事務的消耗,所有插入都在執行後才進行提交操作。


       3. 資料有序插入。

       資料有序的插入是指插入記錄在主鍵上是有序排列,例如datetime是記錄的主鍵:

       原始插入語句如下:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘1‘, ‘userid_1‘, ‘content_1‘, 1);INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘0‘, ‘userid_0‘, ‘content_0‘, 0);INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘2‘, ‘userid_2‘, ‘content_2‘,2);

修改成:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘0‘, ‘userid_0‘, ‘content_0‘, 0);INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘1‘, ‘userid_1‘, ‘content_1‘, 1);INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     VALUES (‘2‘, ‘userid_2‘, ‘content_2‘,2);

【資料對比】

        下面提供隨機資料與順序資料的效能對比,分別是記錄為1百、1千、1萬、10萬、100萬。從測試結果來看,該最佳化方法的效能有所提高,但是提高並不是很明顯。


       【緣由分析】
        由於資料庫插入時,需要維護索引資料,無序的記錄會增大維護索引的成本。我們可以參照innodb使用的B+Tree 索引,如果每次插入記錄都在索引的最後面,索引的定位效率很高,並且對索引調整較小;如果插入的記錄在索引中間,需要B+tree進行分裂合并等處理,會消耗比較多計算資源,並且插入記錄的索引定位效率會下降,資料量較大時會有頻繁的磁碟操作。


       效能綜合測試
       這裡提供了同時使用上面三種方法進行INSERT效率最佳化的測試。


       從測試結果可以看到,合并資料+事務的方法在較小資料量時,效能提高是很明顯的,資料量較大時(1千萬以上),效能會急劇下降,這是由於此時資料量超過了innodb_buffer的容量,每次定位索引涉及較多的磁碟讀寫操作,效能下降較快。而使用合并資料+事務+有序資料的方式在資料量達到千萬級以上表現依舊是良好,在資料量較大時,有序資料索引定位較為方便,不需要頻繁對磁碟進行讀寫操作,所以可以維持較高的效能。

       注意事項:

    • SQL語句是有長度限制,在進行資料合併在同一SQL中務必不能超過SQL長度限制,通過max_allowed_packet配置可以修改,預設是1M,測試時修改為8M。

    • 事務需要控制大小,事務太大可能會影響執行的效率。MySQL有innodb_log_buffer_size配置項,超過這個值會把innodb的資料刷到磁碟中,這時,效率會有所下降。所以比較好的做法是,在資料達到這個這個值前進行事務提交。


相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.