標籤:xxx sel uuid def rem set tle select com
http://blog.csdn.net/dennis211/article/details/78076399
MYSQL打造千萬級測試資料
為了更好的測試MYSQL效能以及程式最佳化,不得不去製作海量資料來測試。我這裡的方法就是直接用uuid函數進行分配每條資料的不同內容。
1.首先建立測試表(card表)
[sql] view plain copy
- CREATE TABLE `card` (
- `card_id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT ‘ID‘,
- `card_number` varchar(100) DEFAULT NULL COMMENT ‘卡號‘,
- PRIMARY KEY (`card_id`)
- ) ENGINE=MyISAM AUTO_INCREMENT=0 DEFAULT CHARSET=utf8 CHECKSUM=1 DELAY_KEY_WRITE=1 ROW_FORMAT=DYNAMIC
2.建立MYSQL預存程序
[sql] view plain copy
- DROP PROCEDURE IF EXISTS proc1;
- DELIMITER $$
- SET AUTOCOMMIT = 0$$
- CREATE PROCEDURE proc1()
- BEGIN
- DECLARE v_cnt DECIMAL (10) DEFAULT 0 ;
- dd:LOOP
- INSERT INTO card (card_number) VALUES (UUID());
- COMMIT;
- SET v_cnt = v_cnt+1 ;
- IF v_cnt = 10000000 THEN LEAVE dd;
- END IF;
- END LOOP dd ;
- END;$$
- DELIMITER ;
3.調用預存程序,產生對應的測試資料
[sql] view plain copy
- call proc1;
我的機子大概是2分13秒的樣子產生完畢,每個人的機子各有不同,產生的時間也會不一樣。
4.來測試一下效能吧。
[sql] view plain copy
- select * from card order by rand() limit 1; //6.5秒查詢完畢
- select * from card where card_number like ‘%xxx%‘; //3.7秒查詢完畢
在這樣的海量資料情況下,如果用到模糊查詢,那肯定會很慢,一般建議用全文檢索索引引擎來替代(如Sphinx),查詢速度就完全解決。
mysql產生千萬級的測試資料