本文從實際使用經驗出發,介紹一款開源的MySQL資料庫InnoDB資料恢複工具:innodb-tools,它通過從未經處理資料檔案中提取表的行記錄,實現從丟失的或者被毀壞的MySQL表中恢複資料。例如,當你不小心執行DROP TABLE、TRUNCATE TABLE或者DROP DATABASE之後,可以通過以下方式恢複資料。
以下內容大部分參考自:Percona Data Recovery Tool for InnoDB,文檔是英文的,而且寫的比較晦澀,這裡是個人的實戰經驗總結,供大家參考學習。
在介紹innodb-tools工具進行資料恢複之前,首先明確以下幾點:
1、這個工具只能對InnoDB/XtraDB表有效,而無法恢複MyISAM表(註: Percona號稱有一套用於恢複MyISAM表的工具,但是本人未做嘗試)。
2、這個工具是以儲存的MySQL資料檔案進行恢複的,而不用MySQL Server運行。
3、不能保證資料總一定可被恢複。例如,被重寫的資料不能被恢複,這種情況下可能需要針對系統或物理的方式來恢複,不屬於本工具的範疇。
4、恢複的最好時機是當你探索資料丟失時,儘快備份MySQL資料檔案。
5、使用這個工具需要手動做一些工作,並不是全自動完成的。
6、恢複過程依賴於你對遺失資料的瞭解程度,在恢複過程中可能需要在不同版本的資料之間做出選擇。那麼如果你越瞭解自己的資料,恢複的可能性就越大。
接下來,下面通過一個例子來介紹如何通過這個工具進行恢複。
1. 前提條件
首先,需要理解的是innodb-tools工具不是通過串連到線上的database進行資料恢複,而是通過離線拷貝資料的方式進行的。注意:不要在MySQL啟動並執行時候,直接拷貝InnoDB檔案,這樣是不安全的,會影響資料恢複過程。
為了完成資料恢複,必須知道將要被恢複的表結構(列名、資料類型)。最簡單的方式就是SHOW CREATE TABLE,當然後續會介紹幾種可替代的方式。因此,如果有一個MySQL server作為備份,即使資料是很早的甚至表中沒有記錄,可以有助於使用innodb-tools工具進行恢複。不過這個不是必須的。
2. 簡單例子
複製代碼 代碼如下:mysql> TRUNCATE TABLE customer;
3. 構建工具
為了構建innodb-tools工具,需要依賴於C編譯器、make工具等。
1、下載解壓innodb-tools工具源碼:
複製代碼 代碼如下:wget https://launchpad.net/percona-data-recovery-tool-for-innodb/trunk/release-0.5/+download/percona-data-recovery-tool-for-innodb-0.5.tar.gztar -zxvf percona-data-recovery-tool-for-innodb-0.5.tar.gz
2、進入解壓後根目錄下的mysql-source目錄,回合組態命令(註:不運行make命令):
複製代碼 代碼如下:cd percona-data-recovery-tool-for-innodb-0.5/mysql-source
./configure
3、完成配置步驟後,回到解壓後的根目錄,運行make命令,編譯產生page_parser和constraints_parser工具:
複製代碼 代碼如下:cd ..
make
page_parser工具將根據InnoDB的底層實現原理,解析表的頁和行結構。constraints_parser工具暫時不使用,後續還需要在定義表結構之後,重新編譯產生它。
如果編譯過程中出現問題,點擊這裡。本文使用過程中沒有出現問題,故不再一一列舉。
4. 提取需要的頁
InnoDB頁的預設大小是16K,每個頁屬於一個特定表中的一個特定的index。page_parser工具通過讀取資料檔案,根據頁頭中的index ID,拷貝每個頁到一個單獨的檔案中。
如果你的MySQL server被配置為innodb_file_per_table=1,那麼系統已經幫你實現上述過程。所有需要的頁都在.ibd檔案,而且通常你不需要再切分它。然而,如果.ibd檔案中可能包含多個index,那麼將頁單獨切分開還是有必要的。如果MySQL server沒有配置innodb_file_per_table,那麼資料會被儲存在一個全域的表命名空間(通常是一個名為ibdata1的檔案,本文屬於這種情況),這時候就需要按頁對檔案進行切分。
4.1 切分頁
運行page_parser工具進行切分:
•如果MySQL是5.0之前的版本,InnoDB採取的是REDUNDANT格式,運行以下命令:複製代碼 代碼如下:./page_parser -4 -f /path/to/ibdata1
•如果MySQL是5.0版本,InnoDB採取的是COMPACT格式,運行以下命令:複製代碼 代碼如下:./page_parser -5 -f /path/to/ibdata1
運行後,page_parser工具會建立一個pages-<TIMESTAMP>的目錄,其中TIMESTAMP是UNIX系統時間戳。在這個目錄下,為每個index ID,以頁的index ID建立一個子目錄。例如:複製代碼 代碼如下:pages-1330842944/FIL_PAGE_INDEX/0-1/1-00000008.page
pages-1330842944/FIL_PAGE_INDEX/0-1/6-00000008.page
4.2 選擇需要的Index ID
一般來說,我們需要根據表的主鍵(PRIMARY index)進行恢複,主鍵中包含了所有的行。以下是一些可以實現的步驟:
如果資料庫仍處於運行狀態,並且表沒有被drop掉,那麼可以啟動InnoDB Tablespace Monitor,輸出所有表和indexes,index IDs到MySQL server的錯誤記錄檔檔案。建立innodb_table_monitor表用於收集innodb儲存引擎表及其索引的儲存方式:複製代碼 代碼如下:mysql> CREATE TABLE innodb_table_monitor (id int) ENGINE=InnoDB;
如果innodb_table_monitor已經存在,drop表然後重新create表。等MySQL錯誤記錄檔輸出後,可以drop掉這張表以停止列印輸出更多的監控。一個輸出的例子如下:複製代碼 代碼如下:TABLE: name sakila/customer, id 0 142, columns 13, indexes 4, appr.rows 0
COLUMNS: customer_id: DATA_INT len 2 prec 0; store_id: DATA_INT len 1 prec 0; first_name: type 12 len 135 prec 0; last_name: type 12 len 135 prec 0; email:
type 12 len 150 prec 0; address_id: DATA_INT len 2 prec 0; active: DATA_INT len 1 prec 0; create_date: DATA_INT len 8 prec 0; last_update: DATA_INT len 4 pr
ec 0; DB_ROW_ID: DATA_SYS prtype 256 len 6 prec 0; DB_TRX_ID: DATA_SYS prtype 257 len 6 prec 0; DB_ROLL_PTR: DATA_SYS prtype 258 len 7 prec 0;
INDEX: name PRIMARY, id 0 286, fields 1/11, type 3
root page 50, appr.key vals 0, leaf pages 1, size pages 1
FIELDS: customer_id DB_TRX_ID DB_ROLL_PTR store_id first_name last_name email address_id active create_date last_update
INDEX: name idx_fk_store_id, id 0 287, fields 1/2, type 0
root page 56, appr.key vals 0, leaf pages 1, size pages 1
FIELDS: store_id customer_id
INDEX: name idx_fk_address_id, id 0 288, fields 1/2, type 0
root page 63, appr.key vals 0, leaf pages 1, size pages 1
FIELDS: address_id customer_id
INDEX: name idx_last_name, id 0 289, fields 1/2, type 0
root page 1493, appr.key vals 0, leaf pages 1, size pages 1
FIELDS: last_name customer_id
這裡,我們恢複的是sakila庫下的customer表,從上面可以擷取其主鍵資訊:複製代碼 代碼如下:INDEX: name PRIMARY, id 0 286, fields 1/11, type 3
Index ID是0 256,因此我們需要恢複的InnoDB頁位於0-256子目錄下。
備忘:參考文檔原文中之描述了以上這種擷取表的index ID的方法,本文在實際操作中,採取了更簡單的一種方式,即直接恢複page_parser產生的所有InnoDB頁。實踐證明這種方法也是可行的:)
5. 產生表定義
步驟4中,我們已經找到了需要的資料,接下來需要找到表結構,建立表定義,將其編譯到constraints_parser中,然後使用這個工具從InnoDB頁中提取表中的行。
表定義包含了表中的列、列順序、資料類型。如果MySQL server仍處於運行且表未被drop掉,那麼簡單實用SHOW CREATE TABLE就可以收集到這些資訊。接下來將使用這些表結構資訊來建立一個C結構體標識的表定義,然後編譯到constraints_parser工具。C結構體的定義存放在include/table_defs.h中。
最簡單的方式是create_defs.pl Perl 指令碼,串連到MySQL server,讀取SHOW CREATE TABLE的結果,輸出產生的表定義到標準輸出。下面是個例子,其中直接將結果重新導向到了include/table_defs.h中:
If possible, the easiest way to create the table definition is with the create_defs.pl Perl script. It connects to the MySQL server and reads SHOW CREATE TABLE output, and prints the generated definition to its standard output. Here is an example:複製代碼 代碼如下:$ ./create_defs.pl --host=localhost --user=root --password=123456 --db=sakila --table=customer > include/table_defs.h
下面是例子中的表結構:
複製代碼 代碼如下:CREATE TABLE `customer` (
`customer_id` smallint(5) UNSIGNED NOT NULL AUTO_INCREMENT,
`store_id` tinyint(3) UNSIGNED NOT NULL,
`first_name` varchar(45) NOT NULL,
`last_name` varchar(45) NOT NULL,
`email` varchar(50) DEFAULT NULL,
`address_id` smallint(5) UNSIGNED NOT NULL,
`active` tinyint(1) NOT NULL DEFAULT '1',
`create_date` datetime NOT NULL,
`last_update` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
PRIMARY KEY (`customer_id`),
KEY `idx_fk_store_id` (`store_id`),
KEY `idx_fk_address_id` (`address_id`),
KEY `idx_last_name` (`last_name`),
CONSTRAINT `fk_customer_address` FOREIGN KEY (`address_id`) REFERENCES `address` (`address_id`) ON UPDATE CASCADE,
CONSTRAINT `fk_customer_store` FOREIGN KEY (`store_id`) REFERENCES `store` (`store_id`) ON UPDATE CASCADE
) ENGINE=InnoDB DEFAULT CHARSET=utf8
下面是產生的表定義:
複製代碼 代碼如下:#ifndef table_defs_h
#define table_defs_h
// Table definitions
table_def_t table_definitions[] = {
{
name: "customer",
{
{ /* smallint(5) unsigned */
name: "customer_id",
type: FT_UINT,
fixed_length: 2,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
uint_min_val: 0,
uint_max_val: 65535
},
can_be_null: FALSE
},
{ /* Innodb's internally used field */
name: "DB_TRX_ID",
type: FT_INTERNAL,
fixed_length: 6,
can_be_null: FALSE
},
{ /* Innodb's internally used field */
name: "DB_ROLL_PTR",
type: FT_INTERNAL,
fixed_length: 7,
can_be_null: FALSE
},
{ /* tinyint(3) unsigned */
name: "store_id",
type: FT_UINT,
fixed_length: 1,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
uint_min_val: 0,
uint_max_val: 255
},
can_be_null: FALSE
},
{ /* varchar(45) */
name: "first_name",
type: FT_CHAR,
min_length: 0,
max_length: 45,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
char_min_len: 0,
char_max_len: 45,
char_ascii_only: TRUE
},
can_be_null: FALSE
},
{ /* varchar(45) */
name: "last_name",
type: FT_CHAR,
min_length: 0,
max_length: 45,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
char_min_len: 0,
char_max_len: 45,
char_ascii_only: TRUE
},
can_be_null: FALSE
},
{ /* varchar(50) */
name: "email",
type: FT_CHAR,
min_length: 0,
max_length: 50,
has_limits: TRUE,
limits: {
can_be_null: TRUE,
char_min_len: 0,
char_max_len: 50,
char_ascii_only: TRUE
},
can_be_null: TRUE
},
{ /* smallint(5) unsigned */
name: "address_id",
type: FT_UINT,
fixed_length: 2,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
uint_min_val: 0,
uint_max_val: 65535
},
can_be_null: FALSE
},
{ /* tinyint(1) */
name: "active",
type: FT_INT,
fixed_length: 1,
can_be_null: FALSE
},
{ /* datetime */
name: "create_date",
type: FT_DATETIME,
fixed_length: 8,
can_be_null: FALSE
},
{ /* timestamp */
name: "last_update",
type: FT_UINT,
fixed_length: 4,
can_be_null: FALSE
},
{ type: FT_NONE }
}
},
};
#endif
如果需要,可以根據需要編輯修改include/table_defs.h;然後根據include/table_defs.h,重新編譯constraints_parser工具:
複製代碼 代碼如下:$ make
gcc -DHAVE_OFFSET64_T -D_FILE_OFFSET_BITS=64 -D_LARGEFILE64_SOURCE=1 -D_LARGEFILE_SOURCE=1 -g -I include -I mysql-source/include -I mysql-source/innobase/include -c tables_dict.c -o lib/tables_dict.o
gcc -DHAVE_OFFSET64_T -D_FILE_OFFSET_BITS=64 -D_LARGEFILE64_SOURCE=1 -D_LARGEFILE_SOURCE=1 -g -I include -I mysql-source/include -I mysql-source/innobase/include -o constraints_parser constraints_parser.c lib/tables_dict.o lib/print_data.o lib/check_data.o lib/libut.a lib/libmystrings.a
gcc -DHAVE_OFFSET64_T -D_FILE_OFFSET_BITS=64 -D_LARGEFILE64_SOURCE=1 -D_LARGEFILE_SOURCE=1 -g -I include -I mysql-source/include -I mysql-source/innobase/include -o page_parser page_parser.c lib/tables_dict.o lib/libut.a
6. 從頁中提取行記錄
6.1 合并頁到一個檔案
前面已經提到,我們需要恢複的index ID 0 286,包含資料的頁位於pages-1246363747/0-286/ 目錄。複製代碼 代碼如下:total 120
-rw-r--r-- 1 root root 16384 Jun 30 05:09 1254-00001254.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 1255-00001255.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 1256-00001256.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 1257-00001257.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 50-00000050.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 74-00000050.page
輸入以下命令進行合并頁:複製代碼 代碼如下:$ find pages-1246363747/0-286/ -type f -name '*.page' | sort -n | xargs cat > pages-1246363747/0-286/customer_pages_concatenated
產生的結果檔案:pages-1246363747/0-286/customer_pages_concatenated,將作為constraints_parser工具的輸入。
6.2 運行constraints_parser工具
下面到恢複資料最核心的步驟——運行constraints_parser工具以提取行記錄。和page_parser工具一樣,需要通過-5或-4參數指定InnoDB頁格式(COMPACT/REDUNDANT),-f指定輸入檔案。
回到例子中,我們可以這樣運行constraints_parser工具(下面的命令是恢複一個單一的頁,也可以直接恢複經過6.1步驟合并所有頁之後的檔案):複製代碼 代碼如下:$ ./constraints_parser -5 -f pages-1246363747/0-286/50-00000050.page
輸出結果中每行包含表名以及表中的各個列。備忘:其中可能有正確的行記錄,也可能有不正確的行記錄。官方文檔中這個章節給出了如何調整表定義擷取儘可能多的有效資料,同時過濾掉垃圾行,這裡不再詳細描述。複製代碼 代碼如下:customer 0 120 "" "" "" 32770 0 "0000-00-00 00:12:80" 0
customer 0 0 "" "" "" 0 0 "9120-22-48 29:44:00" 2
customer 61953 0 "" "" "" 2816 0 "7952-32-67 11:43:49" 0
customer 0 0 "" "" "" 0 0 "0000-00-00 00:00:00" 0
... snip ...
customer 0 0 "" "" "" 0 0 "0000-00-00 00:00:00" 16777728
customer 28262 114 "" "" NULL 25965 117 "4603-91-96 76:21:28" 5111809
customer 0 82 "" "" "" 22867 77 "2775-94-58 03:19:18" 1397573972
customer 2 1 "PATRICIA" "JOHNSON" "PATRICIA.JOHNSON@sakilacustomer.org" 6 1 "2006-02-14 22:04:36" 1140008240
customer 3 1 "LINDA" "WILLIAMS" "LINDA.WILLIAMS@sakilacustomer.org" 7 1 "2006-02-14 22:04:36" 1140008240
customer 4 2 "BARBARA" "JONES" "BARBARA.JONES@sakilacustomer.org" 8 1 "2006-02-14 22:04:36" 1140008240
customer 5 1 "ELIZABETH" "BROWN" "ELIZABETH.BROWN@sakilacustomer.org" 9 1 "2006-02-14 22:04:36" 1140008240
customer 6 2 "JENNIFER" "DAVIS" "JENNIFER.DAVIS@sakilacustomer.org" 10 1 "2006-02-14 22:04:36" 1140008240
customer 7 1 "MARIA" "MILLER" "MARIA.MILLER@sakilacustomer.org" 11 1 "2006-02-14 22:04:36" 1140008240
customer 8 2 "SUSAN" "WILSON" "SUSAN.WILSON@sakilacustomer.org" 12 1 "2006-02-14 22:04:36" 1140008240
customer 9 2 "MARGARET" "MOORE" "MARGARET.MOORE@sakilacustomer.org" 13 1 "2006-02-14 22:04:36" 1140008240
... snip ...
customer 0 0 "" "" "" 0 0 "0000-00-00 00:00:00" 0
customer 0 0 "" "" "" 0 0 "7679-35-98 86:44:53" 720578985
7. 匯入資料到資料庫中
最後,為了完成資料恢複,需要將步驟6中constraints_parser工具的輸出結果,使用LOAD DATA INFILE命令匯入到資料庫中。命令如下:複製代碼 代碼如下:LOAD DATA INFILE '/tmp/customer_data.tsv'
REPLACE INTO TABLE customer
FIELDS TERMINATED BY '\t'
OPTIONALLY ENCLOSED BY '"'
LINES STARTING BY 'customer\t'
(customer_id, store_id, first_name, last_name, email,
address_id, active, create_date, @last_update)
SET last_update = FROM_UNIXTIME(@last_update);
至此,完成了資料的恢複和匯入處理程序。希望大家不會有機會去實踐這篇文章介紹的方法。