本文從實際使用經驗出發,介紹一款開源的MySQL數據庫InnoDB數據恢復工具:innodb-tools,它通過從原始數據文件中提取表的行記錄,實現從丟失的或者被毀壞的MySQL表中恢復數據。例如,當你不小心執行DROP TABLE、TRUNCATE TABLE或者DROP DATABASE之後,可以通過以下方式恢復數據
以下內容大部分參考自:Percona Data Recovery Tool for InnoDB,文檔是英文的,而且寫的比較晦澀,這裡是個人的實戰經驗總結,供大家參考學習。
在介紹innodb-tools工具進行數據恢復之前,首先明確以下幾點:
1、這個工具只能對InnoDB/XtraDB表有效,而無法恢復MyISAM表(注: Percona號稱有一套用於恢復MyISAM表的工具,但是本人未做嘗試)。
2、這個工具是以保存的MySQL數據文件進行恢復的,而不用MySQL Server運行。
3、不能保證數據總一定可被恢復。例如,被重寫的數據不能被恢復,這種情況下可能需要針對系統或物理的方式來恢復,不屬於本工具的范疇。
4、恢復的最好時機是當你發現數據丟失時,盡快備份MySQL數據文件。
5、使用這個工具需要手動做一些工作,並不是全自動完成的。
6、恢復過程依賴於你對丟失數據的了解程度,在恢復過程中可能需要在不同版本的數據之間做出選擇。那麼如果你越了解自己的數據,恢復的可能性就越大。
接下來,下面通過一個例子來介紹如何通過這個工具進行恢復。
1. 前提條件
首先,需要理解的是innodb-tools工具不是通過連接到在線的database進行數據恢復,而是通過離線拷貝數據的方式進行的。注意:不要在MySQL運行的時候,直接拷貝InnoDB文件,這樣是不安全的,會影響數據恢復過程。
為了完成數據恢復,必須知道將要被恢復的表結構(列名、數據類型)。最簡單的方式就是SHOW CREATE TABLE,當然後續會介紹幾種可替代的方式。因此,如果有一個MySQL server作為備份,即使數據是很早的甚至表中沒有記錄,可以有助於使用innodb-tools工具進行恢復。不過這個不是必須的
2. 簡單例子
mysql> TRUNCATE TABLE customer;
3. 構建工具
為了構建innodb-tools工具,需要依賴於C編譯器、make工具等。
1、下載解壓innodb-tools工具源碼:
wget https://launchpad.net/percona-data-recovery-tool-for-innodb/trunk/release-0.5/+download/percona-data-recovery-tool-for-innodb-0.5.tar.gz
tar -zxvf percona-data-recovery-tool-for-innodb-0.5.tar.gz
2、進入解壓後根目錄下的mysql-source目錄,運行配置命令(注:不運行make命令):
cd percona-data-recovery-tool-for-innodb-0.5/mysql-source
./configure
3、完成配置步驟後,回到解壓後的根目錄,運行make命令,編譯生成page_parser和constraints_parser工具:
cd ..
make
page_parser工具將根據InnoDB的底層實現原理,解析表的頁和行結構。constraints_parser工具暫時不使用,後續還需要在定義表結構之後,重新編譯生成它。
如果編譯過程中出現問題,點擊這裡。本文使用過程中沒有出現問題,故不再一一列舉。
4. 提取需要的頁
InnoDB頁的默認大小是16K,每個頁屬於一個特定表中的一個特定的index。page_parser工具通過讀取數據文件,根據頁頭中的index ID,拷貝每個頁到一個單獨的文件中。
如果你的MySQL server被配置為innodb_file_per_table=1,那麼系統已經幫你實現上述過程。所有需要的頁都在.ibd文件,而且通常你不需要再切分它。然而,如果.ibd文件中可能包含多個index,那麼將頁單獨切分開還是有必要的。如果MySQL server沒有配置innodb_file_per_table,那麼數據會被保存在一個全局的表命名空間(通常是一個名為ibdata1的文件,本文屬於這種情況),這時候就需要按頁對文件進行切分。
4.1 切分頁
運行page_parser工具進行切分:
如果MySQL是5.0之前的版本,InnoDB采取的是REDUNDANT格式,運行以下命令:
./page_parser -4 -f /path/to/ibdata1
如果MySQL是5.0版本,InnoDB采取的是COMPACT格式,運行以下命令:
./page_parser -5 -f /path/to/ibdata1
運行後,page_parser工具會創建一個pages-<TIMESTAMP>的目錄,其中TIMESTAMP是UNIX系統時間戳。在這個目錄下,為每個index ID,以頁的index ID創建一個子目錄。例如:
pages-1330842944/FIL_PAGE_INDEX/0-1/1-00000008.page
pages-1330842944/FIL_PAGE_INDEX/0-1/6-00000008.page
4.2 選擇需要的Index ID
一般來說,我們需要根據表的主鍵(PRIMARY index)進行恢復,主鍵中包含了所有的行。以下是一些可以實現的步驟:
如果數據庫仍處於運行狀態,並且表沒有被drop掉,那麼可以啟動InnoDB Tablespace Monitor,輸出所有表和indexes,index IDs到MySQL server的錯誤日志文件。創建innodb_table_monitor表用於收集innodb存儲引擎表及其索引的存儲方式:
mysql> CREATE TABLE innodb_table_monitor (id int) ENGINE=InnoDB;
如果innodb_table_monitor已經存在,drop表然後重新create表。等MySQL錯誤日志輸出後,可以drop掉這張表以停止打印輸出更多的監控。一個輸出的例子如下:
TABLE: name sakila/customer, id 0 142, columns 13, indexes 4, appr.rows 0
COLUMNS: customer_id: DATA_INT len 2 prec 0; store_id: DATA_INT len 1 prec 0; first_name: type 12 len 135 prec 0; last_name: type 12 len 135 prec 0; email:
type 12 len 150 prec 0; address_id: DATA_INT len 2 prec 0; active: DATA_INT len 1 prec 0; create_date: DATA_INT len 8 prec 0; last_update: DATA_INT len 4 pr
ec 0; DB_ROW_ID: DATA_SYS prtype 256 len 6 prec 0; DB_TRX_ID: DATA_SYS prtype 257 len 6 prec 0; DB_ROLL_PTR: DATA_SYS prtype 258 len 7 prec 0;
INDEX: name PRIMARY, id 0 286, fields 1/11, type 3
root page 50, appr.key vals 0, leaf pages 1, size pages 1
FIELDS: customer_id DB_TRX_ID DB_ROLL_PTR store_id first_name last_name email address_id active create_date last_update
INDEX: name idx_fk_store_id, id 0 287, fields 1/2, type 0
root page 56, appr.key vals 0, leaf pages 1, size pages 1
FIELDS: store_id customer_id
INDEX: name idx_fk_address_id, id 0 288, fields 1/2, type 0
root page 63, appr.key vals 0, leaf pages 1, size pages 1
FIELDS: address_id customer_id
INDEX: name idx_last_name, id 0 289, fields 1/2, type 0
root page 1493, appr.key vals 0, leaf pages 1, size pages 1
FIELDS: last_name customer_id
這裡,我們恢復的是sakila庫下的customer表,從上面可以獲取其主鍵信息:
INDEX: name PRIMARY, id 0 286, fields 1/11, type 3
Index ID是0 256,因此我們需要恢復的InnoDB頁位於0-256子目錄下。
備注:參考文檔原文中之描述了以上這種獲取表的index ID的方法,本文在實際操作中,采取了更簡單的一種方式,即直接恢復page_parser生成的所有InnoDB頁。實踐證明這種方法也是可行的:)
5. 生成表定義
步驟4中,我們已經找到了需要的數據,接下來需要找到表結構,創建表定義,將其編譯到constraints_parser中,然後使用這個工具從InnoDB頁中提取表中的行。
表定義包含了表中的列、列順序、數據類型。如果MySQL server仍處於運行且表未被drop掉,那麼簡單實用SHOW CREATE TABLE就可以收集到這些信息。接下來將使用這些表結構信息來創建一個C結構體標識的表定義,然後編譯到constraints_parser工具。C結構體的定義存放在include/table_defs.h中。
最簡單的方式是create_defs.pl Perl 腳本,連接到MySQL server,讀取SHOW CREATE TABLE的結果,輸出生成的表定義到標准輸出。下面是個例子,其中直接將結果重定向到了include/table_defs.h中:
If possible, the easiest way to create the table definition is with the create_defs.pl Perl script. It connects to the MySQL server and reads SHOW CREATE TABLE output, and prints the generated definition to its standard output. Here is an example:
$ ./create_defs.pl --host=localhost --user=root --password=123456 --db=sakila --table=customer > include/table_defs.h
下面是例子中的表結構:
CREATE TABLE `customer` (
`customer_id` smallint(5) UNSIGNED NOT NULL AUTO_INCREMENT,
`store_id` tinyint(3) UNSIGNED NOT NULL,
`first_name` varchar(45) NOT NULL,
`last_name` varchar(45) NOT NULL,
`email` varchar(50) DEFAULT NULL,
`address_id` smallint(5) UNSIGNED NOT NULL,
`active` tinyint(1) NOT NULL DEFAULT '1',
`create_date` datetime NOT NULL,
`last_update` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
PRIMARY KEY (`customer_id`),
KEY `idx_fk_store_id` (`store_id`),
KEY `idx_fk_address_id` (`address_id`),
KEY `idx_last_name` (`last_name`),
CONSTRAINT `fk_customer_address` FOREIGN KEY (`address_id`) REFERENCES `address` (`address_id`) ON UPDATE CASCADE,
CONSTRAINT `fk_customer_store` FOREIGN KEY (`store_id`) REFERENCES `store` (`store_id`) ON UPDATE CASCADE
) ENGINE=InnoDB DEFAULT CHARSET=utf8
下面是生成的表定義:
#ifndef table_defs_h
#define table_defs_h
// Table definitions
table_def_t table_definitions[] = {
{
name: "customer",
{
{ /* smallint(5) unsigned */
name: "customer_id",
type: FT_UINT,
fixed_length: 2,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
uint_min_val: 0,
uint_max_val: 65535
},
can_be_null: FALSE
},
{ /* Innodb's internally used field */
name: "DB_TRX_ID",
type: FT_INTERNAL,
fixed_length: 6,
can_be_null: FALSE
},
{ /* Innodb's internally used field */
name: "DB_ROLL_PTR",
type: FT_INTERNAL,
fixed_length: 7,
can_be_null: FALSE
},
{ /* tinyint(3) unsigned */
name: "store_id",
type: FT_UINT,
fixed_length: 1,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
uint_min_val: 0,
uint_max_val: 255
},
can_be_null: FALSE
},
{ /* varchar(45) */
name: "first_name",
type: FT_CHAR,
min_length: 0,
max_length: 45,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
char_min_len: 0,
char_max_len: 45,
char_ascii_only: TRUE
},
can_be_null: FALSE
},
{ /* varchar(45) */
name: "last_name",
type: FT_CHAR,
min_length: 0,
max_length: 45,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
char_min_len: 0,
char_max_len: 45,
char_ascii_only: TRUE
},
can_be_null: FALSE
},
{ /* varchar(50) */
name: "email",
type: FT_CHAR,
min_length: 0,
max_length: 50,
has_limits: TRUE,
limits: {
can_be_null: TRUE,
char_min_len: 0,
char_max_len: 50,
char_ascii_only: TRUE
},
can_be_null: TRUE
},
{ /* smallint(5) unsigned */
name: "address_id",
type: FT_UINT,
fixed_length: 2,
has_limits: TRUE,
limits: {
can_be_null: FALSE,
uint_min_val: 0,
uint_max_val: 65535
},
can_be_null: FALSE
},
{ /* tinyint(1) */
name: "active",
type: FT_INT,
fixed_length: 1,
can_be_null: FALSE
},
{ /* datetime */
name: "create_date",
type: FT_DATETIME,
fixed_length: 8,
can_be_null: FALSE
},
{ /* timestamp */
name: "last_update",
type: FT_UINT,
fixed_length: 4,
can_be_null: FALSE
},
{ type: FT_NONE }
}
},
};
#endif
如果需要,可以根據需要編輯修改include/table_defs.h;然後根據include/table_defs.h,重新編譯constraints_parser工具:
$ make
gcc -DHAVE_OFFSET64_T -D_FILE_OFFSET_BITS=64 -D_LARGEFILE64_SOURCE=1 -D_LARGEFILE_SOURCE=1 -g -I include -I mysql-source/include -I mysql-source/innobase/include -c tables_dict.c -o lib/tables_dict.o
gcc -DHAVE_OFFSET64_T -D_FILE_OFFSET_BITS=64 -D_LARGEFILE64_SOURCE=1 -D_LARGEFILE_SOURCE=1 -g -I include -I mysql-source/include -I mysql-source/innobase/include -o constraints_parser constraints_parser.c lib/tables_dict.o lib/print_data.o lib/check_data.o lib/libut.a lib/libmystrings.a
gcc -DHAVE_OFFSET64_T -D_FILE_OFFSET_BITS=64 -D_LARGEFILE64_SOURCE=1 -D_LARGEFILE_SOURCE=1 -g -I include -I mysql-source/include -I mysql-source/innobase/include -o page_parser page_parser.c lib/tables_dict.o lib/libut.a
6. 從頁中提取行記錄
6.1 合並頁到一個文件
前面已經提到,我們需要恢復的index ID 0 286,包含數據的頁位於pages-1246363747/0-286/ 目錄。
total 120
-rw-r--r-- 1 root root 16384 Jun 30 05:09 1254-00001254.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 1255-00001255.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 1256-00001256.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 1257-00001257.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 50-00000050.page
-rw-r--r-- 1 root root 16384 Jun 30 05:09 74-00000050.page
輸入以下命令進行合並頁:
$ find pages-1246363747/0-286/ -type f -name '*.page' | sort -n | xargs cat > pages-1246363747/0-286/customer_pages_concatenated
生成的結果文件:pages-1246363747/0-286/customer_pages_concatenated,將作為constraints_parser工具的輸入。
6.2 運行constraints_parser工具
下面到恢復數據最核心的步驟——運行constraints_parser工具以提取行記錄。和page_parser工具一樣,需要通過-5或-4參數指定InnoDB頁格式(COMPACT/REDUNDANT),-f指定輸入文件。
回到例子中,我們可以這樣運行constraints_parser工具(下面的命令是恢復一個單一的頁,也可以直接恢復經過6.1步驟合並所有頁之後的文件):
$ ./constraints_parser -5 -f pages-1246363747/0-286/50-00000050.page
輸出結果中每行包含表名以及表中的各個列。備注:其中可能有正確的行記錄,也可能有不正確的行記錄。官方文檔中這個章節給出了如何調整表定義獲取盡可能多的有效數據,同時過濾掉垃圾行,這裡不再詳細描述。
customer 0 120 "" "" "" 32770 0 "0000-00-00 00:12:80" 0
customer 0 0 "" "" "" 0 0 "9120-22-48 29:44:00" 2
customer 61953 0 "" "" "" 2816 0 "7952-32-67 11:43:49" 0
customer 0 0 "" "" "" 0 0 "0000-00-00 00:00:00" 0
... snip ...
customer 0 0 "" "" "" 0 0 "0000-00-00 00:00:00" 16777728
customer 28262 114 "" "" NULL 25965 117 "4603-91-96 76:21:28" 5111809
customer 0 82 "" "" "" 22867 77 "2775-94-58 03:19:18" 1397573972
customer 2 1 "PATRICIA" "JOHNSON" "[email protected]" 6 1 "2006-02-14 22:04:36" 1140008240
customer 3 1 "LINDA" "WILLIAMS" "[email protected]" 7 1 "2006-02-14 22:04:36" 1140008240
customer 4 2 "BARBARA" "JONES" "[email protected]" 8 1 "2006-02-14 22:04:36" 1140008240
customer 5 1 "ELIZABETH" "BROWN" "[email protected]" 9 1 "2006-02-14 22:04:36" 1140008240
customer 6 2 "JENNIFER" "DAVIS" "[email protected]" 10 1 "2006-02-14 22:04:36" 1140008240
customer 7 1 "MARIA" "MILLER" "[email protected]" 11 1 "2006-02-14 22:04:36" 1140008240
customer 8 2 "SUSAN" "WILSON" "[email protected]" 12 1 "2006-02-14 22:04:36" 1140008240
customer 9 2 "MARGARET" "MOORE" "[email protected]" 13 1 "2006-02-14 22:04:36" 1140008240
... snip ...
customer 0 0 "" "" "" 0 0 "0000-00-00 00:00:00" 0
customer 0 0 "" "" "" 0 0 "7679-35-98 86:44:53" 720578985
7. 導入數據到數據庫中
最後,為了完成數據恢復,需要將步驟6中constraints_parser工具的輸出結果,使用LOAD DATA INFILE命令導入到數據庫中。命令如下:
LOAD DATA INFILE '/tmp/customer_data.tsv'
REPLACE INTO TABLE customer
FIELDS TERMINATED BY '\t'
OPTIONALLY ENCLOSED BY '"'
LINES STARTING BY 'customer\t'
(customer_id, store_id, first_name, last_name, email,
address_id, active, create_date, @last_update)
SET last_update = FROM_UNIXTIME(@last_update);
至此,完成了數據的恢復和導入過程。希望大家不會有機會去實踐這篇文章介紹的方法。
摘自 大圓那些事