Percona-Toolkit 之 pt-archiver 总结
作者:互联网
pt-archiver - Archive rows from a MySQL table into another table or a file.
pt-archiver nibbles records from a MySQL table. The
--source
and--dest
arguments use DSN syntax; if COPY is yes,--dest
defaults to the key's value from--source
.
pt-archiver是Percona-Toolkit工具集中的一个组件,是一个主要用于对MySQL表数据进行归档和清除工具。它可以将数据归档到另一张表或者是一个文件中。pt-archiver在清除表数据的过程中并不会影响OLTP事务的查询性能。对于数据的归档,它可以归档到另一台服务器上的另一张表,也可归档到一个文件中,文件可以用LOAD DATA INFILE
进行数据装载,这个功能其实就类似是表历史数据的增量删除。
本文是关于之前有关pt-archiver工具使用的学习笔记进行重新整理,使用最新版本的工具同时也进行原理知识的梳理。
关于获取和安装Percona-Toolkit工具集可以参考我另一篇博文:Percona-Toolkit 之 pt-online-schema-change 总结中的安装部分。
基本说明
pt-archiver [OPTIONS] --source DSN --where WHERE
常用选项(OPTIONS)
--analyze
指定工具完成数据归档后对表执行'ANALYZE TABLE'操作。指定方法如'--analyze=ds',s代表源端表,d代表目标端表,也可以单独指定。
--ask-pass
命令行提示密码输入,保护密码安全,前提需安装模块perl-TermReadKey。
--buffer
指定缓冲区数据刷新到选项'--file'指定的文件并且在提交时刷新。
只有当事务提交时禁用自动刷新到'--file'指定的文件和刷新文件到磁盘,这意味着文件是被操作系统块进行刷新,因此在事务进行提交之前有一些数据隐式刷新到磁盘。默认是每一行操作后进行文件刷新到磁盘。
--bulk-delete
指定单个语句删除chunk的方式来批量删除行,会隐式执行选项'--commit-each'。
使用单个DELETE语句删除每个chunk对应的表行,通常的做法是通过主键进行逐行的删除,批量删除在速度上会有很大的提升,但如果有复杂的'WHERE'条件就可能会更慢。
--[no]bulk-delete-limit
默认值:yes
指定添加选项'--bulk-delete'和'--limit'到进行归档的语句中。
--bulk-insert
使用LOAD DATA LOCAL INFILE的方法,通过批量插入chunk的方式来插入行(隐式指定选项'--bulk-delete'和'--commit-each')
而不是通过逐行单独插入的方式进行,它比单行执行INSERT语句插入的速度要快。通过隐式创建临时表来存储需要批量插入的行(chunk),而不是直接进行批量插入操作,当临时表中完成每个chunk之后再进行统一数据加载。为了保证数据的安全性,该选项会强制使用选项'--bulk-delete',这样能够有效保证删除是在插入完全成功之后进行的。
--channel
指定当主从复制环境是多源复制时需要进行归档哪个主库的数据,适用于多源复制中多个主库对应一个从库的情形。
--charset,-A
指定连接字符集。
--[no]check-charset
默认值:yes
指定检查确保数据库连接时字符集和表字符集相同。
--[no]check-columns
默认值:yes
指定检查确保选项'--source'指定的源端表和'--dest'指定的目标表具有相同的字段。
不检查字段在表的排序和字段类型,只检查字段是否在源端表和目标表当中都存在,如果有不相同的字段差异,则工具报错退出。如果需要禁用该检查,则指定'--no-check-columns'。
--check-slave-lag
指定主从复制延迟大于选项'--max-lag'指定的值之后暂停归档操作。默认情况下,工具会检查所有的从库,但该选项只作用于指定的从库(通过DSN连接方式)。
--check-interval
默认值:1s
如果同时指定了选项'--check-slave-lag',则该选项指定的时间为工具发现主从复制延迟时暂停的时间。每进行操作100行时进行一次检查。
--columns,-c
指定需要归档的表字段,如有多个则用','(逗号)隔开。
--commit-each
指定按每次获取和归档的行数进行提交,该选项会禁用选项'--txn-size'。
在每次获取表数据并进行归档之后,在获取下一次数据和选项'--sleep'指定的休眠时间之前,进行事务提交和刷新选项'--file'指定的文件,通过选项'--limit'控制事务的大小。
--host,-h
指定连接的数据库IP地址。
--port,-P
指定连接的数据库Port端口。
--user,-u
指定连接的数据库用户。
--password,-p
指定连接的数据库用户密码。
--socket,-S
指定使用SOCKET文件连接。
--databases,-d
指定连接的数据库
--source
指定需要进行归档操作的表,该选项是必须指定的选项,使用DSN方式表示。
--dest
指定要归档到的目标端表,使用DSN方式表示。
如果该选项没有指定的话,则默认与选项'--source'指定源端表为相同表。
--where
指定通过WHERE条件语句指定需要归档的数据,该选项是必须指定的选项。不需要加上'WHERE'关键字,如果确实不需要WHERE条件进行限制,则指定'--where 1=1'。
--file
指定表数据需要归档到的文件。使用类似MySQL DATE_FORMAT()格式化命名方式。
文件内容与MySQL中SELECT INTO OUTFILE语句使用相同的格式,文件命名选项如下所示:
'
%Y:年,4位数(Year, numeric, four digits)
%m:月,2位数(Month, numeric (01..12))
%d:日,2位数(Day of the month, numeric (01..31))
%H:小时(Hour (00..23))
%i:分钟(Minutes, numeric (00..59))
%s:秒(Seconds (00..59))
%D:数据库名(Database name)
%t:表名(Table name)
例如:--file '/var/log/archive/%Y-%m-%d-%D.%t'
'
--output-format
指定选项'--file'文件内容输出的格式。
默认不指定该选项是以制表符进行字段的分隔符,如果指定该选项,则使用','(逗号)作为字段分隔符,使用'"'(双引号)将字段括起。用法示例:'--output-format=dump'。
--for-update
指定为每次归档执行的SELECT语句添加FOR UPDATE子句。
--share-lock
指定为每次归档执行的SELECT语句添加LOCK IN SHARE MODE子句。
--header
指定在文件中第一行写入字段名称作为标题。
--ignore
指定为INSERT语句添加IGNORE选项。
--limit
默认值:1
指定每条语句获取表和归档表的行数。
--local
指定不将OPTIMIZE和ANALYZE语句写入binlog。
--max-lag
默认值:1s
指定允许主从复制延迟时长的最大值,单位秒。如果在每次获取行数据之后主从延迟超过指定的值,则归档操作将暂停执行,暂停休眠时间为选项'--check-interval'指定的值。待休眠时间结束之后再次检查主从延迟时长,检查方法是通过从库查询的'Seconds_Behind_Master'值来确定。如果主从复制延迟一直大于该参数指定值或者从库停止复制,则操作将一直等待直到从库重新启动并且延迟小于该参数指定值。
--no-delete
指定不删除已被归档的表数据。
--optimize
指定工具完成数据归档后对表执行'OPTIMIZE TABLE'操作。指定方法如'--analyze=ds',s代表源端表,d代表目标端表,也可以单独指定。
--primary-key-only
指定只归档主键字段,是选项'--columns=主键'的简写。
如果工具归档的操作是进行DELETE清除时最有效,因为只需读取主键一个字段而无需读取行所有字段。
--progress
指定每多少行打印进度信息,打印当前时间,已用时间以及多少行进行归档。
--purge
指定执行的清除操作而不是归档操作。允许忽略选项'--dest'和'--file'进行操作,如果只是清除操作可以结合选项'--primary-key-only'会更高效。
--quiet,-q
指定工具静默执行,不输出任何的执行信息。
--replace
指定写入选项'--dest'指定目标端表时改写INSERT语句为REPLACE语句。
--retries
默认值:1
指定归档操作遇到死锁或超时的重试次数。当重试次数超过该选项指定的值时,工具将报错退出。
--run-time
指定工具归档操作在退出之前需要运行的时间。允许的时间后缀名为s=秒,m=分,h=小时,d=天,如果没指定,默认为s。
--[no]safe-auto-increment
默认值:yes
指定不使用自增列(AUTO_INCREMENT)最大值对应的行进行归档。
该选项在进行归档清除时会额外添加一条WHERE子句以防止工具删除单列升序字段具有的具有AUTO_INCREMENT属性最大值的数据行,为了在数据库重启之后还能使用到AUTO_INCREMENT对应的值,但这会引起无法归档或清除字段对应最大值的行。
--set-vars
默认:
wait_timeout=10000
innodb_lock_wait_timeout=1
lock_wait_timeout=60
工具归档时指定参数值,如有多个用','(逗号)分隔。如'--set-vars=wait_timeout=5000'。
--skip-foreign-key-checks
指定使用语句SET FOREIGN_KEY_CHECKS = 0禁用外键检查。
--sleep
指定工具在通过SELECT语句获取归档数据需要休眠的时间,默认值是不进行休眠。在休眠之前事务并不会提交,并且选项'--file'指定的文件不会被刷新。如果指定选项'--commit-each',则在休眠之前会进行事务提交和文件刷新。
--statistics
指定工具收集并打印操作的时间统计信息。
统计信息示例如下:
'
Started at 2008-07-18T07:18:53, ended at 2008-07-18T07:18:53
Source: D=db,t=table
SELECT 4
INSERT 4
DELETE 4
Action Count Time Pct
commit 10 0.1079 88.27
select 5 0.0047 3.87
deleting 4 0.0028 2.29
inserting 4 0.0028 2.28
other 0 0.0040 3.29
'
--txn-size
默认:1
指定每个事务处理的行数。如果是0则禁用事务功能。
--version
显示工具的版本并退出。
--[no]version-check
默认值:yes
检查Percona Toolkit、MySQL和其他程序的最新版本。
--why-quit
指定工具打印当非因完成归档行数退出的原因。
在执行一个自动归档任务时该选项与选项'--run-time'一起使用非常方便,这样可以确定归档任务是否在指定的时间内完成。如果同时指定了选项'--statistics',则会打印所有退出的原因。
DSN选项(DSN)
可以使用DSN方式来连接数据库,DSN选项为key=value
方式,在等号的两侧不能有空格出现,并且区分大小写,多个选项之前以','(逗号)隔开,主要选项如下:
- a
归档操作是在哪个库下进行的,相当于USE
操作。 - A
指定默认字符集。 - b
当值为true
时,禁止SQL_LOG_BIN
,相当于SQL_LOG_BIN = 0
。 - D
指定包含需要归档表的数据库。 - h
指定连接的主机。 - u
指定连接的用户。 - p
指定连接需要的密码。 - P
指定连接的端口。 - S
指定连接的SOCKET文件。 - t
指定需要归档的表。 - i
指定需要使用的索引。
选项用法说明
- 工具至少需指定选项
--dest
、--file
或--purge
其中之一; - 选项
--ignore
和--replace
是互斥的; - 选项
--txn-size
和--commit-each
是互斥的; - 选项
--share-lock
和--for-update
是互斥的; --analyze
和--optimize
是互斥的。
用法示例
环境与数据准备
MySQL:5.7.24 192.168.58.3:3306
Percona Server:192.168.58.3:3308
本文基于MySQL官方示例数据库employee:Example Databases进行测试。
本次测试是基于employees表以及新建的employees_ptarc表。
- 创建测试表employees_ptarc
mysql admin@192.168.58.3:employees> show create table employees_ptarc;
+-----------------+-----------------------------------------+
| Table | Create Table |
+-----------------+-----------------------------------------+
| employees_ptarc | CREATE TABLE `employees_ptarc` ( |
| | `id` int(11) NOT NULL AUTO_INCREMENT, |
| | `v_int` int(11) DEFAULT NULL, |
| | `v_string` varchar(50) DEFAULT NULL, |
| | `s_string` char(20) NOT NULL, |
| | PRIMARY KEY (`id`) |
| | ) ENGINE=InnoDB DEFAULT CHARSET=utf8 |
+-----------------+-----------------------------------------+
1 row in set
Time: 0.019s
- 创建存储过程i_employees_ptarc插入测试数据
delimiter $$
CREATE PROCEDURE i_employees_ptarc (IN row_num INT)
BEGIN
DECLARE i INT DEFAULT 0 ;
WHILE i < row_num DO
INSERT INTO employees_ptarc (v_int, v_string, s_string)
VALUES
(
floor(1 + rand() * 1000000),
substring(
MD5(RAND()),
1,
floor(1 + rand() * 20)
),
substring(MD5(RAND()), 1, 20)
) ;
SET i = i + 1 ;
END
WHILE ; END$$
delimiter ;
mysql admin@192.168.58.3:employees> call i_employees_ptarc(200000);
Query OK, 1 row affected
Time: 697.054s
- 测试表employees_ptarc基本信息
mysql admin@192.168.58.3:employees> select min(id),max(id) from employees_ptarc;
+---------+---------+
| min(id) | max(id) |
+---------+---------+
| 1 | 200000 |
+---------+---------+
1 row in set
Time: 0.025s
mysql admin@192.168.58.3:employees> select count(*) from employees_ptarc;
+----------+
| count(*) |
+----------+
| 200000 |
+----------+
1 row in set
Time: 0.064s
mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc';
+----------------+
| auto_increment |
+----------------+
| 200001 |
+----------------+
1 row in set
Time: 0.029s
表归档到表(逐行进行)
- 归档表数据,但不删除源端表已归档数据
-- 需要归档的数据量
mysql admin@192.168.58.3:employees> select count(*) from employees where first_name = 'Anneke';
+----------+
| count(*) |
+----------+
| 225 |
+----------+
1 row in set
Time: 0.025s
-- 执行归档操作
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees,A=utf8 --dest h=192.168.58.3,P=3308,u=admin,D=test,t=employees_arc,A=utf8 --charset=utf8 --where 'first_name = 'Anneke'' --progress 50 --txn-size=1000 --statistics --no-delete --ask-pass
Enter password:
Enter password:
DBD::mysql::db selectrow_hashref failed: Table 'test.employees_arc' doesn't exist [for Statement "SHOW CREATE TABLE `test`.`employees_arc`"] at /usr/bin/pt-archiver line 1923, <STDIN> line 2.
通过报错信息可以看出目标端表不存在,先创建目标端表,与源端表结构一致,再进行归档操作。
-- 创建目标端表
percona admin@192.168.58.3:test> show create table employees_arc;
+---------------+----------------------------------------------------+
| Table | Create Table |
+---------------+----------------------------------------------------+
| employees_arc | CREATE TABLE `employees_arc` ( |
| | `emp_no` int(11) NOT NULL, |
| | `birth_date` date NOT NULL, |
| | `first_name` varchar(14) NOT NULL, |
| | `last_name` varchar(16) NOT NULL, |
| | `gender` enum('M','F') NOT NULL, |
| | `hire_date` date NOT NULL, |
| | PRIMARY KEY (`emp_no`), |
| | KEY `idx_first_last` (`first_name`,`last_name`), |
| | KEY `idx_birth_hire` (`birth_date`,`hire_date`), |
| | KEY `idx_empno` (`emp_no`) |
| | ) ENGINE=InnoDB DEFAULT CHARSET=utf8 |
+---------------+----------------------------------------------------+
1 row in set
Time: 0.024s
-- 再次进行归档操作
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees,A=utf8 --dest h=192.168.58.3,P=3308,u=admin,D=test,t=employees_arc,A=utf8 --charset=utf8 --where "first_name = 'Anneke'" --progress=50 --txn-size=1000 --statistics --no-delete --ask-pass
Enter password:
Enter password:
TIME ELAPSED COUNT
2019-04-16T10:31:36 0 0
2019-04-16T10:31:37 0 50
2019-04-16T10:31:37 0 100
2019-04-16T10:31:37 0 150
2019-04-16T10:31:37 0 200
2019-04-16T10:31:37 0 225
Started at 2019-04-16T10:31:36, ended at 2019-04-16T10:31:37
Source: A=utf8,D=employees,P=3306,h=192.168.58.3,p=...,t=employees,u=admin
Dest: A=utf8,D=test,P=3308,h=192.168.58.3,p=...,t=employees_arc,u=admin
SELECT 225
INSERT 225
DELETE 0
Action Count Time Pct
select 114 0.5027 80.47
inserting 225 0.0572 9.15
commit 2 0.0469 7.50
other 0 0.0180 2.88
-- 查询源表和归档表的归档数据量
mysql admin@192.168.58.3:employees> select count(*) from employees where first_name = 'Anneke';
+----------+
| count(*) |
+----------+
| 225 |
+----------+
1 row in set
Time: 0.049s
percona admin@192.168.58.3:test> select count(*) from employees_arc where first_name = 'Anneke';
+----------+
| count(*) |
+----------+
| 225 |
+----------+
1 row in set
Time: 0.023s
表归档到表(批量进行)
批量进行归档涉及的选项是--limit
,批量进行插入涉及的选项为--bulk-insert
,指定选项--bulk-insert
同时也会指定选项--bulk-delete
,如果不删除已归档数据,则需要指定选项--no-delete
。
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees,A=utf8 --dest h=192.168.58.3,P=3308,u=admin,D=test,t=employees_arc,A=utf8 --charset=utf8 --where "first_name = 'Anneke'" --progress=50 --txn-size=1000 --limit=50 --statistics --no-delete --bulk-insert --ask-pass
Enter password:
Enter password:
TIME ELAPSED COUNT
2019-04-16T10:34:17 0 0
2019-04-16T10:34:17 0 50
2019-04-16T10:34:17 0 100
2019-04-16T10:34:17 0 150
2019-04-16T10:34:17 0 200
2019-04-16T10:34:17 0 225
Started at 2019-04-16T10:34:17, ended at 2019-04-16T10:34:17
Source: A=utf8,D=employees,P=3306,h=192.168.58.3,p=...,t=employees,u=admin
Dest: A=utf8,D=test,P=3308,h=192.168.58.3,p=...,t=employees_arc,u=admin
SELECT 225
INSERT 225
DELETE 0
Action Count Time Pct
select 6 0.1171 81.13
bulk_inserting 5 0.0086 5.98
commit 2 0.0025 1.72
print_bulkfile 225 -0.0004 -0.25
other 0 0.0165 11.42
表归档到文件
表归档到文件将选项--dest
换成--file
,并且根据需要添加选项--output-format
。
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees,A=utf8 --file='/data/employees_arc_%Y-%m-%d.sql' --charset=utf8 --output-format='dump' --where "first_name = 'Anneke'" --progress=50 --txn-size=1000 --limit=50 --statistics --no-delete --ask-pass
Enter password:
TIME ELAPSED COUNT
2019-04-16T10:36:02 0 0
2019-04-16T10:36:02 0 50
2019-04-16T10:36:02 0 100
2019-04-16T10:36:02 0 150
2019-04-16T10:36:02 0 200
2019-04-16T10:36:02 0 225
Started at 2019-04-16T10:36:02, ended at 2019-04-16T10:36:02
Source: A=utf8,D=employees,P=3306,h=192.168.58.3,p=...,t=employees,u=admin
SELECT 225
INSERT 0
DELETE 0
Action Count Time Pct
select 6 0.1253 93.68
print_file 225 0.0004 0.33
commit 1 0.0001 0.05
other 0 0.0079 5.93
表清除数据
如果只是进行表数据清除操作而不做归档操作,则可以忽略选项--dest
或--file
,通过指定选项--purge
,可以先使用选项--dry-run
打印查询需要清除数据的执行语句,做好确认之后再执行。
-- 先使用选项--dry-run
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees,A=utf8 --purge --charset=utf8 --where "first_name = 'Anneke'" --progress=50 --txn-size=1000 --limit=50 --statistics --ask-pass --dry-run
Enter password:
SELECT /*!40001 SQL_NO_CACHE */ `emp_no`,`birth_date`,`first_name`,`last_name`,`gender`,`hire_date` FROM `employees`.`employees` FORCE INDEX(`PRIMARY`) WHERE (first_name = 'Anneke') ORDER BY `emp_no` LIMIT 50
SELECT /*!40001 SQL_NO_CACHE */ `emp_no`,`birth_date`,`first_name`,`last_name`,`gender`,`hire_date` FROM `employees`.`employees` FORCE INDEX(`PRIMARY`) WHERE (first_name = 'Anneke') AND ((`emp_no` >= ?)) ORDER BY `emp_no` LIMIT 50
DELETE FROM `employees`.`employees` WHERE (`emp_no` = ?)
-- 执行清除操作
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees,A=utf8 --purge --charset=utf8 --where "first_name = 'Anneke'" --progress=50 --txn-size=1000 --limit=50 --statistics --ask-pass
Enter password:
TIME ELAPSED COUNT
2019-04-16T10:40:57 0 0
2019-04-16T10:40:57 0 50
2019-04-16T10:40:58 0 100
2019-04-16T10:40:58 0 150
2019-04-16T10:40:58 0 200
2019-04-16T10:40:58 0 225
Started at 2019-04-16T10:40:57, ended at 2019-04-16T10:40:58
Source: A=utf8,D=employees,P=3306,h=192.168.58.3,p=...,t=employees,u=admin
SELECT 225
INSERT 0
DELETE 225
Action Count Time Pct
deleting 225 0.6943 79.10
select 6 0.1386 15.79
commit 1 0.0265 3.02
other 0 0.0183 2.08
-- 也可以使用选项--bulk-delete进行批量清除
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees,A=utf8 --purge --charset=utf8 --where "first_name = 'Anneke'" --progress=50 --txn-size=1000 --limit=50 --bulk-delete --statistics --ask-pass
Enter password:
TIME ELAPSED COUNT
2019-04-16T10:43:07 0 0
2019-04-16T10:43:07 0 50
2019-04-16T10:43:07 0 100
2019-04-16T10:43:07 0 150
2019-04-16T10:43:07 0 200
2019-04-16T10:43:07 0 225
Started at 2019-04-16T10:43:07, ended at 2019-04-16T10:43:07
Source: A=utf8,D=employees,P=3306,h=192.168.58.3,p=...,t=employees,u=admin
SELECT 225
INSERT 0
DELETE 225
Action Count Time Pct
select 6 0.1131 66.43
bulk_deleting 5 0.0384 22.54
commit 1 0.0153 8.97
other 0 0.0035 2.06
表自增字段处理
默认情况下,pt-archiver工具在进行表数据归档或是清除时,通过添加WHERE子句条件限制具有AUTO_INCREMENT属性字段所对应的数据行操作,这是为了在数据库重启之后,之前AUTO_INCREMENT对应的值还可以使用(),但这会造成归档数据少一条或是清除数据少一条的情况。
-- 待归档数据表employees_ptarc信息
可以查看'环境与数据准备'信息。
-- 指定选项--dry-run执行归档操作
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees_ptarc,A=utf8 --dest h=192.168.58.3,P=3308,u=admin,D=test,t=employees_ptarc,A=utf8 --charset=utf8 --where "1 = 1" --progress=10000 --txn-size=10000 --limit=10000 --statistics --no-delete --bulk-insert --ask-pass --dry-run
Enter password:
Enter password:
SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (1 = 1) AND (`id` < '200000') ORDER BY `id` LIMIT 10000
SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (1 = 1) AND (`id` < '200000') AND ((`id` > ?)) ORDER BY `id` LIMIT 10000
LOAD DATA LOCAL INFILE ? INTO TABLE `test`.`employees_ptarc`CHARACTER SET utf8(`id`,`v_int`,`v_string`,`s_string`)
-- 指定选项--dry-run执行清除操作
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees_ptarc,A=utf8 --purge --charset=utf8 --where "1 = 1" --progress=10000 --txn-size=10000 --limit=10000 --statistics --bulk-delete --ask-pass --dry-run
Enter password:
SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (1 = 1) AND (`id` < '200000') ORDER BY `id` LIMIT 10000
SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (1 = 1) AND (`id` < '200000') AND ((`id` >= ?)) ORDER BY `id` LIMIT 10000
DELETE FROM `employees`.`employees_ptarc` WHERE (((`id` >= ?))) AND (((`id` <= ?))) AND (1 = 1) LIMIT 10000
可以看出工具在执行查询归档数据的语句时,指定了条件id < 200000
,而实际上表中是有id = 200000
这条数据的,并且在归档操作时并没有指定条件排除这条语句,显然是pt-archiver工具自动添加的条件。
这样可以避免AUTO_INCREMENT属性的值在数据库重启后还可以重用,可以做如下测试说明:
-- 表employees_ptarc当前的AUTO_INCREMENT属性值
mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc';
+----------------+
| auto_increment |
+----------------+
| 200001 |
+----------------+
1 row in set
Time: 0.048s
-- 需要清除的数据量
mysql admin@192.168.58.3:employees> select count(*) from employees_ptarc where id <=199990 or id > 199995;
+----------+
| count(*) |
+----------+
| 199995 |
+----------+
1 row in set
Time: 0.102s
-- 执行数据清除操作
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees_ptarc,A=utf8 --purge --charset=utf8 --where "id <= 199990 or id > 199995" --progress=50000 --txn-size=50000 --limit=50000 --statistics --bulk-delete --ask-pass
Enter password:
TIME ELAPSED COUNT
2019-04-16T10:47:59 0 0
2019-04-16T10:48:00 0 50000
2019-04-16T10:48:00 1 100000
2019-04-16T10:48:01 2 150000
2019-04-16T10:48:02 2 199994
Started at 2019-04-16T10:47:59, ended at 2019-04-16T10:48:02
Source: A=utf8,D=employees,P=3306,h=192.168.58.3,p=...,t=employees_ptarc,u=admin
SELECT 199994
INSERT 0
DELETE 199994
Action Count Time Pct
bulk_deleting 4 0.9030 28.23
select 5 0.2095 6.55
commit 4 0.1562 4.88
other 0 1.9298 60.33
可以看出只清除了199994行数据。
-- 查询未清除数据
mysql admin@192.168.58.3:employees> select * from employees_ptarc;
+--------+--------+---------------+----------------------+
| id | v_int | v_string | s_string |
+--------+--------+---------------+----------------------+
| 199991 | 60305 | 526ed | 0240a2d81e255c915b5a |
| 199992 | 546438 | a85b6a18d | 0bf1d636cd0e536eb044 |
| 199993 | 543327 | 1367a1c | 68908231ca18ed631907 |
| 199994 | 99632 | 2f | 5c10f8d106a30bb1ef95 |
| 199995 | 164172 | e57bba13eb3c1 | 3208ac758bd8c912c39f |
| 200000 | 108936 | 3bc1db70b | 079f744bf2800ad62a9b |
+--------+--------+---------------+----------------------+
6 rows in set
Time: 0.018s
-- 重启后,查询当前AUTO_INCREMENT属性值
mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc';
+----------------+
| auto_increment |
+----------------+
| 200001 |
+----------------+
1 row in set
Time: 0.014s
为了不保护AUTO_INCREMENT属性最大值的数据行,工具提供了选项--no-safe-auto-increment
,指定该选项后再进行测试:
-- 指定选项--dry-run执行清除操作
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees_ptarc,A=utf8 --purge --charset=utf8 --where "id <= 199990 or id > 199995" --progress=50000 --txn-size=50000 --limit=50000 --statistics --bulk-delete --no-safe-auto-increment --ask-pass --dry-run
Enter password:
SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (id <= 199990 or id > 199995) ORDER BY `id` LIMIT 50000
SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (id <= 199990 or id > 199995) AND ((`id` >= ?)) ORDER BY `id` LIMIT 50000
DELETE FROM `employees`.`employees_ptarc` WHERE (((`id` >= ?))) AND (((`id` <= ?))) AND (id <= 199990 or id > 199995) LIMIT 50000
从以上信息看出并没有对AUTO_INCREMENT属性字段最大值进行排除。
-- 执行数据清除操作
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees_ptarc,A=utf8 --purge --charset=utf8 --where "id <= 199990 or id > 199995" --progress=50000 --txn-size=50000 --limit=50000 --statistics --bulk-delete --no-safe-auto-increment --ask-pass
Enter password:
TIME ELAPSED COUNT
2019-04-16T10:52:19 0 0
2019-04-16T10:52:20 0 50000
2019-04-16T10:52:20 1 100000
2019-04-16T10:52:21 1 150000
2019-04-16T10:52:22 2 199995
Started at 2019-04-16T10:52:19, ended at 2019-04-16T10:52:22
Source: A=utf8,D=employees,P=3306,h=192.168.58.3,p=...,t=employees_ptarc,u=admin
SELECT 199995
INSERT 0
DELETE 199995
Action Count Time Pct
bulk_deleting 4 0.7500 27.80
select 5 0.1851 6.86
commit 4 0.0622 2.30
other 0 1.7007 63.03
可以看出清除了199995行数据。
-- 查询未清除数据
mysql admin@192.168.58.3:employees> select * from employees_ptarc;
+--------+--------+---------------+----------------------+
| id | v_int | v_string | s_string |
+--------+--------+---------------+----------------------+
| 199991 | 60305 | 526ed | 0240a2d81e255c915b5a |
| 199992 | 546438 | a85b6a18d | 0bf1d636cd0e536eb044 |
| 199993 | 543327 | 1367a1c | 68908231ca18ed631907 |
| 199994 | 99632 | 2f | 5c10f8d106a30bb1ef95 |
| 199995 | 164172 | e57bba13eb3c1 | 3208ac758bd8c912c39f |
+--------+--------+---------------+----------------------+
5 rows in set
Time: 0.027s
-- 重启后,查询当前AUTO_INCREMENT属性值
mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc';
+----------------+
| auto_increment |
+----------------+
| 199996 |
+----------------+
1 row in set
Time: 0.046s
从以上查询信息可以看出AUTO_INCREMENT属性值发生了变化。如果要恢复成之前的状态值,可以通过手动执行命令进行修复:
mysql admin@192.168.58.3:employees> alter table employees_ptarc auto_increment = 200001;
Query OK, 0 rows affected
Time: 0.013s
mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc';
+----------------+
| auto_increment |
+----------------+
| 200001 |
+----------------+
1 row in set
Time: 0.020s
工作流程
分别开启两个实例的general log
来了解pt-archiver工具的工作流程,工作流程是基于表归档到表(批量进行)这个用法来说明,同时删除源端表的已归档数据。
执行命令如下:
# pt-archiver --source h=192.168.58.3,P=3306,u=admin,D=employees,t=employees_ptarc,A=utf8 --dest h=192.168.58.3,P=3308,u=admin,D=test,t=employees_ptarc,A=utf8 --charset=utf8 --where "id <= 199995" --progress=50000 --txn-size=50000 --limit=50000 --statistics --bulk-insert --ask-pass
Enter password:
Enter password:
TIME ELAPSED COUNT
2019-04-16T10:56:18 0 0
2019-04-16T10:56:19 1 50000
2019-04-16T10:56:21 2 100000
2019-04-16T10:56:23 4 150000
2019-04-16T10:56:24 6 199995
Started at 2019-04-16T10:56:18, ended at 2019-04-16T10:56:25
Source: A=utf8,D=employees,P=3306,h=192.168.58.3,p=...,t=employees_ptarc,u=admin
Dest: A=utf8,D=test,P=3308,h=192.168.58.3,p=...,t=employees_ptarc,u=admin
SELECT 199995
INSERT 199995
DELETE 199995
Action Count Time Pct
bulk_inserting 4 1.3027 19.51
bulk_deleting 4 0.7103 10.64
select 5 0.1872 2.80
commit 8 0.1455 2.18
print_bulkfile 199995 -0.3881 -5.81
other 0 4.7192 70.68
- 源端实例general log
-- 初始的一些检查数据库参数、负载信息
13 Connect admin@dbabd1 on employees using TCP/IP
13 Query set autocommit=0
13 Query /*!40101 SET NAMES "utf8"*/
13 Query SHOW VARIABLES LIKE 'wait\_timeout'
13 Query SET SESSION wait_timeout=10000
13 Query SELECT @@SQL_MODE
13 Query SET @@SQL_QUOTE_SHOW_CREATE = 1/*!40101, @@SQL_MODE='NO_AUTO_VALUE_ON_ZERO,ONLY_FULL_GROUP_BY,STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION'*/
13 Query SELECT version()
13 Query SHOW VARIABLES LIKE 'version%'
13 Query SHOW ENGINES
13 Query SHOW VARIABLES LIKE 'innodb_version'
13 Query show variables like 'innodb_rollback_on_timeout'
13 Query /*!40101 SET @OLD_SQL_MODE := @@SQL_MODE, @@SQL_MODE := '', @OLD_QUOTE := @@SQL_QUOTE_SHOW_CREATE, @@SQL_QUOTE_SHOW_CREATE := 1 */
13 Query USE `employees`
13 Query SHOW CREATE TABLE `employees`.`employees_ptarc`
13 Query /*!40101 SET @@SQL_MODE := @OLD_SQL_MODE, @@SQL_QUOTE_SHOW_CREATE := @OLD_QUOTE */
13 Query SELECT CONCAT(/*!40100 @@session.character_set_connection, */ "")
13 Query SHOW VARIABLES LIKE 'wsrep_on'
13 Query SHOW VARIABLES LIKE 'wsrep_on'
13 Query SHOW VARIABLES LIKE 'version%'
13 Query SHOW ENGINES
13 Query SHOW VARIABLES LIKE 'innodb_version'
-- 确定归档数据最大边界值,根据主键还有选项--limit确定每次归档的数据
13 Query SELECT MAX(`id`) FROM `employees`.`employees_ptarc`
13 Query SELECT CONCAT(@@hostname, @@port)
13 Query SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (id <= 199995) AND (`id` < '200000') ORDER BY `id` LIMIT 50000
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
……省略……
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
13 Query commit
13 Query SELECT 'pt-archiver keepalive'
-- 归档完数据之后根据是否有选项--no-delete进行删除操作
13 Query DELETE FROM `employees`.`employees_ptarc` WHERE (((`id` >= '1'))) AND (((`id` <= '50000'))) AND (id <= 199995) LIMIT 50000
-- 进行接下去的数据归档操作
13 Query SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (id <= 199995) AND (`id` < '200000') AND ((`id` >= '50000')) ORDER BY `id` LIMIT 50000
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
……省略……
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
13 Query commit
13 Query SELECT 'pt-archiver keepalive'
13 Query DELETE FROM `employees`.`employees_ptarc` WHERE (((`id` >= '50001'))) AND (((`id` <= '100000'))) AND (id <= 199995) LIMIT 50000
13 Query SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (id <= 199995) AND (`id` < '200000') AND ((`id` >= '100000')) ORDER BY `id` LIMIT 50000
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
……省略……
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
13 Query commit
13 Query SELECT 'pt-archiver keepalive'
13 Query DELETE FROM `employees`.`employees_ptarc` WHERE (((`id` >= '100001'))) AND (((`id` <= '150000'))) AND (id <= 199995) LIMIT 50000
13 Query SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (id <= 199995) AND (`id` < '200000') AND ((`id` >= '150000')) ORDER BY `id` LIMIT 50000
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
……省略……
13 Query SELECT 'pt-archiver keepalive'
13 Query SELECT 'pt-archiver keepalive'
13 Query DELETE FROM `employees`.`employees_ptarc` WHERE (((`id` >= '150001'))) AND (((`id` <= '199995'))) AND (id <= 199995) LIMIT 50000
-- 完成最后查询是否还有归档数据
13 Query SELECT /*!40001 SQL_NO_CACHE */ `id`,`v_int`,`v_string`,`s_string` FROM `employees`.`employees_ptarc` FORCE INDEX(`PRIMARY`) WHERE (id <= 199995) AND (`id` < '200000') AND ((`id` >= '199995')) ORDER BY `id` LIMIT 50000
13 Query commit
13 Quit
- 目标端实例general log
-- 初始的一些检查数据库参数、负载信息
62 Connect admin@dbabd1 on test using TCP/IP
62 Query set autocommit=0
62 Query /*!40101 SET NAMES "utf8"*/
62 Query SHOW VARIABLES LIKE 'wait\_timeout'
62 Query SET SESSION wait_timeout=10000
62 Query SELECT @@SQL_MODE
62 Query SET @@SQL_QUOTE_SHOW_CREATE = 1/*!40101, @@SQL_MODE='NO_AUTO_VALUE_ON_ZERO,ONLY_FULL_GROUP_BY,STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION'*/
62 Query SELECT version()
62 Query SHOW VARIABLES LIKE 'version%'
62 Query SHOW ENGINES
62 Query SHOW VARIABLES LIKE 'innodb_version'
62 Query show variables like 'innodb_rollback_on_timeout'
62 Query /*!40101 SET @OLD_SQL_MODE := @@SQL_MODE, @@SQL_MODE := '', @OLD_QUOTE := @@SQL_QUOTE_SHOW_CREATE, @@SQL_QUOTE_SHOW_CREATE := 1 */
-- 切换进入目标端数据库
62 Query USE `test`
62 Query SHOW CREATE TABLE `test`.`employees_ptarc`
62 Query /*!40101 SET @@SQL_MODE := @OLD_SQL_MODE, @@SQL_QUOTE_SHOW_CREATE := @OLD_QUOTE */
62 Query SELECT CONCAT(/*!40100 @@session.character_set_connection, */ "")
62 Query SELECT CONCAT(@@hostname, @@port)
62 Query commit
-- 批量插入选项--bulk-insert是通过LOAD DATA INFILE方式生成临时文件进行导入
62 Query LOAD DATA LOCAL INFILE '/tmp/UGeTe6hEIPpt-archiver' INTO TABLE `test`.`employees_ptarc`CHARACTER SET utf8(`id`,`v_int`,`v_string`,`s_string`)
62 Query commit
62 Query LOAD DATA LOCAL INFILE '/tmp/PNNmzgvqx6pt-archiver' INTO TABLE `test`.`employees_ptarc`CHARACTER SET utf8(`id`,`v_int`,`v_string`,`s_string`)
62 Query commit
62 Query LOAD DATA LOCAL INFILE '/tmp/pJDb48JQvQpt-archiver' INTO TABLE `test`.`employees_ptarc`CHARACTER SET utf8(`id`,`v_int`,`v_string`,`s_string`)
62 Query LOAD DATA LOCAL INFILE '/tmp/xvb0NmYJiGpt-archiver' INTO TABLE `test`.`employees_ptarc`CHARACTER SET utf8(`id`,`v_int`,`v_string`,`s_string`)
62 Query commit
62 Quit
总结
- pt-archiver是一个十分高效的表数据归档工具,归档数据可以分批进行事务处理,减少性能消耗;
- 如果实例开启了GTID,因为GTID不支持CTAS创建表的语法,可以使用pt-archiver处理;
- 对于跨实例或者跨服务器的表数据归档,pt-archiver可以运行在目标端服务器,因为生成的临时文件是在工具执行所在的服务器。
- 对于大表的过期数据的批量删除也可以通过pt-archiver指定选项
--purge
进行处理。
参考
https://www.percona.com/doc/percona-toolkit/LATEST/pt-archiver.html
☆〖本人水平有限,文中如有错误还请留言批评指正!〗☆
标签:employees,Toolkit,指定,2019,Percona,archiver,归档,Query,id 来源: https://www.cnblogs.com/dbabd/p/10721857.html