1. 工具简介
pt-query-digest是用于分析mysql慢查询的一个工具,它可以分析binlog、General log、slowlog,也可以通过SHOWPROCESSLIST或者通过tcpdump抓取的MySQL协议数据来进行分析。可以把分析结果输出到文件中,分析过程是先对查询语句的条件进行参数化,然后对参数化以后的查询进行分组统计,统计出各查询的执行时间、次数、占比等,可以借助分析结果找出问题进行优化。
pt-query-digest是一个perl脚本,包含在percona-toolkit工具包中:
percona-toolkit工具包安装
1. 软件包下载
访问http://www.percona.com/software/percona-toolkit/下载最新版本的Percona Toolkit 或者通过如下命令行来获取最新的版本:
wget percona.com/get/percona-toolkit.tar.gz
wget percona.com/get/percona-toolkit.rpm
我这里选择直接从网站上找到最新版本下载:
wget http://www.percona.com/redir/downloads/percona-toolkit/2.1.1/percona-toolkit-2.1.1-1.noarch.rpm
wget http://www.percona.com/redir/downloads/percona-toolkit/2.1.1/percona-toolkit-2.1.1.tar.gz
从http://pkgs.repoforge.org/perl-TermReadKey/下载最新的TermReadKey包
wget http://pkgs.repoforge.org/perl-TermReadKey/perl-TermReadKey-2.30-1.el5.rf.x86_64.rpm
2. 软件包安装
我的环境是Centos 5.5 64 BIT
A. percona-toolkit的rpm安装方式
rpm -ivh perl-TermReadKey-2.30-1.el5.rf.x86_64.rpm
rpm -ivh percona-toolkit-2.1.1-1.noarch.rpm
注意:需要安装Term::ReadKey 包,否则会报perl(Term::ReadKey) >= 2.10 is needed by percona-toolkit-2.1.1-1.noarch错误
B. percona-toolkit的编译安装方式
tar xzvf percona-toolkit-2.1.1.tar.gz
cd percona-toolkit-2.1.1
perl Makefile.PL
make
make test
make install
[root@test1 ]# chmod u+x pt-query-digest
2.语法及重要选项
pt-query-digest [OPTIONS] [FILES] [DSN]
--create-review-table 当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。
--create-history-table 当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。
--filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析
--limit限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。
--host mysql服务器地址
--user mysql用户名
--password mysql用户密码
--history 将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询同一CHECKSUM来比较某类型查询的历史变化。
--review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。
--output 分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,以便于阅读。
--since 从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。
--until 截止时间,配合—since可以分析一段时间内的慢查询。
3. 标准分析报告解释
第一部分:总体统计结果,如下图
Overall: 总共有多少条查询,上例为总共266个查询。
Time range: 查询执行的时间范围。
unique: 唯一查询数量,即对查询条件进行参数化以后,总共有多少个不同的查询,该例为55。
total: 总计 min:最小 max: 最大 avg:平均
95%: 把所有值从小到大排列,位置位于95%的那个数,这个数一般最具有参考价值。
median: 中位数,把所有值从小到大排列,位置位于中间那个数。
第二部分:查询分组统计结果,如下图
由上图可见,这部分对查询进行参数化并分组,然后对各类查询的执行情况进行分析,结果按总执行时长,从大到小排序。
Response: 总的响应时间。
time: 该查询在本次分析中总的时间占比。
calls: 执行次数,即本次分析总共有多少条这种类型的查询语句。
R/Call: 平均每次执行的响应时间。
Item : 查询对象
第三部分:每一种查询的详细统计结果,如下图:
由上图可见,12号查询的详细统计结果,最上面的表格列出了执行次数、最大、最小、平均、95%等各项目的统计。
Databases: 库名
Users: 各个用户执行的次数(占比)
Query_time distribution : 查询时间分布, 长短体现区间占比,本例中1s-10s之间查询数量是10s以上的两倍。
Tables: 查询中涉及到的表
Explain: 示例
4.用法示例
(1)直接分析慢查询文件:
pt-query-digest slow.log > slow_report.log
(2)分析最近12小时内的查询:
pt-query-digest --since=12h slow.log > slow_report2.log
(3)分析指定时间范围内的查询:
pt-query-digest slow.log --since '2014-04-17 09:30:00' --until '2014-04-17 10:00:00'> > slow_report3.log
(4)分析指含有select语句的慢查询
pt-query-digest--filter '$event->{fingerprint} =~ m/^select/i' slow.log> slow_report4.log
(5) 针对某个用户的慢查询
pt-query-digest--filter '($event->{user} || "") =~ m/^root/i' slow.log> slow_report5.log
(6) 查询所有所有的全表扫描或full join的慢查询
pt-query-digest--filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' slow.log> slow_report6.log
(7)把查询保存到query_review表
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_review--create-review-table slow.log
(8)把查询保存到query_history表
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_ history--create-review-table slow.log_20140401
pt-query-digest --user=root –password=abc123--review h=localhost,D=test,t=query_history--create-review-table slow.log_20140402
(9)通过tcpdump抓取mysql的tcp协议数据,然后再分析
tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt
pt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log
(10)分析binlog
mysqlbinlog mysql-bin.000093 > mysql-bin000093.sql
pt-query-digest --type=binlog mysql-bin000093.sql > slow_report10.log
(11)分析general log
pt-query-digest --type=genlog localhost.log > slow_report11.log
pt-duplicate-key-checker --host=localhost --user=test_froad --password=test123 --databases=openapi
pt-duplicate-key-checker --host=10.43.1.100 --user=root --password=123456 --databases=openapi
pt-mysql-summary --host=10.43.1.100 --user=root --password=123456
pt-deadlock-logger --user=test_froad --password=test123 h=localhost –print --databases=froadpoints
官方文档:http://www.percona.com/doc/percona-toolkit/2.2/pt-query-digest.html
相关推荐
`pt-query-digest`是Percona Toolkit中的一款强大工具,专为MySQL数据库设计,用于分析和诊断慢查询日志。它可以帮助DBA们识别性能瓶颈,找出耗时最长的查询,从而进行有效的SQL优化,提升数据库的整体性能。 **一...
`pt-query-digest`是Percona Toolkit中的一个强大工具,用于分析MySQL查询的日志文件,并生成详细的查询性能报告。它可以帮助数据库管理员和开发人员识别慢查询、优化查询性能以及诊断数据库性能问题。 #### 二、...
分析慢查询日志 cat mysql-slow.log | docker run -i --rm matsuu/pt-query-digest > analyzed-slow.log 分析tcpdump cat dump.log | docker run -i --rm matsuu/pt-query-digest --type tcpdump > analyzed-slow...
通过开启慢查询日志,使用`pt-query-digest`进行分析,结合`EXPLAIN`查看执行计划,我们可以定位并优化性能瓶颈,从而提升线上服务的响应速度和整体性能。在日常运维中,监控和管理慢查询日志是确保数据库高效运行的...
- pt-query-digest:分析查询日志,并找出性能较差的查询。 - pt-show-grants:显示用户账户的权限。 - pt-sift:用于筛选和分类日志文件内容。 - pt-slave-delay:用于管理主从复制延迟。 - pt-slave-find:查找...
- **使用`pt-query-digest`工具**:这是Percona Toolkit的一部分,用于分析慢查询日志并生成报告。使用命令`pt-query-digest /var/log/mysql/slow-query.log`进行分析。 4. **优化查询语句** - 根据分析结果,...
除了安装MySQL外,还可以安装一些MySQL的优化工具,比如pt-query-digest,这是一个非常有用的工具,可以帮助分析MySQL的慢查询日志。 1. **下载安装工具** ```bash wget percona.com/get/pt-query-digest ``` ...
- `pt-query-digest`是Percona Toolkit提供的一个强大工具,可以对慢查询日志进行深度分析,包括查询摘要、执行计划、平均响应时间等。 - 使用方法: ```bash pt-query-digest --user=root --password=your_...
总的来说,Anemometer是一个强大的MySQL慢查询分析工具,通过自动化收集、分析和可视化慢查询日志,能有效提升数据库性能优化的效率。结合`logrotate`等工具,可以实现对慢查询日志的高效管理和监控。
分析慢查询日志,可以使用Percona Toolkit的`pt-query-digest`工具。它可以生成报告,帮助你识别最常见的慢查询、最耗时的查询以及可能的优化点。例如,`pt-query-digest slow.log`将分析整个慢查询日志,而`pt-...
总结来说,MySQL 慢查询页面工具 Query-Digest-UI 是一个基于 Percona Toolkit 的图形化监控解决方案,它帮助管理员可视化 MySQL 的慢查询日志,从而更有效地进行性能调优。通过安装和配置该工具,你可以实时监控...
针对 MongoDB 的查询摘要工具,可以帮助分析查询模式并优化查询性能。 ### pt-mongodb-summary 此工具用于生成 MongoDB 数据库的概览信息,包括数据库大小、集合数量等。 ### pt-mysql-summary 专门针对 MySQL ...
首先,PT-Tools中的`pt-query-digest`是一个不可或缺的性能分析工具。它可以从日志文件、二进制日志或者在线活动中收集SQL查询,然后对这些查询进行排序和分析,以找出数据库性能瓶颈。通过分析查询的执行时间、锁...
总结来说,MySQL线上SQL捕获及分析是数据库管理的关键技能,涉及到多种工具和技术,包括tcpdump、查询日志和慢查询日志的利用,以及强大的分析工具如`pt-query-digest`。通过这些方法,可以全面了解和优化数据库的...
4. **性能分析(pt-query-digest)**:通过对MySQL查询日志进行分析,pt-query-digest可以识别慢查询,帮助优化SQL性能。它生成报告,按执行时间、锁等待时间等排序查询,便于定位性能瓶颈。 5. **备份与恢复(pt-...
- **pt-query-digest** - **功能**:从慢查询日志或其他日志文件中提取并分析SQL查询,帮助定位性能瓶颈。 - **使用场景**:性能调优、查询分析。 - **pt-ioprofile** - **功能**:跟踪特定进程的IO操作,提供...
19. **pt-query-digest**:分析慢查询日志,提供查询摘要和性能建议。 20. **pt-show-grants**:显示用户的权限信息,方便权限管理和审计。 21. **pt-sift**:从慢查询日志中提取有用的统计信息。 22. **pt-slave-...
我们知道mysql慢日志解析工具有很多种,比如我们常用的mysqldumpslow、pt-query-digest等,这些都是比较有效的解析工具,今天介绍的是基于go写的一款实时解析日志工具