PostgreSQL从小白到专家,是从入门逐渐能力提升的一个系列教程,内容包括对PG基础的认知、包括安装使用、包括角色权限、包括维护管理、、等内容,希望对热爱PG、学习PG的同学们有帮助,欢迎持续关注CUUG PG技术大讲堂。
第34讲:调优工具pgBagder部署
第34讲:11月18日(周六)19:30-20:30,往期文档及视频,联系CUUG 内容1 : 日志分析器pgBadger简介 内容2 : pgBadger部署 内容3 : 如何产生类似于AWR报告 内容4 : 基于:一小时、一天、一周、一月的报告 内容5 : 如何分析pgBadger
第34讲:调优工具pgBagder部署
pgBadger简介 pgBadger是一个PostgreSQL日志分析器,它是为提高速度而构建的,具有来自PostgreSQL日志文件的完整报告。它是一个小型的Perl脚本,性能优于任何其他PostgreSQL日志分析器。 pgBadger可以自动检测日志文件格式(syslog、stderr、csvlog或jsonlog)。它被设计用来解析巨大的日志文件和压缩文件。支持的压缩格式有gzip、bzip2、lz4、xz、zip和zstd。 还可以使用命令行选项将pgBadger**为仅报告错误或删除报告的任何部分。 pgBadger支持在postgresql.conf文件中通过log_line_prefix 自定义的任何格式,只要它至少指定%t和%p模式。 pgBadger允许通过使用指定CPU数量的-j选项并行处理单个日志文件或多个文件。 如果要保存系统性能,也可以使用log_duration 替代log_min_duration_statement来仅报告持续时间和查询数。
pgBadger特性 · pgBadger报告有关SQL查询的所有信息: 总体统计数据。 等待最频繁的查询。 等待时间最长的查询。 生成最多临时文件的查询。 生成最大临时文件的查询。 最慢的查询。 占用时间最多的查询。 最频繁的查询。 最常见的错误。 查询时间直方图。 会话时间柱状图。 参与热门查询的用户。 **查询中涉及的应用程序。 产生最多取消的查询。 查询大部分被取消。 最耗时的准备/绑定查询。
· 还提供分为五分钟的小时图表 SQL查询统计信息。 临时文件统计。 检查点统计。 自动真空和自动分析统计数据。 取消的查询。 错误事件(死机、致命、错误和警告)。 错误类分布。
· 一些关于分布的饼图: 锁定统计信息。 按类型查询(选择/插入/更新/删除)。 每个数据库/应用程序的查询类型分布。 每个数据库/用户/客户端/应用程序的会话数。 每个数据库/用户/客户端/应用程序的连接数。 根据表格自动真空和自动分析。 每个用户的查询数和每个用户的总持续时间。 所有图表都是可缩放的,可以保存为PNG图像。报告的SQL查询将自动突出显示和美化。
· 可以解析PgBouncer日志文件并创建以下报告 请求吞吐量 字节I/O吞吐量 查询平均持续时间 同时举行的会议 会话时间柱状图 每个数据库的会话数 每个用户的会话数 每个主机的会话数 已建立的联系 每个数据库的连接数 每个用户的连接数 每个主机的连接数 使用最多的保留池 最常见错误/事件
pgBadger报告模式 · pgBadger报告模式 一小时一个报告 每天一个报告 每周一个累积报告的增量报告 每月一个报告 多个进程处理一个日志 多个进程处理多个日志
pgBadger部署 · 官方下载地址 · 编译与安装(root用户) 1、解压后进入该安装目录 # unzip pgbadger-master.zip # cd pgbadger-master 2、编译并安装: # perl Makefile.PL # make && make install 3、默认安装目录: /usr/local/bin/pgbadger
postgresql.conf配置 logging_collector = on log_directory = 'pg_log‘ log_checkpoints = on log_connections = on log_disconnections = on log_lock_waits = on log_temp_files = 0 log_autovacuum_min_duration = 0 log_rotation_size=10240 --例如,对于“stderr”日志格式,日志行前缀必须至少为: log_line_prefix = '%t [%p]: ' --日志行前缀可以添加用户、数据库名称、应用程序名称和客户端ip地址,如下所示: log_line_prefix = '%t [%p]: user=%u,db=%d,app=%a,client=%h ' --或者对于syslog日志文件格式: log_line_prefix = 'user=%u,db=%d,app=%a,client=%h ' --日志消息支持英文,不支持中文: lc_messages='en_US.UTF-8' lc_messages='C‘ --记录的日志语句 假如:log_statement=all 则:不会使用(log_min_duration_statement)记录任何内容 所以:log_min_duration_statement=0 #记录所有的统计信息包含实际的查询字符串 警告:不要同时启用log_min_duration_statement、log_duration and log_statement ,这将导致错误的计数器值。注意,这也会大大增加日志的大小。log_min_duration_statement应始终首选。
如何产生报告 当有许多小的日志文件和许多CPU时,一次将一个内核专用于一个日志文件会更快。要启用此行为,必须改用-J N选项。对于每个10MB的200个日志文件,-J选项的使用开始变得非常有效,有8个内核。使用此方法,您将确保不会丢失报表中的任何查询。 一个在服务器上完成的基准测试,有8个CPU和9.5GB的单个文件。 Option | 1 CPU | 2 CPU | 4 CPU | 8 CPU --------+---------+-------+-------+------ -j | 1h41m18 | 50m25 | 25m39 | 15m58 -J | 1h41m18 | 54m28 | 41m16 | 34m45 200个日志文件,每个10MB,总共2GB,结果略有不同: Option | 1 CPU | 2 CPU | 4 CPU | 8 CPU --------+-------+-------+-------+------ -j | 20m15 | 9m56 | 5m20 | 4m20 -J | 20m15 | 9m49 | 5m00 | 2m40 --产生一个小时的日志报告: $ pgbadger -q /usr/local/pg12.2/data/pg_log/postgresql-2020-06-19_00*.log \ -o /home/postgres/www/pg_reports/day-06-19-00.html --产生每日和每周的日志报告: $ pgbadger -I -q /usr/local/pg12.2/data/pg_log/* \ -O /home/postgres/www/pg_reports/ \ -f stderr 在这种模式下,pgBadger将在输出目录中创建一个自动增量文件。这意味着可以在每周旋转的日志文件上每天以这种模式运行pgBadger,并且它不会对日志条目计数两次,可以使用crontab进行定时运行。 --重建报告: pgbadger -X -I -O /home/postgres/www/pg_reports/ --rebuild 此时在reports目录下产生创建一个目录,里面包含js文件,同时在另外一个目录下创建一个目录week-25,存放index文件。 它还将更新所有资源文件(JS和CSS)。如果报表是使用此选项生成的,请使用-E或--explode。 --默认情况下,增量模式下的pgBadger只计算每日和每周报告。如果需要每月累积报告,则必须使用单独的命令指定要生成的报告。例如,为2019年8月编制一份报告: pgbadger --month-report 2919-08 /path/to/incremantal/reports/ JSON FORMAT JSON格式有利于与其他语言共享数据,这使得pgBadger结果很容易集成到其他监控工具(如Cacti或Graphite)中。
报告界面一
报告界面二
CUUG PostgreSQL技术大讲堂系列公开课,往期视频及文档,请联系CUUG客服。
|