]> granicus.if.org Git - pgbadger/commitdiff
Sync pgbadger, pod, and README, and fix some syntax errors
authorChristoph Berg <christoph.berg@credativ.de>
Mon, 10 Sep 2018 12:01:28 +0000 (14:01 +0200)
committerChristoph Berg <christoph.berg@credativ.de>
Mon, 10 Sep 2018 12:23:40 +0000 (14:23 +0200)
pgbadger, doc/pgBadger.pod, and README were out of sync. Fix by running
"make", and slight editing of pgbadger when the pod file was more
correct.

Also, the input was using "\" line-continuations which would need to be
\\ for pod to correctly handle them. Fix by formatting as a single line
instead, which is better suitable for cut-and-paste (and there's already
longer lines in the surrounding text). In plus, crontabs do not support \
anyway. In passing, fix +%F crontab example to be +\%F because % is
magic in crontabs.

README
doc/pgBadger.pod
pgbadger

diff --git a/README b/README
index 785ab6218ed4d792a4425f9d1a35cd1fbddbb32d..0e9d72a6ca522ea69ea185b8a382186b8eea22ad 100644 (file)
--- a/README
+++ b/README
@@ -26,8 +26,8 @@ SYNOPSIS
                                  Be warned that this can really slow down pgBadger.
         -e | --end datetime    : end date/time for the data to be parsed in log.
         -f | --format logtype  : possible values: syslog, syslog2, stderr, jsonlog,
-                                 cvs and pgbouncer. Use this option when pgBadger
-                                 is not able to auto-detect the log format.
+                                 cvs and pgbouncer. Use this option when pgBadger is
+                                 not able to auto-detect the log format.
         -G | --nograph         : disable graphs on HTML output. Enabled by default.
         -h | --help            : show this message and exit.
         -i | --ident name      : programname used as syslog ident. Default: postgres
@@ -138,7 +138,7 @@ SYNOPSIS
                                  a call to journalctl. Basically it might be:
                                     journalctl -u postgresql-9.5
         --pid-dir path         : set the path where the pid file must be stored.
-                                  Default /tmp
+                                 Default /tmp
         --pid-file file        : set the name of the pid file to manage concurrent
                                  execution of pgBadger. Default: pgbadger.pid
         --rebuild              : used to rebuild all html reports in incremental
@@ -170,20 +170,16 @@ SYNOPSIS
     Examples:
 
             pgbadger /var/log/postgresql.log
-            pgbadger /var/log/postgres.log.2.gz /var/log/postgres.log.1.gz 
-                           /var/log/postgres.log
+            pgbadger /var/log/postgres.log.2.gz /var/log/postgres.log.1.gz /var/log/postgres.log
             pgbadger /var/log/postgresql/postgresql-2012-05-*
             pgbadger --exclude-query="^(COPY|COMMIT)" /var/log/postgresql.log
-            pgbadger -b "2012-06-25 10:56:11" -e "2012-06-25 10:59:11" 
-                           /var/log/postgresql.log
+            pgbadger -b "2012-06-25 10:56:11" -e "2012-06-25 10:59:11" /var/log/postgresql.log
             cat /var/log/postgres.log | pgbadger -
             # Log prefix with stderr log output
-            perl pgbadger --prefix '%t [%p]: user=%u,database=%d,client=%h' 
-                            /pglog/postgresql-2012-08-21*
+            perl pgbadger --prefix '%t [%p]: user=%u,db=%d,client=%h' /pglog/postgresql-2012-08-21*
             perl pgbadger --prefix '%m %u@%d %p %r %a : ' /pglog/postgresql.log
             # Log line prefix with syslog log output
-            perl pgbadger --prefix 'user=%u,db=%d,client=%h,appname=%a' 
-                            /pglog/postgresql-2012-08-21*
+            perl pgbadger --prefix 'user=%u,db=%d,client=%h,appname=%a' /pglog/postgresql-2012-08-21*
             # Use my 8 CPUs to parse my 10GB file faster, much faster
             perl pgbadger -j 8 /pglog/postgresql-9.1-main.log
 
@@ -197,24 +193,21 @@ SYNOPSIS
 
     Generate report every week using incremental behavior:
 
-        0 4 * * 1 /usr/bin/pgbadger -q `find /var/log/ -mtime -7 -name "postgresql.log*"` 
-            -o /var/reports/pg_errors-`date +%F`.html -l /var/reports/pgbadger_incremental_file.dat
+        0 4 * * 1 /usr/bin/pgbadger -q `find /var/log/ -mtime -7 -name "postgresql.log*"` -o /var/reports/pg_errors-`date +\%F`.html -l /var/reports/pgbadger_incremental_file.dat
 
     This supposes that your log file and HTML report are also rotated every
     week.
 
     Or better, use the auto-generated incremental reports:
 
-        0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 
-            -O /var/www/pg_reports/
+        0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 -O /var/www/pg_reports/
 
     will generate a report per day and per week.
 
     In incremental mode, you can also specify the number of week to keep in
     the reports:
 
-        /usr/bin/pgbadger --retention 2 -I -q /var/log/postgresql/postgresql.log.1 
-            -O /var/www/pg_reports/
+        /usr/bin/pgbadger --retention 2 -I -q /var/log/postgresql/postgresql.log.1 -O /var/www/pg_reports/
 
     If you have a pg_dump at 23:00 and 13:00 each day during half an hour,
     you can use pgBadger as follow to exclude these period from the report:
@@ -571,8 +564,7 @@ INCREMENTAL REPORTS
     For example, if you run pgBadger as follows based on a daily rotated
     file:
 
-        0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 \
-            -O /var/www/pg_reports/
+        0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 -O /var/www/pg_reports/
 
     you will have all daily and weekly reports for the full running period.
 
index b469108c0c4f1a859aedf3f81837c643b29e44fc..9b7e54e6f8fddf7c5871b0a68f1f884bc69c43c8 100644 (file)
@@ -28,8 +28,8 @@ Options:
                              Be warned that this can really slow down pgBadger.
     -e | --end datetime    : end date/time for the data to be parsed in log.
     -f | --format logtype  : possible values: syslog, syslog2, stderr, jsonlog,
-                            cvs and pgbouncer. Use this option when pgBadger
-                             is not able to auto-detect the log format.
+                             cvs and pgbouncer. Use this option when pgBadger is
+                             not able to auto-detect the log format.
     -G | --nograph         : disable graphs on HTML output. Enabled by default.
     -h | --help            : show this message and exit.
     -i | --ident name      : programname used as syslog ident. Default: postgres
@@ -140,9 +140,9 @@ Options:
                             a call to journalctl. Basically it might be:
                                journalctl -u postgresql-9.5
     --pid-dir path         : set the path where the pid file must be stored.
-                              Default /tmp
+                             Default /tmp
     --pid-file file        : set the name of the pid file to manage concurrent
-                            execution of pgBadger. Default: pgbadger.pid
+                             execution of pgBadger. Default: pgbadger.pid
     --rebuild              : used to rebuild all html reports in incremental
                              output directories where there is binary data files.
     --pgbouncer-only       : only show PgBouncer related menu in the header.
@@ -155,6 +155,7 @@ Options:
                              make more difficult log search with a date/time.
     --prettify-json        : use it if you want json output to be prettified.
 
+
 pgBadger is able to parse a remote log file using a passwordless ssh connection.
 Use the -r or --remote-host to set the host ip address or hostname. There's also
 some additional options to fully control the ssh connection.
@@ -171,20 +172,16 @@ some additional options to fully control the ssh connection.
 Examples:
 
        pgbadger /var/log/postgresql.log
-       pgbadger /var/log/postgres.log.2.gz /var/log/postgres.log.1.gz 
-                      /var/log/postgres.log
+       pgbadger /var/log/postgres.log.2.gz /var/log/postgres.log.1.gz /var/log/postgres.log
        pgbadger /var/log/postgresql/postgresql-2012-05-*
        pgbadger --exclude-query="^(COPY|COMMIT)" /var/log/postgresql.log
-       pgbadger -b "2012-06-25 10:56:11" -e "2012-06-25 10:59:11" 
-                      /var/log/postgresql.log
+       pgbadger -b "2012-06-25 10:56:11" -e "2012-06-25 10:59:11" /var/log/postgresql.log
        cat /var/log/postgres.log | pgbadger -
        # Log prefix with stderr log output
-       perl pgbadger --prefix '%t [%p]: user=%u,database=%d,client=%h' 
-                       /pglog/postgresql-2012-08-21*
+       perl pgbadger --prefix '%t [%p]: user=%u,db=%d,client=%h' /pglog/postgresql-2012-08-21*
        perl pgbadger --prefix '%m %u@%d %p %r %a : ' /pglog/postgresql.log
        # Log line prefix with syslog log output
-       perl pgbadger --prefix 'user=%u,db=%d,client=%h,appname=%a' 
-                       /pglog/postgresql-2012-08-21*
+       perl pgbadger --prefix 'user=%u,db=%d,client=%h,appname=%a' /pglog/postgresql-2012-08-21*
        # Use my 8 CPUs to parse my 10GB file faster, much faster
        perl pgbadger -j 8 /pglog/postgresql-9.1-main.log
 
@@ -199,23 +196,20 @@ Reporting errors every week by cron job:
 
 Generate report every week using incremental behavior:
 
-    0 4 * * 1 /usr/bin/pgbadger -q `find /var/log/ -mtime -7 -name "postgresql.log*"` 
-       -o /var/reports/pg_errors-`date +%F`.html -l /var/reports/pgbadger_incremental_file.dat
+    0 4 * * 1 /usr/bin/pgbadger -q `find /var/log/ -mtime -7 -name "postgresql.log*"` -o /var/reports/pg_errors-`date +\%F`.html -l /var/reports/pgbadger_incremental_file.dat
 
 This supposes that your log file and HTML report are also rotated every week.
 
 Or better, use the auto-generated incremental reports:
 
-    0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 
-       -O /var/www/pg_reports/
+    0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 -O /var/www/pg_reports/
 
 will generate a report per day and per week.
 
 In incremental mode, you can also specify the number of week to keep in the
 reports:
 
-    /usr/bin/pgbadger --retention 2 -I -q /var/log/postgresql/postgresql.log.1 
-       -O /var/www/pg_reports/
+    /usr/bin/pgbadger --retention 2 -I -q /var/log/postgresql/postgresql.log.1 -O /var/www/pg_reports/
 
 If you have a pg_dump at 23:00 and 13:00 each day during half an hour, you can
 use pgBadger as follow to exclude these period from the report:
@@ -558,8 +552,7 @@ week report and links to daily reports of each week.
 
 For example, if you run pgBadger as follows based on a daily rotated file:
 
-    0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 \
-        -O /var/www/pg_reports/
+    0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 -O /var/www/pg_reports/
 
 you will have all daily and weekly reports for the full running period.
 
index 3ab6d5cd27c9092ebd84bec518b222eacd2d12b3..978c592cf63f24fbc3d935311f2be43747f2303d 100755 (executable)
--- a/pgbadger
+++ b/pgbadger
@@ -1694,7 +1694,7 @@ Options:
                              Be warned that this can really slow down pgBadger.
     -e | --end datetime    : end date/time for the data to be parsed in log.
     -f | --format logtype  : possible values: syslog, syslog2, stderr, jsonlog,
-                            cvs and pgbouncer. Use this option when pgBadger is
+                             cvs and pgbouncer. Use this option when pgBadger is
                              not able to auto-detect the log format.
     -G | --nograph         : disable graphs on HTML output. Enabled by default.
     -h | --help            : show this message and exit.
@@ -1815,7 +1815,7 @@ Options:
     --start-monday         : in incremental mode, calendar's weeks start on
                              sunday. Use this option to start on monday.
     --normalized-only      : only dump all normalized query to out.txt
-    --log-timezone  +/-XX  : Set the number of hours from GMT of the timezone
+    --log-timezone +/-XX   : Set the number of hours from GMT of the timezone
                              that must be used to adjust date/time read from
                              log file before beeing parsed. Using this option
                              make more difficult log search with a date/time.
@@ -1838,27 +1838,23 @@ some additional options to fully control the ssh connection.
 Examples:
 
        pgbadger /var/log/postgresql.log
-       pgbadger /var/log/postgres.log.2.gz /var/log/postgres.log.1.gz \
-                      /var/log/postgres.log
+       pgbadger /var/log/postgres.log.2.gz /var/log/postgres.log.1.gz /var/log/postgres.log
        pgbadger /var/log/postgresql/postgresql-2012-05-*
        pgbadger --exclude-query="^(COPY|COMMIT)" /var/log/postgresql.log
-       pgbadger -b "2012-06-25 10:56:11" -e "2012-06-25 10:59:11" \
-                      /var/log/postgresql.log
+       pgbadger -b "2012-06-25 10:56:11" -e "2012-06-25 10:59:11" /var/log/postgresql.log
        cat /var/log/postgres.log | pgbadger -
        # Log prefix with stderr log output
-       perl pgbadger --prefix '%t [%p]: [%l-1] user=%u,db=%d,client=%h' \
-                       /pglog/postgresql-2012-08-21*
+       perl pgbadger --prefix '%t [%p]: user=%u,db=%d,client=%h' /pglog/postgresql-2012-08-21*
        perl pgbadger --prefix '%m %u@%d %p %r %a : ' /pglog/postgresql.log
        # Log line prefix with syslog log output
-       perl pgbadger --prefix 'user=%u,db=%d,client=%h,appname=%a' \
-                       /pglog/postgresql-2012-08-21*
+       perl pgbadger --prefix 'user=%u,db=%d,client=%h,appname=%a' /pglog/postgresql-2012-08-21*
        # Use my 8 CPUs to parse my 10GB file faster, much faster
        perl pgbadger -j 8 /pglog/postgresql-9.1-main.log
 
 
 Generate Tsung sessions XML file with select queries only:
 
-    perl pgbadger -S -o sessions.tsung --prefix '%t [%p]: [%l-1] user=%u,db=%d ' /pglog/postgresql-9.1.log
+    perl pgbadger -S -o sessions.tsung --prefix '%t [%p]: user=%u,db=%d ' /pglog/postgresql-9.1.log
 
 Reporting errors every week by cron job:
 
@@ -1866,23 +1862,20 @@ Reporting errors every week by cron job:
 
 Generate report every week using incremental behavior:
 
-    0 4 * * 1 /usr/bin/pgbadger -q `find /var/log/ -mtime -7 -name "postgresql.log*"` \
-       -o /var/reports/pg_errors-`date +%F`.html -l /var/reports/pgbadger_incremental_file.dat
+    0 4 * * 1 /usr/bin/pgbadger -q `find /var/log/ -mtime -7 -name "postgresql.log*"` -o /var/reports/pg_errors-`date +\\%F`.html -l /var/reports/pgbadger_incremental_file.dat
 
 This supposes that your log file and HTML report are also rotated every week.
 
 Or better, use the auto-generated incremental reports:
 
-    0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 \
-       -O /var/www/pg_reports/
+    0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 -O /var/www/pg_reports/
 
 will generate a report per day and per week.
 
 In incremental mode, you can also specify the number of week to keep in the
 reports:
 
-    /usr/bin/pgbadger --retention 2 -I -q /var/log/postgresql/postgresql.log.1 \
-       -O /var/www/pg_reports/
+    /usr/bin/pgbadger --retention 2 -I -q /var/log/postgresql/postgresql.log.1 -O /var/www/pg_reports/
 
 If you have a pg_dump at 23:00 and 13:00 each day during half an hour, you can
 use pgBadger as follow to exclude these period from the report: