]> granicus.if.org Git - pgbadger/commitdiff
Copyediting of the README.
authorJosh Kupershmidt <josh.kupershmidt@cloudlock.com>
Fri, 24 Jul 2015 18:01:54 +0000 (11:01 -0700)
committerJosh Kupershmidt <josh.kupershmidt@cloudlock.com>
Fri, 24 Jul 2015 18:01:54 +0000 (11:01 -0700)
Tweaking awkward phrasing, correcting subject-verb agreements, typos,
and misspellings. Capitalize "pgBadger" consistently to refer to the program
other than command-line examples, where it should be all-lowercase.

README

diff --git a/README b/README
index eb3bf626ef39a0e2c191632504f85dec8eda4a2a..e2941da7e05c2d6d51ce8b2b48d602e1831ca5e4 100644 (file)
--- a/README
+++ b/README
@@ -11,8 +11,8 @@ SYNOPSIS
         logfile can be a single log file, a list of files, or a shell command
         returning a list of files. If you want to pass log content from stdin
         use - as filename. Note that input from stdin will not work with csvlog.
-        You can also use a file containing a list of log file to parse, see -L
-        command line option.
+        You can also use a file containing a list of log files to parse, see
+        the -L command line option.
 
     Options:
 
@@ -189,27 +189,27 @@ SYNOPSIS
 
     will generate a report per day and per week.
 
-    In incremental mode, you can also specify the number of week to keep in
+    In incremental mode, you can also specify the number of weeks to keep in
     the reports:
 
         /usr/bin/pgbadger --retention 2 -I -q /var/log/postgresql/postgresql.log.1 
             -O /var/www/pg_reports/
 
-    If you have a pg_dump at 23:00 and 13:00 each day during half an hour,
-    you can use pgbadger as follow to exclude these period from the report:
+    If you have a pg_dump at 23:00 and 13:00 each day lasting half an hour,
+    you can use pgbadger as follows to exclude those periods from the report:
 
         pgbadger --exclude-time "2013-09-.* (23|13):.*" postgresql.log
 
-    This will help avoid having COPY statements, as generated by pg_dump, on
-    top of the list of slowest queries. You can also use --exclude-appname
+    This will help avoid having COPY statements, as generated by pg_dump, at
+    the top of the list of slowest queries. You can also use --exclude-appname
     "pg_dump" to solve this problem in a simpler way.
 
 DESCRIPTION
-    pgBadger is a PostgreSQL log analyzer build for speed with fully
+    pgBadger is a PostgreSQL log analyzer built for speed with fully
     detailed reports from your PostgreSQL log file. It's a single and small
-    Perl script that outperform any other PostgreSQL log analyzer.
+    Perl script that outperforms any other PostgreSQL log analyzer.
 
-    It is written in pure Perl language and uses a javascript library
+    It is written in pure Perl and uses a javascript library
     (flotr2) to draw graphs so that you don't need to install any additional
     Perl modules or other packages. Furthermore, this library gives us more
     features such as zooming. pgBadger also uses the Bootstrap javascript
@@ -218,9 +218,9 @@ DESCRIPTION
 
     pgBadger is able to autodetect your log file format (syslog, stderr or
     csvlog). It is designed to parse huge log files as well as gzip
-    compressed file. See a complete list of features below. Supported
-    compressed format are gzip, bzip2 and xz. For the last one you must have
-    a xz version upper than 5.05 that support the --robot option.
+    compressed files. See a complete list of features below. Supported
+    compressed formats are gzip, bzip2 and xz. For the xz format you must have
+    an xz version greater than 5.05 that supports the --robot option.
 
     All charts are zoomable and can be saved as PNG images.
 
@@ -228,14 +228,14 @@ DESCRIPTION
     the report using command line options.
 
     pgBadger supports any custom format set into the log_line_prefix
-    directive of your postgresql.conf file as long as it at least specify
+    directive of your postgresql.conf file as long as it specifies at least
     the %t and %p patterns.
 
-    pgBadger allow parallel processing on a single log file and multiple
-    files through the use of the -j option and the number of CPUs as value.
+    pgBadger allows parallel processing of a single log file or multiple
+    files through the use of the -j option specifying the number of CPUs.
 
     If you want to save system performance you can also use log_duration
-    instead of log_min_duration_statement to have reports on duration and
+    instead of log_min_duration_statement to have reports on the duration and
     number of queries only.
 
 FEATURE
@@ -257,7 +257,7 @@ FEATURE
             Queries generating the most cancellation.
             Queries most cancelled.
 
-    The following reports are also available with hourly charts divide by
+    The following reports are also available with hourly charts divided into
     periods of five minutes:
 
             SQL queries statistics.
@@ -267,7 +267,7 @@ FEATURE
             Cancelled queries.
             Error events (panic, fatal, error and warning).
 
-    There's also some pie reports of distribution about:
+    There are also some pie charts about distributions of:
 
             Locks statistics.
             Queries by type (select/insert/update/delete).
@@ -282,22 +282,23 @@ FEATURE
 
     You can also have incremental reports with one report per day and a
     cumulative report per week. Two multiprocess modes are available to
-    speed up log parsing, one using one core per log file, and the second to
-    use multiple core to parse a single file. Both modes can be combined.
+    speed up log parsing, one using one core per log file, and the second
+    using multiple cores to parse a single file. These modes can be combined.
 
     Histogram granularity can be adjusted using the -A command line option.
-    By default they will report the mean of each top queries/error occuring
+    By default they will report the mean of each top queries/errors occurring
     per hour, but you can specify the granularity down to the minute.
 
     pgBadger can also be used in a central place to parse remote log files
-    using a password less SSH connection. This mode can be used with
-    compressed files and in mode multiprocess per file (-J) but can not be
-    used with CSV log format.
+    using a passwordless SSH connection. This mode can be used with
+    compressed files and in the multiprocess per file mode (-J) but can not be
+    used with the CSV log format.
 
 REQUIREMENT
     pgBadger comes as a single Perl script - you do not need anything other
     than a modern Perl distribution. Charts are rendered using a Javascript
-    library so you don't need anything. Your browser will do all the work.
+    library so you don't need anything other than a web browser. Your browser
+    will do all the work.
 
     If you planned to parse PostgreSQL CSV log files you might need some
     Perl Modules:
@@ -366,11 +367,11 @@ POSTGRESQL CONFIGURATION
 
             log_min_duration_statement = 0
 
-    Here every statement will be logged, on busy server you may want to
-    increase this value to only log queries with a higher duration time.
+    Here every statement will be logged, on busy server you may want to
+    increase this value to only log queries with a longer duration.
     Note that if you have log_statement set to 'all' nothing will be logged
-    through directive log_min_duration_statement. See next chapter for more
-    information.
+    through the log_min_duration_statement directive. See the next chapter for
+    more information.
 
     With 'stderr' log format, log_line_prefix must be at least:
 
@@ -403,7 +404,7 @@ POSTGRESQL CONFIGURATION
             log_temp_files = 0
             log_autovacuum_min_duration = 0
 
-    Do not enable log_statement as their log format will not be parsed by
+    Do not enable log_statement as its log format will not be parsed by
     pgBadger.
 
     Of course your log messages should be in English without locale support:
@@ -414,13 +415,13 @@ POSTGRESQL CONFIGURATION
 
     Note: the session line [%l-1] is just used to match the default prefix
     for "stderr". The -1 has no real purpose and basically is not used in
-    Pgbadger statistics / graphs. You can safely removed them from the
+    pgBadger statistics / graphs. You can safely remove them from the
     log_line_prefix but you will need to set the --prefix command line
-    option.
+    option accordingly.
 
 log_min_duration_statement, log_duration and log_statement
-    If you want full statistics reports you must set
-    log_min_duration_statement to 0 or more milliseconds.
+    If you want the query statistics to include the actual query strings,
+    you must set log_min_duration_statement to 0 or more milliseconds.
 
     If you just want to report duration and number of queries and don't want
     all details about queries, set log_min_duration_statement to -1 to
@@ -451,20 +452,20 @@ PARALLEL PROCESSING
             All binary temporary files generated will then be read and loaded into
             memory to build the html output.
 
-    With that method, at start/end of chunks pgbadger may truncate or omit a
-    maximum of N queries perl log file which is an insignificant gap if you
+    With that method, at start/end of chunks pgBadger may truncate or omit a
+    maximum of N queries per log file which is an insignificant gap if you
     have millions of queries in your log file. The chance that the query
-    that you were looking for is loose is near 0, this is why I think this
+    that you were looking for is lost is near 0, this is why I think this
     gap is livable. Most of the time the query is counted twice but
     truncated.
 
-    When you have lot of small log files and lot of CPUs it is speedier to
+    When you have many small log files and many CPUs it is speedier to
     dedicate one core to one log file at a time. To enable this behavior you
     have to use option -J N instead. With 200 log files of 10MB each the use
-    of the -J option start being really interesting with 8 Cores. Using this
-    method you will be sure to not loose any queries in the reports.
+    of the -J option starts being really interesting with 8 Cores. Using this
+    method you will be sure not to lose any queries in the reports.
 
-    He are a benchmarck done on a server with 8 CPUs and a single file of
+    He are benchmarks done on a server with 8 CPUs and a single file of
     9.5GB.
 
              Option |  1 CPU  | 2 CPU | 4 CPU | 8 CPU
@@ -472,7 +473,7 @@ PARALLEL PROCESSING
                -j   | 1h41m18 | 50m25 | 25m39 | 15m58
                -J   | 1h41m18 | 54m28 | 41m16 | 34m45
 
-    With 200 log files of 10MB each and a total og 2GB the results are
+    With 200 log files of 10MB each and a total of 2GB the results are
     slightly different:
 
              Option | 1 CPU | 2 CPU | 4 CPU | 8 CPU
@@ -480,17 +481,17 @@ PARALLEL PROCESSING
                -j   | 20m15 |  9m56 |  5m20 | 4m20
                -J   | 20m15 |  9m49 |  5m00 | 2m40
 
-    So it is recommanded to use -j unless you have hundred of small log file
+    So it is recommended to use -j unless you have hundreds of small log files
     and can use at least 8 CPUs.
 
-    IMPORTANT: when you are using parallel parsing pgbadger will generate a
-    lot of temporary files in the /tmp directory and will remove them at
-    end, so do not remove those files unless pgbadger is not running. They
+    IMPORTANT: when you are using parallel parsing pgBadger will generate a
+    lot of temporary files in the /tmp directory and will remove them at the
+    end, so do not remove those files unless pgBadger is not running. They
     are all named with the following template tmp_pgbadgerXXXX.bin so they
     can be easily identified.
 
 INCREMENTAL REPORTS
-    pgBadger include an automatic incremental report mode using option -I or
+    pgBadger includes an automatic incremental report mode using option -I or
     --incremental. When running in this mode, pgBadger will generate one
     report per day and a cumulative report per week. Output is first done in
     binary format into the mandatory output directory (see option -O or
@@ -498,9 +499,9 @@ INCREMENTAL REPORTS
     index file.
 
     The main index file will show a dropdown menu per week with a link to
-    the week report and links to daily reports of this week.
+    each week's report and links to daily reports of each week.
 
-    For example, if you run pgBadger as follow based on a daily rotated
+    For example, if you run pgBadger as follows based on a daily rotated
     file:
 
         0 4 * * * /usr/bin/pgbadger -I -q /var/log/postgresql/postgresql.log.1 \
@@ -508,21 +509,21 @@ INCREMENTAL REPORTS
 
     you will have all daily and weekly reports for the full running period.
 
-    In this mode pgBagder will create an automatic incremental file into the
+    In this mode pgBadger will create an automatic incremental file in the
     output directory, so you don't have to use the -l option unless you want
-    to change the path of that file. This mean that you can run pgBadger in
-    this mode each days on a log file rotated each week, it will not count
+    to change the path of that file. This means that you can run pgBadger in
+    this mode each day on a log file rotated each week, and it will not count
     the log entries twice.
 
     To save disk space you may want to use the -X or --extra-files command
     line option to force pgBadger to write javascript and css to separate
     files in the output directory. The resources will then be loaded using
-    script and link tag.
+    script and link tags.
 
 BINARY FORMAT
     Using the binary format it is possible to create custom incremental and
-    cumulative reports. For example, if you want to refresh a pgbadger
-    report each hour from a daily PostgreSQl log file, you can proceed by
+    cumulative reports. For example, if you want to refresh a pgBadger
+    report each hour from a daily PostgreSQL log file, you can proceed by
     running each hour the following commands:
 
         pgbadger --last-parsed .pgbadger_last_state_file -o sunday/hourX.bin /var/log/pgsql/postgresql-Sun.log
@@ -532,9 +533,9 @@ BINARY FORMAT
 
         pgbadger sunday/*.bin
 
-    Or an other example, if you have one log file per hour and you want a
-    reports to be rebuild each time the log file is switched. Proceed as
-    follow:
+    Or as another example, if you generate one log file per hour and you want
+    reports to be rebuilt each time the log file is rotated, proceed as
+    follows:
 
             pgbadger -o day1/hour01.bin /var/log/pgsql/pglog/postgresql-2012-03-23_10.log
             pgbadger -o day1/hour02.bin /var/log/pgsql/pglog/postgresql-2012-03-23_11.log
@@ -546,7 +547,7 @@ BINARY FORMAT
 
             pgbadger -o day1_report.html day1/*.bin
 
-    Adjust the commands following your needs.
+    Adjust the commands to suit your particular needs.
 
 JSON FORMAT
     JSON format is good for sharing data with other languages, which makes