]> granicus.if.org Git - postgresql/commitdiff
Update stale comments, and fix comment typos.
authorNoah Misch <noah@leadboat.com>
Sat, 8 Jun 2019 17:12:26 +0000 (10:12 -0700)
committerNoah Misch <noah@leadboat.com>
Sat, 8 Jun 2019 17:12:26 +0000 (10:12 -0700)
13 files changed:
src/backend/access/brin/brin_inclusion.c
src/backend/access/transam/multixact.c
src/backend/port/sysv_shmem.c
src/backend/postmaster/postmaster.c
src/backend/utils/adt/like.c
src/bin/pg_basebackup/pg_basebackup.c
src/bin/pg_rewind/t/RewindTest.pm
src/bin/pg_upgrade/TESTING
src/bin/pg_upgrade/controldata.c
src/fe_utils/string_utils.c
src/include/storage/s_lock.h
src/interfaces/libpq/fe-secure-openssl.c
src/test/recovery/t/013_crash_restart.pl

index 332a854af6ad9c8b2272367899d138f359fadcd0..86788024ef658c5ee0948dae73c385d99e2fbfb2 100644 (file)
@@ -432,7 +432,7 @@ brin_inclusion_consistent(PG_FUNCTION_ARGS)
                         * It is straightforward to support the equality strategies with
                         * the contains operator.  Generally, inequality strategies do not
                         * make much sense for the types which will be used with the
-                        * inclusion BRIN family of opclasses, but is possible to
+                        * inclusion BRIN family of opclasses, but it is possible to
                         * implement them with logical negation of the left-of and
                         * right-of operators.
                         *
index 4004468fa01820e4f6ed99bdb257c86e3c55651d..fad859a812e54a49eed41859740265a979c50887 100644 (file)
@@ -2208,7 +2208,7 @@ SetMultiXactIdLimit(MultiXactId oldest_datminmxid, Oid oldest_datoid,
         * space, but that's not really true, because multixacts wrap differently
         * from transaction IDs.  Note that, separately from any concern about
         * multixact IDs wrapping, we must ensure that multixact members do not
-        * wrap.  Limits for that are set in DetermineSafeOldestOffset, not here.
+        * wrap.  Limits for that are set in SetOffsetVacuumLimit, not here.
         */
        multiWrapLimit = oldest_datminmxid + (MaxMultiXactId >> 1);
        if (multiWrapLimit < FirstMultiXactId)
index 4a86fbc1c1e0a6f3225db87f07f55d0c70da8dd2..968506dd51683240ca11febdab6e9163292046eb 100644 (file)
@@ -390,9 +390,9 @@ PGSharedMemoryAttach(IpcMemoryId shmId,
 
        /*
         * Try to attach to the segment and see if it matches our data directory.
-        * This avoids shmid-conflict problems on machines that are running
-        * several postmasters under the same userid and port number.  (That would
-        * not ordinarily happen in production, but it can happen during parallel
+        * This avoids key-conflict problems on machines that are running several
+        * postmasters under the same userid and port number.  (That would not
+        * ordinarily happen in production, but it can happen during parallel
         * testing.  Since our test setups don't open any TCP ports on Unix, such
         * cases don't conflict otherwise.)
         */
index dd16938d9c7022ddd3edd085056545f674e76ff1..688ad439edb03175d21ff752353c59a5dbe998f6 100644 (file)
@@ -4743,8 +4743,8 @@ retry:
        }
 
        /*
-        * Queue a waiter for to signal when this child dies. The wait will be
-        * handled automatically by an operating system thread pool.
+        * Queue a waiter to signal when this child dies. The wait will be handled
+        * automatically by an operating system thread pool.
         *
         * Note: use malloc instead of palloc, since it needs to be thread-safe.
         * Struct will be free():d from the callback function that runs on a
index 69beaf2ab50acf9a5723eb252f31d245061cce0b..13d5cb083c37d1830987332a70b746b3b13ce34a 100644 (file)
@@ -211,7 +211,6 @@ Generic_Text_IC_like(text *str, text *pat, Oid collation)
 
        if (pg_database_encoding_max_length() > 1 || (locale && locale->provider == COLLPROVIDER_ICU))
        {
-               /* lower's result is never packed, so OK to use old macros here */
                pat = DatumGetTextPP(DirectFunctionCall1Coll(lower, collation,
                                                                                                         PointerGetDatum(pat)));
                p = VARDATA_ANY(pat);
index 9f0bede93b904840b1ec88cc755e72ef58a5bfff..63f554307cd7729587b43d109d3592181497c46d 100644 (file)
@@ -1681,12 +1681,7 @@ GenerateRecoveryConf(PGconn *conn)
        initPQExpBuffer(&conninfo_buf);
        for (option = connOptions; option && option->keyword; option++)
        {
-               /*
-                * Do not emit this setting if: - the setting is "replication",
-                * "dbname" or "fallback_application_name", since these would be
-                * overridden by the libpqwalreceiver module anyway. - not set or
-                * empty.
-                */
+               /* Omit empty settings and those libpqwalreceiver overrides. */
                if (strcmp(option->keyword, "replication") == 0 ||
                        strcmp(option->keyword, "dbname") == 0 ||
                        strcmp(option->keyword, "fallback_application_name") == 0 ||
index 61904f25ff450f9bd38d8f80b3ad400bf2f9d0f6..68b6004e9461a62fc9e7a40de3170e45d8db0005 100644 (file)
@@ -26,11 +26,7 @@ package RewindTest;
 # still running.
 #
 # The test script can use the helper functions master_psql and standby_psql
-# to run psql against the master and standby servers, respectively. The
-# test script can also use the $connstr_master and $connstr_standby global
-# variables, which contain libpq connection strings for connecting to the
-# master and standby servers. The data directories are also available
-# in paths $test_master_datadir and $test_standby_datadir
+# to run psql against the master and standby servers, respectively.
 
 use strict;
 use warnings;
index 6831f679f6683620fc70560a4d38620d154006f2..e69874b42d0b32a3a6a43e9750f8530a549de957 100644 (file)
@@ -36,7 +36,7 @@ Here are the steps needed to create a regression database dump file:
 
 1)  Create and populate the regression database in the old cluster.
     This database can be created by running 'make installcheck' from
-    src/test/regression.
+    src/test/regress.
 
 2)  Use pg_dump to dump out the regression database.  Use the new
     cluster's pg_dump on the old database to minimize whitespace
index 6788f882a84cf8a607f42c78cbdabba06d46f92e..38236415bef99f949418f83051215862306dad2a 100644 (file)
@@ -105,7 +105,7 @@ get_control_data(ClusterInfo *cluster, bool live_check)
 #ifndef WIN32
        pg_putenv("LANG", NULL);
 #else
-       /* On Windows the default locale cannot be English, so force it */
+       /* On Windows the default locale may not be English, so force it */
        pg_putenv("LANG", "en");
 #endif
        pg_putenv("LANGUAGE", NULL);
index 58610dbf572aba0725cae9aafd808569e56efd66..d5757becef2a729e619946b414ab7c0bf20379c1 100644 (file)
@@ -541,8 +541,7 @@ appendShellStringNoError(PQExpBuffer buf, const char *str)
 
 /*
  * Append the given string to the buffer, with suitable quoting for passing
- * the string as a value, in a keyword/pair value in a libpq connection
- * string
+ * the string as a value in a keyword/value pair in a libpq connection string.
  */
 void
 appendConnStrVal(PQExpBuffer buf, const char *str)
index 75088f83632a112d070cbbe5fa6bb6b7fa8eaa31..a9a92de2470a54ddd971d178b15b156ccfd48618 100644 (file)
@@ -383,7 +383,7 @@ tas(volatile slock_t *lock)
        register slock_t _res;
 
        /*
-        *      See comment in /pg/backend/port/tas/solaris_sparc.s for why this
+        *      See comment in src/backend/port/tas/sunstudio_sparc.s for why this
         *      uses "ldstub", and that file uses "cas".  gcc currently generates
         *      sparcv7-targeted binaries, so "cas" use isn't possible.
         */
@@ -598,7 +598,6 @@ tas(volatile slock_t *lock)
 
 
 #if defined(__mips__) && !defined(__sgi)       /* non-SGI MIPS */
-/* Note: on SGI we use the OS' mutex ABI, see below */
 /* Note: R10000 processors require a separate SYNC */
 #define HAS_TEST_AND_SET
 
index 1a14a4a0a7e167846edbff8144891f38db6962e6..c8b8d0703959b5c8da6f04da4b7c9a6ed09dda7d 100644 (file)
@@ -736,7 +736,7 @@ static void
 destroy_ssl_system(void)
 {
 #if defined(ENABLE_THREAD_SAFETY) && defined(HAVE_CRYPTO_LOCK)
-       /* Mutex is created in initialize_ssl_system() */
+       /* Mutex is created in pgtls_init() */
        if (pthread_mutex_lock(&ssl_config_mutex))
                return;
 
index ac6d9653af9882de35f106fbc8d89b0842215bbd..3ecb9dd4df787d53387bc0343893e9fcdb457278 100644 (file)
@@ -90,9 +90,9 @@ $killme_stdout = '';
 $killme_stderr = '';
 
 
-# Start longrunning query in second session, it's failure will signal
-# that crash-restart has occurred.  The initial wait for the trivial
-# select is to be sure that psql successfully connected to backend.
+# Start longrunning query in second session; its failure will signal that
+# crash-restart has occurred.  The initial wait for the trivial select is to
+# be sure that psql successfully connected to backend.
 $monitor_stdin .= q[
 SELECT $$psql-connected$$;
 SELECT pg_sleep(3600);
@@ -171,10 +171,9 @@ ok(pump_until($killme, \$killme_stdout, qr/in-progress-before-sigkill/m),
 $killme_stdout = '';
 $killme_stderr = '';
 
-# Re-start longrunning query in second session, it's failure will
-# signal that crash-restart has occurred.  The initial wait for the
-# trivial select is to be sure that psql successfully connected to
-# backend.
+# Re-start longrunning query in second session; its failure will signal that
+# crash-restart has occurred.  The initial wait for the trivial select is to
+# be sure that psql successfully connected to backend.
 $monitor_stdin .= q[
 SELECT $$psql-connected$$;
 SELECT pg_sleep(3600);