]> granicus.if.org Git - postgresql/commitdiff
Spelling fixes in code comments
authorPeter Eisentraut <peter_e@gmx.net>
Tue, 14 Mar 2017 15:38:30 +0000 (11:38 -0400)
committerPeter Eisentraut <peter_e@gmx.net>
Tue, 14 Mar 2017 16:58:39 +0000 (12:58 -0400)
From: Josh Soref <jsoref@gmail.com>

33 files changed:
contrib/pgcrypto/crypt-des.c
contrib/spi/timetravel.c
src/backend/access/transam/twophase.c
src/backend/commands/copy.c
src/backend/commands/tablecmds.c
src/backend/foreign/foreign.c
src/backend/optimizer/plan/createplan.c
src/backend/parser/parse_collate.c
src/backend/parser/parse_param.c
src/backend/regex/regc_pg_locale.c
src/backend/storage/ipc/procarray.c
src/backend/storage/lmgr/lock.c
src/backend/tsearch/dict_thesaurus.c
src/backend/utils/adt/selfuncs.c
src/backend/utils/cache/lsyscache.c
src/backend/utils/cache/plancache.c
src/backend/utils/error/elog.c
src/backend/utils/fmgr/fmgr.c
src/backend/utils/hash/dynahash.c
src/backend/utils/misc/README
src/bin/pg_dump/parallel.c
src/fe_utils/string_utils.c
src/include/utils/jsonapi.h
src/interfaces/libpq/fe-connect.c
src/interfaces/libpq/fe-exec.c
src/pl/plperl/ppport.h
src/pl/plpgsql/src/pl_exec.c
src/pl/plpython/plpy_procedure.c
src/pl/plpython/plpy_typeio.c
src/test/regress/expected/errors.out
src/test/regress/expected/groupingsets.out
src/test/regress/sql/errors.sql
src/test/regress/sql/groupingsets.sql

index a4aa4966bfcc01a2d5f82bcdb4d833a7a1d1523c..44a5731dde0ecf1e668a8bfca3b6ede22c6da11d 100644 (file)
@@ -416,7 +416,7 @@ des_setkey(const char *key)
                && rawkey1 == old_rawkey1)
        {
                /*
-                * Already setup for this key. This optimisation fails on a zero key
+                * Already setup for this key. This optimization fails on a zero key
                 * (which is weak and has bad parity anyway) in order to simplify the
                 * starting conditions.
                 */
index 2733aa231e84ecf69417bb6feea965ea5e2f208f..19bf8a892ce46b3f18660d0ec8592aafa673aba0 100644 (file)
@@ -51,7 +51,7 @@ static EPlan *find_plan(char *ident, EPlan **eplan, int *nplans);
  *                     and stop_date eq INFINITY [ and update_user eq current user ]
  *                     and all other column values as in new tuple, and insert tuple
  *                     with old data and stop_date eq current date
- *                     ELSE - skip updation of tuple.
+ *                     ELSE - skip updating of tuple.
  *             2.  IF a delete affects tuple with stop_date eq INFINITY
  *                     then insert the same tuple with stop_date eq current date
  *                     [ and delete_user eq current user ]
index 5cefc43bfe3085bfb63a40a3144883ac085db57e..83ca6e04081cf83b75a9572a3b6833376a994024 100644 (file)
@@ -1612,7 +1612,7 @@ CheckPointTwoPhase(XLogRecPtr redo_horizon)
         *
         * It's also possible to move I/O out of the lock, but on every error we
         * should check whether somebody committed our transaction in different
-        * backend. Let's leave this optimisation for future, if somebody will
+        * backend. Let's leave this optimization for future, if somebody will
         * spot that this place cause bottleneck.
         *
         * Note that it isn't possible for there to be a GXACT with a
index 3102ab18c57a45af4756c76d1e949f971ba6b3a0..ba89b292d1e7eca9685b9e3c10d40a5e147826bd 100644 (file)
@@ -2406,7 +2406,7 @@ CopyFrom(CopyState cstate)
         * earlier scan or command. This ensures that if this subtransaction
         * aborts then the frozen rows won't be visible after xact cleanup. Note
         * that the stronger test of exactly which subtransaction created it is
-        * crucial for correctness of this optimisation.
+        * crucial for correctness of this optimization.
         */
        if (cstate->freeze)
        {
@@ -2973,7 +2973,7 @@ BeginCopyFrom(ParseState *pstate,
                                 * the special case of when the default expression is the
                                 * nextval() of a sequence which in this specific case is
                                 * known to be safe for use with the multi-insert
-                                * optimisation. Hence we use this special case function
+                                * optimization. Hence we use this special case function
                                 * checker rather than the standard check for
                                 * contain_volatile_functions().
                                 */
index 1ddb72d16472376e72087b80b19767f7925e465e..86329e5f9f29931f5f9af046c1901246565bab20 100644 (file)
@@ -3182,7 +3182,7 @@ AlterTableGetLockLevel(List *cmds)
                                break;
 
                                /*
-                                * Changing foreign table options may affect optimisation.
+                                * Changing foreign table options may affect optimization.
                                 */
                        case AT_GenericOptions:
                        case AT_AlterColumnGenericOptions:
index fdb4f712534dc1807ad5a357525bb1d0f053449b..5a45558b915f9c2e2dd6820c634dc7480dd19b75 100644 (file)
@@ -724,7 +724,7 @@ GetExistingLocalJoinPath(RelOptInfo *joinrel)
                Path       *path = (Path *) lfirst(lc);
                JoinPath   *joinpath = NULL;
 
-               /* Skip parameterised paths. */
+               /* Skip parameterized paths. */
                if (path->param_info != NULL)
                        continue;
 
index 4629ca27ee559086929daf437ac5e6954b1987d6..89e1946fc2622f26aba95c3ea800160ce5e4d002 100644 (file)
@@ -4582,7 +4582,7 @@ fix_indexqual_operand(Node *node, IndexOptInfo *index, int indexcol)
                }
        }
 
-       /* Ooops... */
+       /* Oops... */
        elog(ERROR, "index key does not match expected index column");
        return NULL;                            /* keep compiler quiet */
 }
index 52ac722790912f3311678dc8a81c3a45591d8405..cc235d422f504d25b24173094ed60f6d4e285106 100644 (file)
@@ -802,7 +802,7 @@ merge_collation_state(Oid collation,
                                        else if (collation != DEFAULT_COLLATION_OID)
                                        {
                                                /*
-                                                * Ooops, we have a conflict.  We cannot throw error
+                                                * Oops, we have a conflict.  We cannot throw error
                                                 * here, since the conflict could be resolved by a
                                                 * later sibling CollateExpr, or the parent might not
                                                 * care about collation anyway.  Return enough info to
@@ -821,7 +821,7 @@ merge_collation_state(Oid collation,
                                if (collation != context->collation)
                                {
                                        /*
-                                        * Ooops, we have a conflict of explicit COLLATE clauses.
+                                        * Oops, we have a conflict of explicit COLLATE clauses.
                                         * Here we choose to throw error immediately; that is what
                                         * the SQL standard says to do, and there's no good reason
                                         * to be less strict.
index 2575e02325e7f00b2ac75c1290cc4ddf6f430d57..20fd83f095e3d62a742560e48d095fa49416b4b9 100644 (file)
@@ -210,7 +210,7 @@ variable_coerce_param_hook(ParseState *pstate, Param *param,
                }
                else
                {
-                       /* Ooops */
+                       /* Oops */
                        ereport(ERROR,
                                        (errcode(ERRCODE_AMBIGUOUS_PARAMETER),
                                         errmsg("inconsistent types deduced for parameter $%d",
index afa3a7d613cc927317bbcf89e92e33679d6b45ea..0121cbb2ada73d0d8afa1a4814a8725546cb15bc 100644 (file)
@@ -224,7 +224,7 @@ static const unsigned char pg_char_properties[128] = {
  * pg_set_regex_collation: set collation for these functions to obey
  *
  * This is called when beginning compilation or execution of a regexp.
- * Since there's no need for re-entrancy of regexp operations, it's okay
+ * Since there's no need for reentrancy of regexp operations, it's okay
  * to store the results in static variables.
  */
 void
index cd14667c16c153ab1f0f27dff3ce2769dd60f8f9..c724a0e95250c7a08761d1368e2d90a6426ac628 100644 (file)
@@ -280,7 +280,7 @@ ProcArrayAdd(PGPROC *proc)
        if (arrayP->numProcs >= arrayP->maxProcs)
        {
                /*
-                * Ooops, no room.  (This really shouldn't happen, since there is a
+                * Oops, no room.  (This really shouldn't happen, since there is a
                 * fixed supply of PGPROC structs too, and so we should have failed
                 * earlier.)
                 */
@@ -370,7 +370,7 @@ ProcArrayRemove(PGPROC *proc, TransactionId latestXid)
                }
        }
 
-       /* Ooops */
+       /* Oops */
        LWLockRelease(ProcArrayLock);
 
        elog(LOG, "failed to find proc %p in ProcArray", proc);
index ad64a79fa1daebd566fbcffc73b467bff1a38dbd..4315be4077359b8e584804525250fb816847cbc5 100644 (file)
@@ -1125,7 +1125,7 @@ SetupLockInTable(LockMethod lockMethodTable, PGPROC *proc,
                                                                                                                &found);
        if (!proclock)
        {
-               /* Ooops, not enough shmem for the proclock */
+               /* Oops, not enough shmem for the proclock */
                if (lock->nRequested == 0)
                {
                        /*
@@ -4046,7 +4046,7 @@ lock_twophase_recover(TransactionId xid, uint16 info,
                                                                                                                &found);
        if (!proclock)
        {
-               /* Ooops, not enough shmem for the proclock */
+               /* Oops, not enough shmem for the proclock */
                if (lock->nRequested == 0)
                {
                        /*
index ee23fcfac8b3105328075d39a9a1936c64d5fffe..9a01075d4e1ab055ec6092145205268ed2d227a2 100644 (file)
@@ -23,7 +23,7 @@
 
 
 /*
- * Temporay we use TSLexeme.flags for inner use...
+ * Temporary we use TSLexeme.flags for inner use...
  */
 #define DT_USEASIS             0x1000
 
index 5f28a1a7c58083fca1c688e3d631c345904b260e..04bd9b95b27db9a40fae8b9413085f2752d510f4 100644 (file)
@@ -4312,7 +4312,7 @@ get_restriction_variable(PlannerInfo *root, List *args, int varRelid,
                return true;
        }
 
-       /* Ooops, clause has wrong structure (probably var op var) */
+       /* Oops, clause has wrong structure (probably var op var) */
        ReleaseVariableStats(*vardata);
        ReleaseVariableStats(rdata);
 
index 1b04c098d061e844c025d5296d4adfa2c079950b..b891f388e5dc7e61845e631b5765ea0dfc84b3eb 100644 (file)
@@ -2332,7 +2332,7 @@ get_typavgwidth(Oid typid, int32 typmod)
        }
 
        /*
-        * Ooops, we have no idea ... wild guess time.
+        * Oops, we have no idea ... wild guess time.
         */
        return 32;
 }
index dffc92762bc0e1fd9e98436f56506302ef3d50da..fa023748115c963e57774f932758318200806473 100644 (file)
@@ -621,7 +621,7 @@ RevalidateCachedQuery(CachedPlanSource *plansource)
                        return NIL;
                }
 
-               /* Ooops, the race case happened.  Release useless locks. */
+               /* Oops, the race case happened.  Release useless locks. */
                AcquirePlannerLocks(plansource->query_list, false);
        }
 
@@ -845,7 +845,7 @@ CheckCachedPlan(CachedPlanSource *plansource)
                        return true;
                }
 
-               /* Ooops, the race case happened.  Release useless locks. */
+               /* Oops, the race case happened.  Release useless locks. */
                AcquireExecutorLocks(plan->stmt_list, false);
        }
 
index 40e023c7d749166b4a2346c8bd1b416909493dbe..6e83cbedabfa18ec62d63f6281b80f4634c2068b 100644 (file)
@@ -318,7 +318,7 @@ errstart(int elevel, const char *filename, int lineno,
         */
        if (ErrorContext == NULL)
        {
-               /* Ooops, hard crash time; very little we can do safely here */
+               /* Oops, hard crash time; very little we can do safely here */
                write_stderr("error occurred at %s:%d before error message processing is available\n",
                                         filename ? filename : "(unknown file)", lineno);
                exit(2);
@@ -331,7 +331,7 @@ errstart(int elevel, const char *filename, int lineno,
        if (recursion_depth++ > 0 && elevel >= ERROR)
        {
                /*
-                * Ooops, error during error processing.  Clear ErrorContext as
+                * Oops, error during error processing.  Clear ErrorContext as
                 * discussed at top of file.  We will not return to the original
                 * error's reporter or handler, so we don't need it.
                 */
@@ -1302,7 +1302,7 @@ elog_start(const char *filename, int lineno, const char *funcname)
        /* Make sure that memory context initialization has finished */
        if (ErrorContext == NULL)
        {
-               /* Ooops, hard crash time; very little we can do safely here */
+               /* Oops, hard crash time; very little we can do safely here */
                write_stderr("error occurred at %s:%d before error message processing is available\n",
                                         filename ? filename : "(unknown file)", lineno);
                exit(2);
index 3976496aef674221e942dc8c5788cd620da47eca..8c00da6c6d6993c8e62831fc0976e7722098bbd3 100644 (file)
@@ -877,7 +877,7 @@ struct fmgr_security_definer_cache
  * To execute a call, we temporarily replace the flinfo with the cached
  * and looked-up one, while keeping the outer fcinfo (which contains all
  * the actual arguments, etc.) intact.  This is not re-entrant, but then
- * the fcinfo itself can't be used re-entrantly anyway.
+ * the fcinfo itself can't be used reentrantly anyway.
  */
 static Datum
 fmgr_security_definer(PG_FUNCTION_ARGS)
index d370b727191ba12b9f6d9b8246befc62719e4189..12b1658c9ad973eb8460b5e358d9b4f34edbcf15 100644 (file)
@@ -72,7 +72,7 @@
  * when combined with HASH_DEBUG, these are displayed by hdestroy().
  *
  * Problems & fixes to ejp@ausmelb.oz. WARNING: relies on pre-processor
- * concatenation property, in probably unnecessary code 'optimisation'.
+ * concatenation property, in probably unnecessary code 'optimization'.
  *
  * Modified margo@postgres.berkeley.edu February 1990
  *             added multiple table interface
index 70244ced18d869c5e46e8f1a6a455f9704c27ae0..6e294386f769269a6bce1f2524f95f119fbb9031 100644 (file)
@@ -114,7 +114,7 @@ If a show_hook is provided, it points to a function of the signature
 This hook allows variable-specific computation of the value displayed
 by SHOW (and other SQL features for showing GUC variable values).
 The return value can point to a static buffer, since show functions are
-not used re-entrantly.
+not used reentrantly.
 
 
 Saving/Restoring GUC Variable Values
index be8e018a9643057807d6e213910ab87788e314cb..feda575af85de196b1ae9ccfdaef1cd46d455ba6 100644 (file)
@@ -92,7 +92,7 @@ struct ParallelSlot
 
        /* These fields are valid if workerStatus == WRKR_WORKING: */
        ParallelCompletionPtr callback;         /* function to call on completion */
-       void       *callback_data;      /* passthru data for it */
+       void       *callback_data;      /* passthrough data for it */
 
        ArchiveHandle *AH;                      /* Archive data worker is using */
 
index 08fe765b5af1bc87906f7ed80b78182b27115163..d1a9ddc4c6cd94543243775c5ae8d98acd264b12 100644 (file)
@@ -173,7 +173,7 @@ fmtQualifiedId(int remoteVersion, const char *schema, const char *id)
  * returned by PQserverVersion()) as a string.  This exists mainly to
  * encapsulate knowledge about two-part vs. three-part version numbers.
  *
- * For re-entrancy, caller must supply the buffer the string is put in.
+ * For reentrancy, caller must supply the buffer the string is put in.
  * Recommended size of the buffer is 32 bytes.
  *
  * Returns address of 'buf', as a notational convenience.
index 6962f1a6be6bb3b2fe79de4afde09b48b9200e47..8f132d732bedf43aaf6992e73c1dd3e09ebaced9 100644 (file)
@@ -127,7 +127,7 @@ extern JsonLexContext *makeJsonLexContextCstringLen(char *json,
 /*
  * Utility function to check if a string is a valid JSON number.
  *
- * str agrument does not need to be nul-terminated.
+ * str argument does not need to be nul-terminated.
  */
 extern bool IsValidJsonNumber(const char *str, int len);
 
index c1814f5fe435a59ed58b83e52d6740649c57419a..27155f8578d658fb5ba652094d5ae590a97f36de 100644 (file)
@@ -2136,7 +2136,7 @@ keep_going:                                               /* We will come back to here until there is
                                }                               /* loop over addresses */
 
                                /*
-                                * Ooops, no more addresses.  An appropriate error message is
+                                * Oops, no more addresses.  An appropriate error message is
                                 * already set up, so just set the right status.
                                 */
                                goto error_return;
index b5518757ecf205adc5be46db195b204b8764b83f..9decd5339e26b34938a4a44c8fb767e3072756fa 100644 (file)
@@ -2334,7 +2334,7 @@ PQputCopyEnd(PGconn *conn, const char *errormsg)
        {
                if (errormsg)
                {
-                       /* Ooops, no way to do this in 2.0 */
+                       /* Oops, no way to do this in 2.0 */
                        printfPQExpBuffer(&conn->errorMessage,
                                                          libpq_gettext("function requires at least protocol version 3.0\n"));
                        return -1;
index 31d06cb3b0ba3566bd524f5e12eccb251b48447e..8c2365674f90cfe526d4929b14b3eacfb2cee0ce 100644 (file)
@@ -6205,10 +6205,10 @@ DPPP_(my_grok_number)(pTHX_ const char *pv, STRLEN len, UV *valuep)
     /* UVs are at least 32 bits, so the first 9 decimal digits cannot
        overflow.  */
     UV value = *s - '0';
-    /* This construction seems to be more optimiser friendly.
+    /* This construction seems to be more optimizer friendly.
        (without it gcc does the isDIGIT test and the *s - '0' separately)
        With it gcc on arm is managing 6 instructions (6 cycles) per digit.
-       In theory the optimiser could deduce how far to unroll the loop
+       In theory the optimizer could deduce how far to unroll the loop
        before checking for overflow.  */
     if (++s < send) {
       int digit = *s - '0';
@@ -6606,7 +6606,7 @@ DPPP_(my_grok_oct)(pTHX_ const char *start, STRLEN *len_p, I32 *flags, NV *resul
     bool overflowed = FALSE;
 
     for (; len-- && *s; s++) {
-         /* gcc 2.95 optimiser not smart enough to figure that this subtraction
+         /* gcc 2.95 optimizer not smart enough to figure that this subtraction
             out front allows slicker code.  */
         int digit = *s - '0';
         if (digit >= 0 && digit <= 7) {
index 196e518e0df48c257407cb1d60e891b424e5e6db..49a4e622ffd1585e3dcfc03061b259efa21f831b 100644 (file)
@@ -5543,7 +5543,7 @@ exec_eval_simple_expr(PLpgSQL_execstate *estate,
                        exec_check_rw_parameter(expr, expr->rwparam);
                if (expr->expr_simple_expr == NULL)
                {
-                       /* Ooops, release refcount and fail */
+                       /* Oops, release refcount and fail */
                        ReleaseCachedPlan(cplan, true);
                        return false;
                }
index 2b249b029d2d69ecad98b36314c53893799b18a2..e86117c8374c44b22e379382be30b51f63dfa895 100644 (file)
@@ -122,7 +122,7 @@ PLy_procedure_get(Oid fn_oid, Oid fn_rel, bool is_trigger)
        }
        PG_CATCH();
        {
-               /* Do not leave an uninitialised entry in the cache */
+               /* Do not leave an uninitialized entry in the cache */
                if (use_cache)
                        hash_search(PLy_procedure_cache, &key, HASH_REMOVE, NULL);
                PG_RE_THROW();
index 2962d5a6266f74b81893a9891c697f98b8043ea7..34acec8501a53c1a6bb2b3c4d89ec153307f35a8 100644 (file)
@@ -827,7 +827,7 @@ PLyObject_ToComposite(PLyObToDatum *arg, int32 typmod, PyObject *plrv, bool inar
 
        /*
         * This will set up the dummy PLyTypeInfo's output conversion routines,
-        * since we left is_rowtype as 2. A future optimisation could be caching
+        * since we left is_rowtype as 2. A future optimization could be caching
         * that info instead of looking it up every time a tuple is returned from
         * the function.
         */
index 210e5ff39cbcacf7844d70088403b9af0f640cf9..ce473a03efd9d8b80c4f116d8bd7d315e65a5978 100644 (file)
@@ -1,7 +1,7 @@
 --
 -- ERRORS
 --
--- bad in postquel, but ok in postsql
+-- bad in postquel, but ok in PostgreSQL
 select 1;
  ?column? 
 ----------
index 260ccd52c87b03831133d1679e28221c9f0aca84..b0886da8d707c9cc9d60e955915c530d2997f6ba 100644 (file)
@@ -375,7 +375,7 @@ select *
 ERROR:  aggregate functions are not allowed in FROM clause of their own query level
 LINE 3:        lateral (select a, b, sum(v.x) from gstest_data(v.x) ...
                                      ^
--- min max optimisation should still work with GROUP BY ()
+-- min max optimization should still work with GROUP BY ()
 explain (costs off)
   select min(unique1) from tenk1 GROUP BY ();
                          QUERY PLAN                         
index cd370b4781e09d9f6ab66272117e1fed99742de2..14bc723a52a80887fb8adcf0457babc5a69be8e5 100644 (file)
@@ -2,7 +2,7 @@
 -- ERRORS
 --
 
--- bad in postquel, but ok in postsql
+-- bad in postquel, but ok in PostgreSQL
 select 1;
 
 
index 71cc0ec90077c16ee62c38323fb9195b32a80308..cc557cc552d7cf13c7e35d81e52fb7b1247b86cd 100644 (file)
@@ -140,7 +140,7 @@ select *
   from (values (1),(2)) v(x),
        lateral (select a, b, sum(v.x) from gstest_data(v.x) group by rollup (a,b)) s;
 
--- min max optimisation should still work with GROUP BY ()
+-- min max optimization should still work with GROUP BY ()
 explain (costs off)
   select min(unique1) from tenk1 GROUP BY ();