]> granicus.if.org Git - postgresql/commitdiff
Remove whitespace from end of lines
authorPeter Eisentraut <peter_e@gmx.net>
Tue, 15 May 2012 19:19:04 +0000 (22:19 +0300)
committerPeter Eisentraut <peter_e@gmx.net>
Tue, 15 May 2012 19:19:41 +0000 (22:19 +0300)
pgindent and perltidy should clean up the rest.

24 files changed:
contrib/pg_upgrade/TESTING
doc/src/sgml/client-auth.sgml
doc/src/sgml/func.sgml
doc/src/sgml/installation.sgml
doc/src/sgml/pgupgrade.sgml
doc/src/sgml/ref/pg_dump.sgml
doc/src/sgml/ref/pg_restore.sgml
doc/src/sgml/release.sgml
src/backend/utils/misc/guc-file.l
src/interfaces/libpq/Makefile
src/pl/plperl/expected/plperl_array.out
src/pl/plperl/sql/plperl_array.sql
src/test/regress/expected/alter_table.out
src/test/regress/expected/create_function_3.out
src/test/regress/expected/foreign_data.out
src/test/regress/expected/json.out
src/test/regress/sql/alter_table.sql
src/test/regress/sql/create_function_3.sql
src/test/regress/sql/foreign_data.sql
src/test/regress/sql/json.sql
src/tools/copyright.pl
src/tools/msvc/README
src/tools/msvc/install.bat
src/tools/pginclude/pgrminclude

index d38b205f49c2385bdbff778b5dc24022d11a63e8..2043b40ae8cfbba7d3848851433a6d043cd06e28 100644 (file)
@@ -13,8 +13,8 @@ Here are the steps needed to create a regression database dump file:
     This database can be created by running 'gmake installcheck' from
     src/test/regression.
 
-2)  Use pg_dump to dump out the regression database.  Use the new 
-    cluster's pg_dump on the old database to minimize whitespace 
+2)  Use pg_dump to dump out the regression database.  Use the new
+    cluster's pg_dump on the old database to minimize whitespace
     differences in the diff.
 
 3)  Adjust the regression database dump file
index 31ce45d4ca2e279697f1dad83e49e02469411039..cfdb33a1fd6508aac31b0a87b8bb3ed73432c618 100644 (file)
@@ -188,7 +188,7 @@ hostnossl  <replaceable>database</replaceable>  <replaceable>user</replaceable>
        obsolete but still accepted spelling of <literal>samerole</>.)
        Superusers are not considered to be members of a role for the
        purposes of <literal>samerole</> unless they are explicitly
-       members of the role, directly or indirectly, and not just by 
+       members of the role, directly or indirectly, and not just by
        virtue of being a superuser.
        The value <literal>replication</> specifies that the record
        matches if a replication connection is requested (note that
index 59f5299f7f1aae8a02308601a76ee037ef6b101d..29538888cb5f62a3765a42efe5a807c7165b07c6 100644 (file)
@@ -9648,8 +9648,8 @@ table2-mapping
          <literal>array_to_json(anyarray [, pretty_bool])</literal>
        </entry>
        <entry>
-         Returns the array as JSON. A Postgres multi-dimensional array 
-         becomes a JSON array of arrays. Line feeds will be added between 
+         Returns the array as JSON. A Postgres multi-dimensional array
+         becomes a JSON array of arrays. Line feeds will be added between
          dimension 1 elements if pretty_bool is true.
        </entry>
        <entry><literal>array_to_json('{{1,5},{99,100}}'::int[])</literal></entry>
@@ -9663,7 +9663,7 @@ table2-mapping
          <literal>row_to_json(record [, pretty_bool])</literal>
        </entry>
        <entry>
-         Returns the row as JSON. Line feeds will be added between level 
+         Returns the row as JSON. Line feeds will be added between level
          1 elements if pretty_bool is true.
        </entry>
        <entry><literal>row_to_json(row(1,'foo'))</literal></entry>
@@ -13812,7 +13812,7 @@ SELECT pg_type_is_visible('myschema.widget'::regtype);
       <row>
        <entry><literal><function>pg_get_viewdef(<parameter>view_name</parameter>, <parameter>pretty_bool</>)</function></literal></entry>
        <entry><type>text</type></entry>
-       <entry>get underlying <command>SELECT</command> command for view, 
+       <entry>get underlying <command>SELECT</command> command for view,
               lines with fields are wrapped to 80 columns if pretty_bool is true (<emphasis>deprecated</emphasis>)</entry>
       </row>
       <row>
@@ -13823,13 +13823,13 @@ SELECT pg_type_is_visible('myschema.widget'::regtype);
       <row>
        <entry><literal><function>pg_get_viewdef(<parameter>view_oid</parameter>, <parameter>pretty_bool</>)</function></literal></entry>
        <entry><type>text</type></entry>
-       <entry>get underlying <command>SELECT</command> command for view, 
+       <entry>get underlying <command>SELECT</command> command for view,
               lines with fields are wrapped to 80 columns if pretty_bool is true</entry>
       </row>
       <row>
        <entry><literal><function>pg_get_viewdef(<parameter>view_oid</parameter>, <parameter>wrap_int</>)</function></literal></entry>
        <entry><type>text</type></entry>
-       <entry>get underlying <command>SELECT</command> command for view, 
+       <entry>get underlying <command>SELECT</command> command for view,
               wrapping lines with fields as specified, pretty printing is implied</entry>
       </row>
       <row>
index 609e004a336f16f88abe996cc5bef10a41e4973a..d6fc3f0fbbdb1fa3b9eb36e360e9e4f88cbfed7f 100644 (file)
@@ -1622,7 +1622,7 @@ PostgreSQL, contrib and HTML documentation successfully made. Ready to install.
     On some systems with shared libraries
     you need to tell the system how to find the newly installed
     shared libraries.  The systems on which this is
-    <emphasis>not</emphasis> necessary include 
+    <emphasis>not</emphasis> necessary include
     <systemitem class="osname">FreeBSD</>,
     <systemitem class="osname">HP-UX</>, <systemitem
     class="osname">IRIX</>, <systemitem class="osname">Linux</>,
index ef99212b0fda417bb2efee896248f11ff7f16409..99d248b43a5e94d40176b6bb566264fdbd5f3146 100644 (file)
@@ -270,7 +270,7 @@ gmake prefix=/usr/local/pgsql.new install
 
     <para>
      Install any custom shared object files (or DLLs) used by the old cluster
-     into the new cluster, e.g. <filename>pgcrypto.so</filename>, 
+     into the new cluster, e.g. <filename>pgcrypto.so</filename>,
      whether they are from <filename>contrib</filename>
      or some other source. Do not install the schema definitions, e.g.
      <filename>pgcrypto.sql</>, because these will be upgraded from the old cluster.
index a5e53043267be3b2a72387e9b50020dfb1821edf..4f7f5109fb9dc979196e86a7e437e39c600433eb 100644 (file)
@@ -403,11 +403,11 @@ PostgreSQL documentation
         Dump only the object definitions (schema), not data.
        </para>
        <para>
-        To exclude table data for only a subset of tables in the database, 
+        To exclude table data for only a subset of tables in the database,
         see <option>--exclude-table-data</>.
        </para>
        <para>
-        This option is equivalent to specifying 
+        This option is equivalent to specifying
         <option>--section=pre-data --section=post-data</>.
        </para>
       </listitem>
@@ -417,13 +417,13 @@ PostgreSQL documentation
        <term><option>--section=<replaceable class="parameter">sectionname</replaceable></option></term>
        <listitem>
          <para>
-           Only dump the named section. The name can be one of <option>pre-data</>, <option>data</> 
-           and <option>post-data</>. 
+           Only dump the named section. The name can be one of <option>pre-data</>, <option>data</>
+           and <option>post-data</>.
            This option can be specified more than once. The default is to dump all sections.
          </para>
          <para>
-           Post-data items consist of definitions of indexes, triggers, rules 
-           and constraints other than validated check constraints. 
+           Post-data items consist of definitions of indexes, triggers, rules
+           and constraints other than validated check constraints.
            Pre-data items consist of all other data definition items.
          </para>
        </listitem>
@@ -640,7 +640,7 @@ PostgreSQL documentation
         Do not dump data for any tables matching the <replaceable
         class="parameter">table</replaceable> pattern. The pattern is
         interpreted according to the same rules as for <option>-t</>.
-        <option>--exclude-table-data</> can be given more than once to 
+        <option>--exclude-table-data</> can be given more than once to
         exclude tables matching any of several patterns. This option is
         useful when you need the definition of a particular table even
         though you do not need the data in it.
index 47e972223e69db06af079fdf8639018a47fc9492..513b946e571321373a970011a99b4c5fbdcca29a 100644 (file)
         uses the word <quote>schema</> in a different meaning.)
        </para>
        <para>
-        This option is equivalent to specifying 
+        This option is equivalent to specifying
         <option>--section=pre-data --section=post-data</>.
        </para>
       </listitem>
        <term><option>--section=<replaceable class="parameter">sectionname</replaceable></option></term>
        <listitem>
          <para>
-           Only restore the named section. The name can be one of <option>pre-data</>, <option>data</> 
-           and <option>post-data</>. 
+           Only restore the named section. The name can be one of <option>pre-data</>, <option>data</>
+           and <option>post-data</>.
            This option can be specified more than once. The default is to restore all sections.
          </para>
          <para>
-           Post-data items consist of definitions of indexes, triggers, rules 
-           and constraints other than validated check constraints. 
+           Post-data items consist of definitions of indexes, triggers, rules
+           and constraints other than validated check constraints.
            Pre-data items consist of all other data definition items.
          </para>
        </listitem>
index 4103c5d48bdf2c39f44685b7921600808942d6d4..2515329b99e2d8b97a93ac6cf166c2e65742e07a 100644 (file)
@@ -29,7 +29,7 @@ non-ASCII characters            find using grep -P '[\x80-\xFF]'
         does not support it
           http://www.pemberley.com/janeinfo/latin1.html#latexta
 
-        do not use numeric _UTF_ numeric character escapes (&#nnn;), 
+        do not use numeric _UTF_ numeric character escapes (&#nnn;),
         we can only use Latin1
 
         Example: Alvaro Herrera is &Aacute;lvaro Herrera
index 1a5e383b15081e4790532c2d186d8ad98f20f6bd..ca7619034f46b51cbdf9fba5831854d942bd2e2e 100644 (file)
@@ -431,8 +431,8 @@ ParseConfigFile(const char *config_file, const char *calling_file, bool strict,
                        return false;
                }
 
-               ereport(LOG, 
-                               (errmsg("skipping missing configuration file \"%s\"", 
+               ereport(LOG,
+                               (errmsg("skipping missing configuration file \"%s\"",
                                                config_file)));
                return OK;
        }
index ec4fdd403e4f390d0cdfe1f876c88eca4732d3e3..b71b0c76ef35e63575f0002d595a49ca18c4c8cd 100644 (file)
@@ -85,7 +85,7 @@ backend_src = $(top_srcdir)/src/backend
 # compile with appropriate options to build a shared lib, we can't
 # necessarily use the same object files as the backend uses. Instead,
 # symlink the source files in here and build our own object file.
-# For some libpgport modules, this only happens if configure decides 
+# For some libpgport modules, this only happens if configure decides
 # the module is needed (see filter hack in OBJS, above).
 
 chklocale.c crypt.c getaddrinfo.c getpeereid.c inet_aton.c inet_net_ntop.c noblock.c open.c pgsleep.c pgstrcasecmp.c snprintf.c strerror.c strlcpy.c thread.c win32error.c win32setlocale.c: % : $(top_srcdir)/src/port/%
@@ -141,7 +141,7 @@ clean distclean: clean-lib
        rm -f pg_config_paths.h
        rm -f inet_net_ntop.c noblock.c pgstrcasecmp.c thread.c
        rm -f chklocale.c crypt.c getaddrinfo.c getpeereid.c inet_aton.c open.c snprintf.c strerror.c strlcpy.c win32error.c win32setlocale.c
-       rm -f pgsleep.c 
+       rm -f pgsleep.c
        rm -f md5.c ip.c
        rm -f encnames.c wchar.c
 
index 829733fef4f8e389ee8da13873eb79c8f67aa8ba..efa884b359f39e6721dc476fe1cd642c450bc2ab 100644 (file)
@@ -131,7 +131,7 @@ CREATE OR REPLACE FUNCTION plperl_sum_row_elements(rowfoo) RETURNS TEXT AS $$
        }
        else {
                $result = $row_ref->{bar};
-               die "not an array reference".ref ($row_ref->{baz}) 
+               die "not an array reference".ref ($row_ref->{baz})
                unless (is_array_ref($row_ref->{baz}));
                # process a single-dimensional array
                foreach my $elem (@{$row_ref->{baz}}) {
@@ -159,7 +159,7 @@ CREATE OR REPLACE FUNCTION plperl_sum_array_of_rows(rowbar) RETURNS TEXT AS $$
                        foreach my $row_ref (@{$row_array_ref}) {
                                if (ref $row_ref eq 'HASH') {
                                        $result += $row_ref->{bar};
-                                       die "not an array reference".ref ($row_ref->{baz}) 
+                                       die "not an array reference".ref ($row_ref->{baz})
                                        unless (is_array_ref($row_ref->{baz}));
                                        foreach my $elem (@{$row_ref->{baz}}) {
                                                $result += $elem unless ref $elem;
@@ -177,7 +177,7 @@ CREATE OR REPLACE FUNCTION plperl_sum_array_of_rows(rowbar) RETURNS TEXT AS $$
        }
        return $result;
 $$ LANGUAGE plperl;
-select plperl_sum_array_of_rows(ROW(ARRAY[ROW(1, ARRAY[2,3,4,5,6,7,8,9,10])::rowfoo, 
+select plperl_sum_array_of_rows(ROW(ARRAY[ROW(1, ARRAY[2,3,4,5,6,7,8,9,10])::rowfoo,
 ROW(11, ARRAY[12,13,14,15,16,17,18,19,20])::rowfoo])::rowbar);
  plperl_sum_array_of_rows 
 --------------------------
index 818a48ec200d6c18d95e6e2e98e2f7c6bd49506c..0031472645962caa89ac5b74ae3b7268122ffe2e 100644 (file)
@@ -90,7 +90,7 @@ CREATE OR REPLACE FUNCTION plperl_sum_row_elements(rowfoo) RETURNS TEXT AS $$
        }
        else {
                $result = $row_ref->{bar};
-               die "not an array reference".ref ($row_ref->{baz}) 
+               die "not an array reference".ref ($row_ref->{baz})
                unless (is_array_ref($row_ref->{baz}));
                # process a single-dimensional array
                foreach my $elem (@{$row_ref->{baz}}) {
@@ -116,7 +116,7 @@ CREATE OR REPLACE FUNCTION plperl_sum_array_of_rows(rowbar) RETURNS TEXT AS $$
                        foreach my $row_ref (@{$row_array_ref}) {
                                if (ref $row_ref eq 'HASH') {
                                        $result += $row_ref->{bar};
-                                       die "not an array reference".ref ($row_ref->{baz}) 
+                                       die "not an array reference".ref ($row_ref->{baz})
                                        unless (is_array_ref($row_ref->{baz}));
                                        foreach my $elem (@{$row_ref->{baz}}) {
                                                $result += $elem unless ref $elem;
@@ -135,7 +135,7 @@ CREATE OR REPLACE FUNCTION plperl_sum_array_of_rows(rowbar) RETURNS TEXT AS $$
        return $result;
 $$ LANGUAGE plperl;
 
-select plperl_sum_array_of_rows(ROW(ARRAY[ROW(1, ARRAY[2,3,4,5,6,7,8,9,10])::rowfoo, 
+select plperl_sum_array_of_rows(ROW(ARRAY[ROW(1, ARRAY[2,3,4,5,6,7,8,9,10])::rowfoo,
 ROW(11, ARRAY[12,13,14,15,16,17,18,19,20])::rowfoo])::rowbar);
 
 -- check arrays as out parameters
index 890a51fd9e882cfbabda9ee2758fb90b2b53a2a4..456a729517f85ade34ea3fee4142ed101741ca3c 100644 (file)
@@ -384,7 +384,7 @@ DROP TABLE tmp2;
 -- NOT VALID with plan invalidation -- ensure we don't use a constraint for
 -- exclusion until validated
 set constraint_exclusion TO 'partition';
-create table nv_parent (d date); 
+create table nv_parent (d date);
 create table nv_child_2010 () inherits (nv_parent);
 create table nv_child_2011 () inherits (nv_parent);
 alter table nv_child_2010 add check (d between '2010-01-01'::date and '2010-12-31'::date) not valid;
@@ -1968,7 +1968,7 @@ create view alter1.v1 as select * from alter1.t1;
 create function alter1.plus1(int) returns int as 'select $1+1' language sql;
 create domain alter1.posint integer check (value > 0);
 create type alter1.ctype as (f1 int, f2 text);
-create function alter1.same(alter1.ctype, alter1.ctype) returns boolean language sql 
+create function alter1.same(alter1.ctype, alter1.ctype) returns boolean language sql
 as 'select $1.f1 is not distinct from $2.f1 and $1.f2 is not distinct from $2.f2';
 create operator alter1.=(procedure = alter1.same, leftarg  = alter1.ctype, rightarg = alter1.ctype);
 create operator class alter1.ctype_hash_ops default for type alter1.ctype using hash as
index eac3de57ccb42aea146f34b0f546117cfcd2f924..e7952322dc2ac59c19b6a198a8ca386dee0873a8 100644 (file)
@@ -8,7 +8,7 @@ CREATE SCHEMA temp_func_test;
 GRANT ALL ON SCHEMA temp_func_test TO public;
 SET search_path TO temp_func_test, public;
 --
--- ARGUMENT and RETURN TYPES 
+-- ARGUMENT and RETURN TYPES
 --
 CREATE FUNCTION functest_A_1(text, date) RETURNS bool LANGUAGE 'sql'
        AS 'SELECT $1 = ''abcd'' AND $2 > ''2001-01-01''';
index b3165d5901439cc87a205615eeff972272927d71..af72c91d74f3c340e11becad79ff7b438049a069 100644 (file)
@@ -1183,7 +1183,7 @@ NOTICE:  drop cascades to user mapping for public
 DROP SERVER t2;
 DROP USER MAPPING FOR regress_test_role SERVER s6;
 -- This test causes some order dependent cascade detail output,
--- so switch to terse mode for it. 
+-- so switch to terse mode for it.
 \set VERBOSITY terse
 DROP FOREIGN DATA WRAPPER foo CASCADE;
 NOTICE:  drop cascades to 5 other objects
index fa8415cdb77c5a5e6adac2084b2bb53e9389bc54..a26c64a599d7e8b3df445844ffc46f20d29592a1 100644 (file)
@@ -279,10 +279,10 @@ SELECT array_to_json(array_agg(q),true) from (select x as b, x * 2 as c from gen
 (1 row)
 
 SELECT array_to_json(array_agg(q),false)
-  FROM ( SELECT $$a$$ || x AS b, y AS c, 
+  FROM ( SELECT $$a$$ || x AS b, y AS c,
                ARRAY[ROW(x.*,ARRAY[1,2,3]),
-               ROW(y.*,ARRAY[4,5,6])] AS z 
-         FROM generate_series(1,2) x, 
+               ROW(y.*,ARRAY[4,5,6])] AS z
+         FROM generate_series(1,2) x,
               generate_series(4,5) y) q;
                                                                                                                                  array_to_json                                                                                                                                 
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
@@ -308,12 +308,12 @@ SELECT row_to_json(row(1,'foo'));
  {"f1":1,"f2":"foo"}
 (1 row)
 
-SELECT row_to_json(q) 
-FROM (SELECT $$a$$ || x AS b, 
-         y AS c, 
+SELECT row_to_json(q)
+FROM (SELECT $$a$$ || x AS b,
+         y AS c,
          ARRAY[ROW(x.*,ARRAY[1,2,3]),
-               ROW(y.*,ARRAY[4,5,6])] AS z 
-      FROM generate_series(1,2) x, 
+               ROW(y.*,ARRAY[4,5,6])] AS z
+      FROM generate_series(1,2) x,
            generate_series(4,5) y) q;
                             row_to_json                             
 --------------------------------------------------------------------
@@ -323,12 +323,12 @@ FROM (SELECT $$a$$ || x AS b,
  {"b":"a2","c":5,"z":[{"f1":2,"f2":[1,2,3]},{"f1":5,"f2":[4,5,6]}]}
 (4 rows)
 
-SELECT row_to_json(q,true) 
-FROM (SELECT $$a$$ || x AS b, 
-         y AS c, 
+SELECT row_to_json(q,true)
+FROM (SELECT $$a$$ || x AS b,
+         y AS c,
          ARRAY[ROW(x.*,ARRAY[1,2,3]),
-               ROW(y.*,ARRAY[4,5,6])] AS z 
-      FROM generate_series(1,2) x, 
+               ROW(y.*,ARRAY[4,5,6])] AS z
+      FROM generate_series(1,2) x,
            generate_series(4,5) y) q;
                      row_to_json                     
 -----------------------------------------------------
@@ -349,7 +349,7 @@ FROM (SELECT $$a$$ || x AS b,
 CREATE TEMP TABLE rows AS
 SELECT x, 'txt' || x as y
 FROM generate_series(1,3) AS x;
-SELECT row_to_json(q,true) 
+SELECT row_to_json(q,true)
 FROM rows q;
  row_to_json  
 --------------
index 5c03123b4e005eefc45411408036170ea1d6a74f..5ca537e91bcbe33d8e2792d552ba6b0592c6e97b 100644 (file)
@@ -327,7 +327,7 @@ DROP TABLE tmp2;
 -- NOT VALID with plan invalidation -- ensure we don't use a constraint for
 -- exclusion until validated
 set constraint_exclusion TO 'partition';
-create table nv_parent (d date); 
+create table nv_parent (d date);
 create table nv_child_2010 () inherits (nv_parent);
 create table nv_child_2011 () inherits (nv_parent);
 alter table nv_child_2010 add check (d between '2010-01-01'::date and '2010-12-31'::date) not valid;
@@ -1348,7 +1348,7 @@ create domain alter1.posint integer check (value > 0);
 
 create type alter1.ctype as (f1 int, f2 text);
 
-create function alter1.same(alter1.ctype, alter1.ctype) returns boolean language sql 
+create function alter1.same(alter1.ctype, alter1.ctype) returns boolean language sql
 as 'select $1.f1 is not distinct from $2.f1 and $1.f2 is not distinct from $2.f2';
 
 create operator alter1.=(procedure = alter1.same, leftarg  = alter1.ctype, rightarg = alter1.ctype);
index 4693db63cdc815cce2ebfb30819a1e3762b9d091..e2dd9a35a02f7845c524da378aca61611c85cdce 100644 (file)
@@ -11,7 +11,7 @@ GRANT ALL ON SCHEMA temp_func_test TO public;
 SET search_path TO temp_func_test, public;
 
 --
--- ARGUMENT and RETURN TYPES 
+-- ARGUMENT and RETURN TYPES
 --
 CREATE FUNCTION functest_A_1(text, date) RETURNS bool LANGUAGE 'sql'
        AS 'SELECT $1 = ''abcd'' AND $2 > ''2001-01-01''';
index 4137969e7de72865c394ba3691aad4a10d5383ce..38057db7b449e0c9d4ecb81b3ec7c63b56d981e3 100644 (file)
@@ -484,7 +484,7 @@ DROP SERVER t1 CASCADE;
 DROP SERVER t2;
 DROP USER MAPPING FOR regress_test_role SERVER s6;
 -- This test causes some order dependent cascade detail output,
--- so switch to terse mode for it. 
+-- so switch to terse mode for it.
 \set VERBOSITY terse
 DROP FOREIGN DATA WRAPPER foo CASCADE;
 \set VERBOSITY default
index ab1c41c1c4c98562c25fef87296696507dd9ac6c..27454ad362361eff818874a08b3dbdf57255fa2c 100644 (file)
@@ -62,10 +62,10 @@ SELECT array_to_json(array(select 1 as a));
 SELECT array_to_json(array_agg(q),false) from (select x as b, x * 2 as c from generate_series(1,3) x) q;
 SELECT array_to_json(array_agg(q),true) from (select x as b, x * 2 as c from generate_series(1,3) x) q;
 SELECT array_to_json(array_agg(q),false)
-  FROM ( SELECT $$a$$ || x AS b, y AS c, 
+  FROM ( SELECT $$a$$ || x AS b, y AS c,
                ARRAY[ROW(x.*,ARRAY[1,2,3]),
-               ROW(y.*,ARRAY[4,5,6])] AS z 
-         FROM generate_series(1,2) x, 
+               ROW(y.*,ARRAY[4,5,6])] AS z
+         FROM generate_series(1,2) x,
               generate_series(4,5) y) q;
 SELECT array_to_json(array_agg(x),false) from generate_series(5,10) x;
 SELECT array_to_json('{{1,5},{99,100}}'::int[]);
@@ -73,27 +73,27 @@ SELECT array_to_json('{{1,5},{99,100}}'::int[]);
 -- row_to_json
 SELECT row_to_json(row(1,'foo'));
 
-SELECT row_to_json(q) 
-FROM (SELECT $$a$$ || x AS b, 
-         y AS c, 
+SELECT row_to_json(q)
+FROM (SELECT $$a$$ || x AS b,
+         y AS c,
          ARRAY[ROW(x.*,ARRAY[1,2,3]),
-               ROW(y.*,ARRAY[4,5,6])] AS z 
-      FROM generate_series(1,2) x, 
+               ROW(y.*,ARRAY[4,5,6])] AS z
+      FROM generate_series(1,2) x,
            generate_series(4,5) y) q;
 
-SELECT row_to_json(q,true) 
-FROM (SELECT $$a$$ || x AS b, 
-         y AS c, 
+SELECT row_to_json(q,true)
+FROM (SELECT $$a$$ || x AS b,
+         y AS c,
          ARRAY[ROW(x.*,ARRAY[1,2,3]),
-               ROW(y.*,ARRAY[4,5,6])] AS z 
-      FROM generate_series(1,2) x, 
+               ROW(y.*,ARRAY[4,5,6])] AS z
+      FROM generate_series(1,2) x,
            generate_series(4,5) y) q;
 
 CREATE TEMP TABLE rows AS
 SELECT x, 'txt' || x as y
 FROM generate_series(1,3) AS x;
 
-SELECT row_to_json(q,true) 
+SELECT row_to_json(q,true)
 FROM rows q;
 
 SELECT row_to_json(row((select array_agg(x) as d from generate_series(5,10) x)),false);
@@ -111,4 +111,3 @@ FROM (SELECT '-Infinity'::float8 AS "float8field") q;
 -- json input
 SELECT row_to_json(q)
 FROM (SELECT '{"a":1,"b": [2,3,4,"d","e","f"],"c":{"p":1,"q":2}}'::json AS "jsonfield") q;
-
index db5a2f023c3a0dbf23d90f73755640d4def81235..d78a8d8ce88835198dc96b9d1292d36cdc1b0d1a 100755 (executable)
@@ -1,4 +1,4 @@
-#!/usr/bin/perl 
+#!/usr/bin/perl
 #################################################################
 # copyright.pl -- update copyright notices throughout the source tree, idempotently.
 #
index bbadb34829c39bec404708dcd7a3df28d4381035..3b2939ad68692c2e097430aedc3a60858cdf2412 100644 (file)
@@ -76,7 +76,7 @@ Solution.pm            module containing the code to generate the Visual
                        Studio solution files.
 VCBuildProject.pm      module containing the code to generate VCBuild based
                        project files (Visual Studio 2005/2008)
-VSObjectFactory.pm     factory module providing the code to create the 
+VSObjectFactory.pm     factory module providing the code to create the
                        appropriate project/solution files for the current
                        environment
 
index 1d2ab9c9b0a7128d809eaa2b600bf3d7bb148fcf..c636cbd7f70db47665ca993a9e3ebc5d1288637a 100644 (file)
@@ -18,7 +18,7 @@ IF NOT EXIST buildenv.pl goto nobuildenv
 perl -e "require 'buildenv.pl'; while(($k,$v) = each %%ENV) { print qq[\@SET $k=$v\n]; }" > bldenv.bat
 CALL bldenv.bat
 del bldenv.bat
-:nobuildenv 
+:nobuildenv
 
 perl install.pl "%1"
 
index 383c5044bd7cd84f649fd5a10dc47fa5221b0f87..7cbd2e7c9cab1d9a4c2ac303550a5ef9afb17376 100755 (executable)
@@ -43,7 +43,7 @@ verbose_output() {
 
 process_includes_in_file() {
        # loop through all includes mentioned in the file
-       cat "$FILE" | 
+       cat "$FILE" |
        grep "^#include\>" |
        grep -v '/\* *pgrminclude  *ignore *\*/' |
        sed 's/^#include[       ]*[<"]\([^>"]*\).*$/\1/g' |
@@ -80,7 +80,7 @@ compile_file() {
        grep -v "^#else" |
        grep -v "^#elif" |
        grep -v "^#endif" |
-       # with #if blocks gone, now undef #defines to avoid redefine 
+       # with #if blocks gone, now undef #defines to avoid redefine
        # warning and failure
        sed 's/#define[         ][      ]*\([A-Za-z0-9_]*\).*$/#undef \1\n&/' >/tmp/$$a
 
@@ -121,7 +121,7 @@ compile_file() {
        fi
 }
 
-# Process include files first because they can affect the compilation 
+# Process include files first because they can affect the compilation
 # of *.c files.
 (find . \( -name .git -a -prune \) -o -type f -name '*.h' -print | sort;
  find . \( -name .git -a -prune \) -o -type f -name '*.c' -print | sort) |