]> granicus.if.org Git - postgresql/commit
Simplify some long-obsolete code in hba.c's next_token().
authorTom Lane <tgl@sss.pgh.pa.us>
Mon, 30 Jan 2017 23:42:41 +0000 (18:42 -0500)
committerTom Lane <tgl@sss.pgh.pa.us>
Mon, 30 Jan 2017 23:42:41 +0000 (18:42 -0500)
commit1e5a5d03da14ba9b734c6a2a1a822dcd8af110eb
treef02559522f0db810e648871f3703994787429ae6
parentde16ab7238888b16825ad13f0bbe123632915e9b
Simplify some long-obsolete code in hba.c's next_token().

next_token() oddly set its buffer space consumption limit to one before
the last char position in the buffer, not the last as you'd expect.
The reason is there was once an ugly kluge to mark keywords by appending
a newline to them, potentially requiring one more byte.  Commit e5e2fc842
removed that kluge, but failed to notice that the length limit could be
increased.

Also, remove some vestigial handling of newline characters in the buffer.
That was left over from when this function read the file directly using
getc().  Commit 7f49a67f9 changed it to read from a buffer, from which
tokenize_file had already removed the only possible occurrence of newline,
but did not simplify this function in consequence.

Also, ensure that we don't return with *lineptr set to someplace past the
terminating '\0'; that would be catastrophic if a caller were to ask for
another token from the same line.  This is just latent since no callers
actually do call again after a "false" return; but considering that it was
actually costing us extra code to do it wrong, we might as well make it
bulletproof.

Noted while reviewing pg_hba_file_rules patch.
src/backend/libpq/hba.c