]> granicus.if.org Git - postgresql/commitdiff
Fix hash_search to avoid corruption of the hash table on out-of-memory.
authorTom Lane <tgl@sss.pgh.pa.us>
Fri, 19 Oct 2012 19:24:10 +0000 (15:24 -0400)
committerTom Lane <tgl@sss.pgh.pa.us>
Fri, 19 Oct 2012 19:24:10 +0000 (15:24 -0400)
An out-of-memory error during expand_table() on a palloc-based hash table
would leave a partially-initialized entry in the table.  This would not be
harmful for transient hash tables, since they'd get thrown away anyway at
transaction abort.  But for long-lived hash tables, such as the relcache
hash, this would effectively corrupt the table, leading to crash or other
misbehavior later.

To fix, rearrange the order of operations so that table enlargement is
attempted before we insert a new entry, rather than after adding it
to the hash table.

Problem discovered by Hitoshi Harada, though this is a bit different
from his proposed patch.

src/backend/utils/hash/dynahash.c

index 6d0e0f5366b5a733af9bc712d8ccdb9850721f98..31ac2b25e8ffa2f50dfa4c9bde0d248baf2c0979 100644 (file)
  * lookup key's hash value as a partition number --- this will work because
  * of the way calc_bucket() maps hash values to bucket numbers.
  *
+ * For hash tables in shared memory, the memory allocator function should
+ * match malloc's semantics of returning NULL on failure.  For hash tables
+ * in local memory, we typically use palloc() which will throw error on
+ * failure.  The code in this file has to cope with both cases.
+ *
  * Portions Copyright (c) 1996-2012, PostgreSQL Global Development Group
  * Portions Copyright (c) 1994, Regents of the University of California
  *
@@ -820,6 +825,27 @@ hash_search_with_hash_value(HTAB *hashp,
        hctl->accesses++;
 #endif
 
+       /*
+        * If inserting, check if it is time to split a bucket.
+        *
+        * NOTE: failure to expand table is not a fatal error, it just means we
+        * have to run at higher fill factor than we wanted.  However, if we're
+        * using the palloc allocator then it will throw error anyway on
+        * out-of-memory, so we must do this before modifying the table.
+        */
+       if (action == HASH_ENTER || action == HASH_ENTER_NULL)
+       {
+               /*
+                * Can't split if running in partitioned mode, nor if frozen, nor if
+                * table is the subject of any active hash_seq_search scans.  Strange
+                * order of these tests is to try to check cheaper conditions first.
+                */
+               if (!IS_PARTITIONED(hctl) && !hashp->frozen &&
+                       hctl->nentries / (long) (hctl->max_bucket + 1) >= hctl->ffactor &&
+                       !has_seq_scans(hashp))
+                       (void) expand_table(hashp);
+       }
+
        /*
         * Do the initial lookup
         */
@@ -940,24 +966,12 @@ hash_search_with_hash_value(HTAB *hashp,
                        currBucket->hashvalue = hashvalue;
                        hashp->keycopy(ELEMENTKEY(currBucket), keyPtr, keysize);
 
-                       /* caller is expected to fill the data field on return */
-
                        /*
-                        * Check if it is time to split a bucket.  Can't split if running
-                        * in partitioned mode, nor if table is the subject of any active
-                        * hash_seq_search scans.  Strange order of these tests is to try
-                        * to check cheaper conditions first.
+                        * Caller is expected to fill the data field on return.  DO NOT
+                        * insert any code that could possibly throw error here, as doing
+                        * so would leave the table entry incomplete and hence corrupt the
+                        * caller's data structure.
                         */
-                       if (!IS_PARTITIONED(hctl) &&
-                       hctl->nentries / (long) (hctl->max_bucket + 1) >= hctl->ffactor &&
-                               !has_seq_scans(hashp))
-                       {
-                               /*
-                                * NOTE: failure to expand table is not a fatal error, it just
-                                * means we have to run at higher fill factor than we wanted.
-                                */
-                               expand_table(hashp);
-                       }
 
                        return (void *) ELEMENTKEY(currBucket);
        }