]> granicus.if.org Git - zfs/blob - scripts/zconfig.sh
d6695be7239043ad4ae7abbb4f81288c9f4d77f4
[zfs] / scripts / zconfig.sh
1 #!/bin/bash
2 #
3 # ZFS/ZPOOL configuration test script.
4
5 basedir="$(dirname $0)"
6
7 SCRIPT_COMMON=common.sh
8 if [ -f "${basedir}/${SCRIPT_COMMON}" ]; then
9 . "${basedir}/${SCRIPT_COMMON}"
10 else
11 echo "Missing helper script ${SCRIPT_COMMON}" && exit 1
12 fi
13
14 PROG=zconfig.sh
15
16 usage() {
17 cat << EOF
18 USAGE:
19 $0 [hvcts]
20
21 DESCRIPTION:
22         ZFS/ZPOOL configuration tests
23
24 OPTIONS:
25         -h      Show this message
26         -v      Verbose
27         -c      Cleanup lo+file devices at start
28         -t <#>  Run listed tests
29         -s <#>  Skip listed tests
30
31 EOF
32 }
33
34 while getopts 'hvct:s:?' OPTION; do
35         case $OPTION in
36         h)
37                 usage
38                 exit 1
39                 ;;
40         v)
41                 VERBOSE=1
42                 ;;
43         c)
44                 CLEANUP=1
45                 ;;
46         t)
47                 TESTS_RUN=($OPTARG)
48                 ;;
49         s)
50                 TESTS_SKIP=($OPTARG)
51                 ;;
52         ?)
53                 usage
54                 exit
55                 ;;
56         esac
57 done
58
59 if [ $(id -u) != 0 ]; then
60         die "Must run as root"
61 fi
62
63 # Initialize the test suite
64 init
65
66 # Perform pre-cleanup is requested
67 if [ ${CLEANUP} ]; then
68         ${ZFS_SH} -u
69         cleanup_md_devices
70         cleanup_loop_devices
71         rm -f /tmp/zpool.cache.*
72 fi
73
74 # Check if we need to skip the tests that require scsi_debug and lsscsi.
75 SCSI_DEBUG=0
76 ${INFOMOD} scsi_debug &>/dev/null && SCSI_DEBUG=1
77 HAVE_LSSCSI=0
78 test -f ${LSSCSI} && HAVE_LSSCSI=1
79 if [ ${SCSI_DEBUG} -eq 0 ] || [ ${HAVE_LSSCSI} -eq 0 ]; then
80         echo "Skipping test 10 which requires the scsi_debug " \
81                 "module and the ${LSSCSI} utility"
82 fi
83
84 # Validate persistent zpool.cache configuration.
85 test_1() {
86         local POOL_NAME=test1
87         local TMP_FILE1=`mktemp`
88         local TMP_FILE2=`mktemp`
89         local TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
90
91         # Create a pool save its status for comparison.
92         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
93         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 || fail 2
94         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE1} || fail 3
95
96         # Unload/load the module stack and verify the pool persists.
97         ${ZFS_SH} -u || fail 4
98         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 5
99         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE2} || fail 6
100         cmp ${TMP_FILE1} ${TMP_FILE2} || fail 7
101
102         # Cleanup the test pool and temporary files
103         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 -d || fail 8
104         rm -f ${TMP_FILE1} ${TMP_FILE2} ${TMP_CACHE} || fail 9
105         ${ZFS_SH} -u || fail 10
106
107         pass
108 }
109 run_test 1 "persistent zpool.cache"
110
111 # Validate ZFS disk scanning and import w/out zpool.cache configuration.
112 test_2() {
113         local POOL_NAME=test2
114         local TMP_FILE1=`mktemp`
115         local TMP_FILE2=`mktemp`
116         local TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
117
118         # Create a pool save its status for comparison.
119         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
120         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 || fail 2
121         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE1} || fail 3
122
123         # Unload the module stack, remove the cache file, load the module
124         # stack and attempt to probe the disks to import the pool.  As
125         # a cross check verify the old pool state against the imported.
126         ${ZFS_SH} -u || fail 4
127         rm -f ${TMP_CACHE} || fail 5
128         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 6
129         ${ZPOOL} import | grep ${POOL_NAME} >/dev/null || fail 7
130         ${ZPOOL} import -f ${POOL_NAME} || fail 8
131         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE2} || fail 9
132         cmp ${TMP_FILE1} ${TMP_FILE2} || fail 10
133
134         # Cleanup the test pool and temporary files
135         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 -d || fail 11
136         rm -f ${TMP_FILE1} ${TMP_FILE2} || fail 12
137         ${ZFS_SH} -u || fail 13
138
139         pass
140 }
141 run_test 2 "scan disks for pools to import"
142
143 zconfig_zvol_device_stat() {
144         local EXPECT=$1
145         local POOL_NAME=/dev/zvol/$2
146         local ZVOL_NAME=/dev/zvol/$3
147         local SNAP_NAME=/dev/zvol/$4
148         local CLONE_NAME=/dev/zvol/$5
149         local COUNT=0
150
151         # Briefly delay for udev
152         udev_trigger
153
154         # Pool exists
155         stat ${POOL_NAME} &>/dev/null   && let COUNT=$COUNT+1
156
157         # Volume and partitions
158         stat ${ZVOL_NAME}  &>/dev/null  && let COUNT=$COUNT+1
159         stat ${ZVOL_NAME}-part1 &>/dev/null  && let COUNT=$COUNT+1
160         stat ${ZVOL_NAME}-part2 &>/dev/null  && let COUNT=$COUNT+1
161
162         # Snapshot with partitions
163         stat ${SNAP_NAME}  &>/dev/null  && let COUNT=$COUNT+1
164         stat ${SNAP_NAME}-part1 &>/dev/null  && let COUNT=$COUNT+1
165         stat ${SNAP_NAME}-part2 &>/dev/null  && let COUNT=$COUNT+1
166
167         # Clone with partitions
168         stat ${CLONE_NAME}  &>/dev/null && let COUNT=$COUNT+1
169         stat ${CLONE_NAME}-part1 &>/dev/null && let COUNT=$COUNT+1
170         stat ${CLONE_NAME}-part2 &>/dev/null && let COUNT=$COUNT+1
171
172         if [ $EXPECT -ne $COUNT ]; then
173                 return 1
174         fi
175
176         return 0
177 }
178
179 # zpool import/export device check
180 # (1 volume, 2 partitions, 1 snapshot, 1 clone)
181 test_3() {
182         local POOL_NAME=tank
183         local ZVOL_NAME=volume
184         local SNAP_NAME=snap
185         local CLONE_NAME=clone
186         local FULL_ZVOL_NAME=${POOL_NAME}/${ZVOL_NAME}
187         local FULL_SNAP_NAME=${POOL_NAME}/${ZVOL_NAME}@${SNAP_NAME}
188         local FULL_CLONE_NAME=${POOL_NAME}/${CLONE_NAME}
189         local TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
190
191         # Create a pool, volume, partition, snapshot, and clone.
192         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
193         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 || fail 2
194         ${ZFS} create -V 100M ${FULL_ZVOL_NAME} || fail 3
195         ${ZFS} set snapdev=visible ${FULL_ZVOL_NAME} || fail 3
196         label /dev/zvol/${FULL_ZVOL_NAME} msdos || fail 4
197         partition /dev/zvol/${FULL_ZVOL_NAME} primary 1% 50% || fail 4
198         partition /dev/zvol/${FULL_ZVOL_NAME} primary 51% -1 || fail 4
199         ${ZFS} snapshot ${FULL_SNAP_NAME} || fail 5
200         ${ZFS} clone ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 6
201
202         # Verify the devices were created
203         zconfig_zvol_device_stat 10 ${POOL_NAME} ${FULL_ZVOL_NAME} \
204             ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 7
205
206         # Export the pool
207         ${ZPOOL} export ${POOL_NAME} || fail 8
208
209         # verify the devices were removed
210         zconfig_zvol_device_stat 0 ${POOL_NAME} ${FULL_ZVOL_NAME} \
211             ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 9
212
213         # Import the pool, wait 1 second for udev
214         ${ZPOOL} import ${POOL_NAME} || fail 10
215
216         # Verify the devices were created
217         zconfig_zvol_device_stat 10 ${POOL_NAME} ${FULL_ZVOL_NAME} \
218             ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 11
219
220         # Destroy the pool and consequently the devices
221         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 -d || fail 12
222
223         # verify the devices were removed
224         zconfig_zvol_device_stat 0 ${POOL_NAME} ${FULL_ZVOL_NAME} \
225             ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 13
226
227         ${ZFS_SH} -u || fail 14
228         rm -f ${TMP_CACHE} || fail 15
229
230         pass
231 }
232 run_test 3 "zpool import/export device"
233
234 # zpool insmod/rmmod device check (1 volume, 1 snapshot, 1 clone)
235 test_4() {
236         POOL_NAME=tank
237         ZVOL_NAME=volume
238         SNAP_NAME=snap
239         CLONE_NAME=clone
240         FULL_ZVOL_NAME=${POOL_NAME}/${ZVOL_NAME}
241         FULL_SNAP_NAME=${POOL_NAME}/${ZVOL_NAME}@${SNAP_NAME}
242         FULL_CLONE_NAME=${POOL_NAME}/${CLONE_NAME}
243         TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
244
245         # Create a pool, volume, snapshot, and clone
246         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
247         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 || fail 2
248         ${ZFS} create -V 100M ${FULL_ZVOL_NAME} || fail 3
249         ${ZFS} set snapdev=visible ${FULL_ZVOL_NAME} || fail 3
250         label /dev/zvol/${FULL_ZVOL_NAME} msdos || fail 4
251         partition /dev/zvol/${FULL_ZVOL_NAME} primary 1% 50% || fail 4
252         partition /dev/zvol/${FULL_ZVOL_NAME} primary 51% -1 || fail 4
253         ${ZFS} snapshot ${FULL_SNAP_NAME} || fail 5
254         ${ZFS} clone ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 6
255
256         # Verify the devices were created
257         zconfig_zvol_device_stat 10 ${POOL_NAME} ${FULL_ZVOL_NAME} \
258             ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 7
259
260         # Unload the modules
261         ${ZFS_SH} -u || fail 8
262
263         # Verify the devices were removed
264         zconfig_zvol_device_stat 0 ${POOL_NAME} ${FULL_ZVOL_NAME} \
265             ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 9
266
267         # Load the modules, list the pools to ensure they are opened
268         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 10
269         ${ZPOOL} list &>/dev/null
270
271         # Verify the devices were created
272         zconfig_zvol_device_stat 10 ${POOL_NAME} ${FULL_ZVOL_NAME} \
273             ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 11
274
275         # Destroy the pool and consequently the devices
276         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 -d || fail 12
277
278         # Verify the devices were removed
279         zconfig_zvol_device_stat 0 ${POOL_NAME} ${FULL_ZVOL_NAME} \
280             ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 13
281
282         ${ZFS_SH} -u || fail 14
283         rm -f ${TMP_CACHE} || fail 15
284
285         pass
286 }
287 run_test 4 "zpool insmod/rmmod device"
288
289 # ZVOL volume sanity check
290 test_5() {
291         local POOL_NAME=tank
292         local ZVOL_NAME=fish
293         local FULL_NAME=${POOL_NAME}/${ZVOL_NAME}
294         local TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
295
296         # Create a pool and volume.
297         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
298         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raid0 || fail 2
299         ${ZFS} create -V 800M ${FULL_NAME} || fail 3
300         label /dev/zvol/${FULL_NAME} msdos || fail 4
301         partition /dev/zvol/${FULL_NAME} primary 1 -1 || fail 4
302         format /dev/zvol/${FULL_NAME}-part1 ext2 || fail 5
303
304         # Mount the ext2 filesystem and copy some data to it.
305         mkdir -p /tmp/${ZVOL_NAME}-part1 || fail 6
306         mount /dev/zvol/${FULL_NAME}-part1 /tmp/${ZVOL_NAME}-part1 || fail 7
307         cp -RL ${SRC_DIR} /tmp/${ZVOL_NAME}-part1 || fail 8
308         sync
309
310         # Verify the copied files match the original files.
311         diff -ur ${SRC_DIR} /tmp/${ZVOL_NAME}-part1/${SRC_DIR##*/} \
312                 &>/dev/null || fail 9
313
314         # Remove the files, umount, destroy the volume and pool.
315         rm -Rf /tmp/${ZVOL_NAME}-part1/${SRC_DIR##*/} || fail 10
316         umount /tmp/${ZVOL_NAME}-part1 || fail 11
317         rmdir /tmp/${ZVOL_NAME}-part1 || fail 12
318
319         ${ZFS} destroy ${FULL_NAME} || fail 13
320         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 -d || fail 14
321         ${ZFS_SH} -u || fail 15
322         rm -f ${TMP_CACHE} || fail 16
323
324         pass
325 }
326 run_test 5 "zvol+ext2 volume"
327
328 # ZVOL snapshot sanity check
329 test_6() {
330         local POOL_NAME=tank
331         local ZVOL_NAME=fish
332         local SNAP_NAME=pristine
333         local FULL_ZVOL_NAME=${POOL_NAME}/${ZVOL_NAME}
334         local FULL_SNAP_NAME=${POOL_NAME}/${ZVOL_NAME}@${SNAP_NAME}
335         local TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
336
337         # Create a pool and volume.
338         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
339         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raid0 || fail 2
340         ${ZFS} create -V 800M ${FULL_ZVOL_NAME} || fail 3
341         ${ZFS} set snapdev=visible ${FULL_ZVOL_NAME} || fail 3
342         label /dev/zvol/${FULL_ZVOL_NAME} msdos || fail 4
343         partition /dev/zvol/${FULL_ZVOL_NAME} primary 1 -1 || fail 4
344         format /dev/zvol/${FULL_ZVOL_NAME}-part1 ext2 || fail 5
345
346         # Mount the ext2 filesystem and copy some data to it.
347         mkdir -p /tmp/${ZVOL_NAME}-part1 || fail 6
348         mount /dev/zvol/${FULL_ZVOL_NAME}-part1 /tmp/${ZVOL_NAME}-part1 \
349                 || fail 7
350
351         # Snapshot the pristine ext2 filesystem and mount it read-only.
352         ${ZFS} snapshot ${FULL_SNAP_NAME} || fail 8
353         wait_udev /dev/zvol/${FULL_SNAP_NAME}-part1 30 || fail 8
354         mkdir -p /tmp/${SNAP_NAME}-part1 || fail 9
355         mount /dev/zvol/${FULL_SNAP_NAME}-part1 /tmp/${SNAP_NAME}-part1 \
356                 &>/dev/null || fail 10
357
358         # Copy to original volume
359         cp -RL ${SRC_DIR} /tmp/${ZVOL_NAME}-part1 || fail 11
360         sync
361
362         # Verify the copied files match the original files,
363         # and the copied files do NOT appear in the snapshot.
364         diff -ur ${SRC_DIR} /tmp/${ZVOL_NAME}-part1/${SRC_DIR##*/} \
365                 &>/dev/null || fail 12
366         diff -ur ${SRC_DIR} /tmp/${SNAP_NAME}-part1/${SRC_DIR##*/} \
367                 &>/dev/null && fail 13
368
369         # umount, destroy the snapshot, volume, and pool.
370         umount /tmp/${SNAP_NAME}-part1 || fail 14
371         rmdir /tmp/${SNAP_NAME}-part1 || fail 15
372         ${ZFS} destroy ${FULL_SNAP_NAME} || fail 16
373
374         umount /tmp/${ZVOL_NAME}-part1 || fail 17
375         rmdir /tmp/${ZVOL_NAME}-part1 || fail 18
376         ${ZFS} destroy ${FULL_ZVOL_NAME} || fail 19
377
378         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 -d || fail 20
379         ${ZFS_SH} -u || fail 21
380         rm -f ${TMP_CACHE} || fail 22
381
382         pass
383 }
384 run_test 6 "zvol+ext2 snapshot"
385
386 # ZVOL clone sanity check
387 test_7() {
388         local POOL_NAME=tank
389         local ZVOL_NAME=fish
390         local SNAP_NAME=pristine
391         local CLONE_NAME=clone
392         local FULL_ZVOL_NAME=${POOL_NAME}/${ZVOL_NAME}
393         local FULL_SNAP_NAME=${POOL_NAME}/${ZVOL_NAME}@${SNAP_NAME}
394         local FULL_CLONE_NAME=${POOL_NAME}/${CLONE_NAME}
395         local TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
396
397         # Create a pool and volume.
398         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
399         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 || fail 2
400         ${ZFS} create -V 300M ${FULL_ZVOL_NAME} || fail 3
401         ${ZFS} set snapdev=visible ${FULL_ZVOL_NAME} || fail 3
402         label /dev/zvol/${FULL_ZVOL_NAME} msdos || fail 4
403         partition /dev/zvol/${FULL_ZVOL_NAME} primary 1 -1 || fail 4
404         format /dev/zvol/${FULL_ZVOL_NAME}-part1 ext2 || fail 5
405
406         # Snapshot the pristine ext2 filesystem.
407         ${ZFS} snapshot ${FULL_SNAP_NAME} || fail 6
408         wait_udev /dev/zvol/${FULL_SNAP_NAME}-part1 30 || fail 7
409
410         # Mount the ext2 filesystem so some data can be copied to it.
411         mkdir -p /tmp/${ZVOL_NAME}-part1 || fail 7
412         mount /dev/zvol/${FULL_ZVOL_NAME}-part1 \
413                 /tmp/${ZVOL_NAME}-part1 || fail 8
414
415         # Mount the pristine ext2 snapshot.
416         mkdir -p /tmp/${SNAP_NAME}-part1 || fail 9
417         mount /dev/zvol/${FULL_SNAP_NAME}-part1 \
418                 /tmp/${SNAP_NAME}-part1 &>/dev/null || fail 10
419
420         # Copy to original volume.
421         cp -RL ${SRC_DIR} /tmp/${ZVOL_NAME}-part1 || fail 11
422         sync
423
424         # Verify the copied files match the original files,
425         # and the copied files do NOT appear in the snapshot.
426         diff -ur ${SRC_DIR} /tmp/${ZVOL_NAME}-part1/${SRC_DIR##*/} \
427                 &>/dev/null || fail 12
428         diff -ur ${SRC_DIR} /tmp/${SNAP_NAME}-part1/${SRC_DIR##*/} \
429                 &>/dev/null && fail 13
430
431         # Clone from the original pristine snapshot
432         ${ZFS} clone ${FULL_SNAP_NAME} ${FULL_CLONE_NAME} || fail 14
433         wait_udev /dev/zvol/${FULL_CLONE_NAME}-part1 30 || fail 14
434         mkdir -p /tmp/${CLONE_NAME}-part1 || fail 15
435         mount /dev/zvol/${FULL_CLONE_NAME}-part1 \
436                 /tmp/${CLONE_NAME}-part1 || fail 16
437
438         # Verify the clone matches the pristine snapshot,
439         # and the files copied to the original volume are NOT there.
440         diff -ur /tmp/${SNAP_NAME}-part1 /tmp/${CLONE_NAME}-part1 \
441                 &>/dev/null || fail 17
442         diff -ur /tmp/${ZVOL_NAME}-part1 /tmp/${CLONE_NAME}-part1 \
443                 &>/dev/null && fail 18
444
445         # Copy to cloned volume.
446         cp -RL ${SRC_DIR} /tmp/${CLONE_NAME}-part1 || fail 19
447         sync
448
449         # Verify the clone matches the modified original volume.
450         diff -ur /tmp/${ZVOL_NAME}-part1 /tmp/${CLONE_NAME}-part1 \
451                 &>/dev/null || fail 20
452
453         # umount, destroy the snapshot, volume, and pool.
454         umount /tmp/${CLONE_NAME}-part1 || fail 21
455         rmdir /tmp/${CLONE_NAME}-part1 || fail 22
456         ${ZFS} destroy ${FULL_CLONE_NAME} || fail 23
457
458         umount /tmp/${SNAP_NAME}-part1 || fail 24
459         rmdir /tmp/${SNAP_NAME}-part1 || fail 25
460         ${ZFS} destroy ${FULL_SNAP_NAME} || fail 26
461
462         umount /tmp/${ZVOL_NAME}-part1 || fail 27
463         rmdir /tmp/${ZVOL_NAME}-part1 || fail 28
464         ${ZFS} destroy ${FULL_ZVOL_NAME} || fail 29
465
466         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 -d || fail 30
467         ${ZFS_SH} -u || fail 31
468         rm -f ${TMP_CACHE} || fail 32
469
470         pass
471 }
472 run_test 7 "zvol+ext2 clone"
473
474 # Send/Receive sanity check
475 test_8() {
476         local POOL_NAME1=tank1
477         local POOL_NAME2=tank2
478         local ZVOL_NAME=fish
479         local SNAP_NAME=snap
480         local FULL_ZVOL_NAME1=${POOL_NAME1}/${ZVOL_NAME}
481         local FULL_ZVOL_NAME2=${POOL_NAME2}/${ZVOL_NAME}
482         local FULL_SNAP_NAME1=${POOL_NAME1}/${ZVOL_NAME}@${SNAP_NAME}
483         local FULL_SNAP_NAME2=${POOL_NAME2}/${ZVOL_NAME}@${SNAP_NAME}
484         local TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
485
486         # Create two pools and a volume
487         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
488         ${ZPOOL_CREATE_SH} -p ${POOL_NAME1} -c lo-raidz2 || fail 2
489         ${ZPOOL_CREATE_SH} -p ${POOL_NAME2} -c lo-raidz2 || fail 2
490         ${ZFS} create -V 300M ${FULL_ZVOL_NAME1} || fail 3
491         ${ZFS} set snapdev=visible ${FULL_ZVOL_NAME1} || fail 3
492         label /dev/zvol/${FULL_ZVOL_NAME1} msdos || fail 4
493         partition /dev/zvol/${FULL_ZVOL_NAME1} primary 1 -1 || fail 4
494         format /dev/zvol/${FULL_ZVOL_NAME1}-part1 ext2 || fail 5
495
496         # Mount the ext2 filesystem and copy some data to it.
497         mkdir -p /tmp/${FULL_ZVOL_NAME1}-part1 || fail 6
498         mount /dev/zvol/${FULL_ZVOL_NAME1}-part1 \
499                 /tmp/${FULL_ZVOL_NAME1}-part1 || fail 7
500         cp -RL ${SRC_DIR} /tmp/${FULL_ZVOL_NAME1}-part1 || fail 8
501
502         # Unmount, snapshot, mount the ext2 filesystem so it may be sent.
503         # We only unmount to ensure the ext2 filesystem is clean.
504         umount /tmp/${FULL_ZVOL_NAME1}-part1 || fail 9
505         ${ZFS} snapshot ${FULL_SNAP_NAME1} || fail 10
506         wait_udev /dev/zvol/${FULL_SNAP_NAME1} 30 || fail 10
507         mount /dev/zvol/${FULL_ZVOL_NAME1}-part1 \
508                 /tmp/${FULL_ZVOL_NAME1}-part1 || 11
509
510         # Send/receive the snapshot from POOL_NAME1 to POOL_NAME2
511         (${ZFS} send ${FULL_SNAP_NAME1} | \
512         ${ZFS} receive ${FULL_ZVOL_NAME2}) || fail 12
513         wait_udev /dev/zvol/${FULL_ZVOL_NAME2}-part1 30 || fail 12
514
515         # Mount the sent ext2 filesystem.
516         mkdir -p /tmp/${FULL_ZVOL_NAME2}-part1 || fail 13
517         mount /dev/zvol/${FULL_ZVOL_NAME2}-part1 \
518                 /tmp/${FULL_ZVOL_NAME2}-part1 || fail 14
519
520         # Verify the contents of the volumes match
521         diff -ur /tmp/${FULL_ZVOL_NAME1}-part1 /tmp/${FULL_ZVOL_NAME2}-part1 \
522             &>/dev/null || fail 15
523
524         # Umount, destroy the volume and pool.
525         umount /tmp/${FULL_ZVOL_NAME1}-part1 || fail 16
526         umount /tmp/${FULL_ZVOL_NAME2}-part1 || fail 17
527         rmdir /tmp/${FULL_ZVOL_NAME1}-part1 || fail 18
528         rmdir /tmp/${FULL_ZVOL_NAME2}-part1 || fail 19
529         rmdir /tmp/${POOL_NAME1} || fail 20
530         rmdir /tmp/${POOL_NAME2} || fail 21
531
532         ${ZFS} destroy ${FULL_SNAP_NAME1} || fail 22
533         ${ZFS} destroy ${FULL_SNAP_NAME2} || fail 23
534         ${ZFS} destroy ${FULL_ZVOL_NAME1} || fail 24
535         ${ZFS} destroy ${FULL_ZVOL_NAME2} || fail 25
536         ${ZPOOL_CREATE_SH} -p ${POOL_NAME1} -c lo-raidz2 -d || fail 26
537         ${ZPOOL_CREATE_SH} -p ${POOL_NAME2} -c lo-raidz2 -d || fail 27
538         ${ZFS_SH} -u || fail 28
539         rm -f ${TMP_CACHE} || fail 29
540
541         pass
542 }
543 run_test 8 "zfs send/receive"
544
545 # zpool event sanity check
546 test_9() {
547         local POOL_NAME=tank
548         local ZVOL_NAME=fish
549         local FULL_NAME=${POOL_NAME}/${ZVOL_NAME}
550         local TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
551         local TMP_EVENTS=`mktemp -p /tmp zpool.events.XXXXXXXX`
552
553         # Create a pool and volume.
554         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
555         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 || fail 2
556         ${ZFS} create -V 300M ${FULL_NAME} || fail 3
557         udev_trigger
558
559         # Dump the events, there should be at least 5 lines.
560         ${ZPOOL} events >${TMP_EVENTS} || fail 4
561         EVENTS=`wc -l ${TMP_EVENTS} | cut -f1 -d' '`
562         [ $EVENTS -lt 5 ] && fail 5
563
564         # Clear the events and ensure there are none.
565         ${ZPOOL} events -c >/dev/null || fail 6
566         ${ZPOOL} events >${TMP_EVENTS} || fail 7
567         EVENTS=`wc -l ${TMP_EVENTS} | cut -f1 -d' '`
568         [ $EVENTS -gt 1 ] && fail 8
569
570         ${ZFS} destroy ${FULL_NAME} || fail 9
571         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 -d || fail 10
572         ${ZFS_SH} -u || fail 11
573         rm -f ${TMP_CACHE} || fail 12
574         rm -f ${TMP_EVENTS} || fail 13
575
576         pass
577 }
578 run_test 9 "zpool events"
579
580 zconfig_add_vdev() {
581         local POOL_NAME=$1
582         local TYPE=$2
583         local DEVICE=$3
584         local TMP_FILE1=`mktemp`
585         local TMP_FILE2=`mktemp`
586         local TMP_FILE3=`mktemp`
587
588         BASE_DEVICE=`basename ${DEVICE}`
589
590         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE1}
591         ${ZPOOL} add -f ${POOL_NAME} ${TYPE} ${DEVICE} 2>/dev/null || return 1
592         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE2}
593         diff ${TMP_FILE1} ${TMP_FILE2} > ${TMP_FILE3}
594
595         [ `wc -l ${TMP_FILE3}|${AWK} '{print $1}'` -eq 3 ] || return 1
596
597         PARENT_VDEV=`tail -2 ${TMP_FILE3} | head -1 | ${AWK} '{print $NF}'`
598         case $TYPE in
599         cache)
600                 [ "${PARENT_VDEV}" = "${TYPE}" ] || return 1
601                 ;;
602         log)
603                 [ "${PARENT_VDEV}" = "logs" ] || return 1
604                 ;;
605         esac
606
607         if ! tail -1 ${TMP_FILE3} |
608             egrep -q "^>[[:space:]]+${BASE_DEVICE}[[:space:]]+ONLINE" ; then
609                 return 1
610         fi
611         rm -f ${TMP_FILE1} ${TMP_FILE2} ${TMP_FILE3}
612
613         return 0
614 }
615
616 # zpool add and remove sanity check
617 test_10() {
618         local POOL_NAME=tank
619         local TMP_CACHE=`mktemp -p /tmp zpool.cache.XXXXXXXX`
620         local TMP_FILE1=`mktemp`
621         local TMP_FILE2=`mktemp`
622
623         if [ ${SCSI_DEBUG} -eq 0 ] || [ ${HAVE_LSSCSI} -eq 0 ] ; then
624                 skip
625                 return
626         fi
627
628         test `${LSMOD} | grep -c scsi_debug` -gt 0 && \
629                 (${RMMOD} scsi_debug || exit 1)
630
631         /sbin/modprobe scsi_debug dev_size_mb=128 ||
632                 die "Error $? creating scsi_debug device"
633         udev_trigger
634
635         SDDEVICE=`${LSSCSI}|${AWK} '/scsi_debug/ { print $6; exit }'`
636         BASE_SDDEVICE=`basename $SDDEVICE`
637
638         # Create a pool
639         ${ZFS_SH} zfs="spa_config_path=${TMP_CACHE}" || fail 1
640         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 || fail 2
641         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE1} || fail 3
642
643         # Add and remove a cache vdev by full path
644         zconfig_add_vdev ${POOL_NAME} cache ${SDDEVICE} || fail 4
645         ${ZPOOL} remove ${POOL_NAME} ${SDDEVICE} || fail 5
646         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE2} || fail 6
647         cmp ${TMP_FILE1} ${TMP_FILE2} || fail 7
648         sleep 1
649
650         # Add and remove a cache vdev by shorthand path
651         zconfig_add_vdev ${POOL_NAME} cache ${BASE_SDDEVICE} || fail 8
652         ${ZPOOL} remove ${POOL_NAME} ${BASE_SDDEVICE} || fail 9
653         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE2} || fail 10
654         cmp ${TMP_FILE1} ${TMP_FILE2} || fail 11
655         sleep 1
656
657         # Add and remove a log vdev
658         zconfig_add_vdev ${POOL_NAME} log ${BASE_SDDEVICE} || fail 12
659         ${ZPOOL} remove ${POOL_NAME} ${BASE_SDDEVICE} || fail 13
660         ${ZPOOL} status ${POOL_NAME} >${TMP_FILE2} || fail 14
661         cmp ${TMP_FILE1} ${TMP_FILE2} || fail 15
662
663         ${ZPOOL_CREATE_SH} -p ${POOL_NAME} -c lo-raidz2 -d || fail 16
664         ${ZFS_SH} -u || fail 17
665         ${RMMOD} scsi_debug || fail 18
666
667         rm -f ${TMP_FILE1} ${TMP_FILE2} ${TMP_CACHE} || fail 19
668
669         pass
670 }
671 run_test 10 "zpool add/remove vdev"
672
673 exit 0