suppress scalar leak messages for known leaks (from
[p5sagit/p5-mst-13.2.git] / t / op / lfs.t
index 345fa26..87060e7 100644 (file)
@@ -7,15 +7,15 @@ BEGIN {
        eval { my $q = pack "q", 0 };
        if ($@) {
                print "1..0\n# no 64-bit types\n";
-               bye();
+               exit(0);
        }
        chdir 't' if -d 't';
        unshift @INC, '../lib';
        # Don't bother if there are no quad offsets.
        require Config; import Config;
        if ($Config{lseeksize} < 8) {
-               print "1..0\n# no 64-bit offsets\n";
-               bye();
+               print "1..0\n# no 64-bit file offsets\n";
+               exit(0);
        }
 }
 
@@ -25,14 +25,40 @@ sub bye {
     exit(0);
 }
 
+sub explain {
+    print <<EOM;
+#
+# If the lfs (large file support: large meaning larger than two gigabytes)
+# tests are skipped or fail, it may mean either that your process
+# (or process group) is not allowed to write large files (resource
+# limits) or that the file system you are running the tests on doesn't
+# let your user/group have large files (quota) or the filesystem simply
+# doesn't support large files.  You may even need to reconfigure your kernel.
+# (This is all very operating system and site-dependent.)
+#
+# Perl may still be able to support large files, once you have
+# such a process, enough quota, and such a (file) system.
+#
+EOM
+}
+
 # Known have-nots.
 if ($^O eq 'win32' || $^O eq 'vms') {
     print "1..0\n# no sparse files\n";
     bye();
 }
 
+# Known haves that have problems running this test
+# (for example because they do not support sparse files, like UNICOS)
+if ($^O eq 'unicos') {
+    print "1..0\n# large files known to work but unable to test them here\n";
+    bye();
+}
+
 # Then try to deduce whether we have sparse files.
 
+# Let's not depend on Fcntl or any other extension.
+
 my ($SEEK_SET, $SEEK_CUR, $SEEK_END) = (0, 1, 2);
 
 # We'll start off by creating a one megabyte file which has
@@ -52,11 +78,12 @@ my @s;
 
 print "# @s\n";
 
+my $BLOCKSIZE = $s[11] || 512;
+
 unless (@s == 13 &&
        $s[7] == 1_000_003 &&
-       defined $s[11] &&
        defined $s[12] &&
-       $s[11] * $s[12] < 1000_003) {
+        $BLOCKSIZE * $s[12] < 1_000_003) {
     print "1..0\n# no sparse files?\n";
     bye();
 }
@@ -64,73 +91,115 @@ unless (@s == 13 &&
 # By now we better be sure that we do have sparse files:
 # if we are not, the following will hog 5 gigabytes of disk.  Ooops.
 
-print "1..8\n";
-
-my $fail = 0;
+$ENV{LC_ALL} = "C";
 
 open(BIG, ">big") or do { warn "open failed: $!\n"; bye };
 binmode BIG;
 seek(BIG, 5_000_000_000, $SEEK_SET);
-print BIG "big";
-close BIG;
+
+# Either the print or (more likely, thanks to buffering) the close will
+# fail if there are are filesize limitations (process or fs).
+my $print = print BIG "big";
+my $close = close BIG if $print;
+unless ($print && $close) {
+    unless ($print) {
+        print "# print failed: $!\n"
+    } else {
+        print "# close failed: $!\n"
+    }
+    if ($! =~/too large/i) {
+       print "1..0\n# writing past 2GB failed: process limits?\n";
+    } elsif ($! =~ /quota/i) {
+       print "1..0\n# filesystem quota limits?\n";
+    }
+    explain();
+    bye();
+}
 
 @s = stat("big");
 
 print "# @s\n";
 
+unless ($s[7] == 5_000_000_003) {
+    print "1..0\n# not configured to use large files?\n";
+    explain();
+    bye();
+}
+
 sub fail () {
-    print " not ";
+    print "not ";
     $fail++;
 }
 
-fail unless $s[7] == 5_000_000_003;
+print "1..17\n";
+
+my $fail = 0;
+
+fail unless $s[7] == 5_000_000_003;    # exercizes pp_stat
 print "ok 1\n";
 
-fail unless -s "big" == 5_000_000_003;
+fail unless -s "big" == 5_000_000_003; # exercizes pp_ftsize
 print "ok 2\n";
 
+fail unless -e "big";
+print "ok 3\n";
+
+fail unless -f "big";
+print "ok 4\n";
+
 open(BIG, "big") or do { warn "open failed: $!\n"; bye };
 binmode BIG;
 
-seek(BIG, 4_500_000_000, $SEEK_SET);
+fail unless seek(BIG, 4_500_000_000, $SEEK_SET);
+print "ok 5\n";
 
 fail unless tell(BIG) == 4_500_000_000;
-print "ok 3\n";
+print "ok 6\n";
 
-seek(BIG, 1, $SEEK_CUR);
+fail unless seek(BIG, 1, $SEEK_CUR);
+print "ok 7\n";
 
 fail unless tell(BIG) == 4_500_000_001;
-print "ok 4\n";
+print "ok 8\n";
 
-seek(BIG, -1, $SEEK_CUR);
+fail unless seek(BIG, -1, $SEEK_CUR);
+print "ok 9\n";
 
 fail unless tell(BIG) == 4_500_000_000;
-print "ok 5\n";
+print "ok 10\n";
 
-seek(BIG, -3, $SEEK_END);
+fail unless seek(BIG, -3, $SEEK_END);
+print "ok 11\n";
 
 fail unless tell(BIG) == 5_000_000_000;
-print "ok 6\n";
+print "ok 12\n";
 
 my $big;
 
 fail unless read(BIG, $big, 3) == 3;
-print "ok 7\n";
+print "ok 13\n";
 
 fail unless $big eq "big";
-print "ok 8\n";
+print "ok 14\n";
 
-bye();
+# 705_032_704 = (I32)5_000_000_000
+fail unless seek(BIG, 705_032_704, $SEEK_SET);
+print "ok 15\n";
 
-if ($fail) {
-    print STDERR <<EOM;
-#
-# If the lfs (large file support) tests fail, it means that
-# the *file system* you are running the tests on doesn't support
-# large files (files larger than two gigabytes).  Perl may still
-# be able to support such files, once you have such a file system.
-#
-EOM
+my $zero;
+
+fail unless read(BIG, $zero, 3) == 3;
+print "ok 16\n";
+
+fail unless $zero eq "\0\0\0";
+print "ok 17\n";
+
+explain if $fail;
+
+bye(); # does the necessary cleanup
+
+END {
+   unlink "big"; # be paranoid about leaving 5 gig files lying around
 }
 
 # eof