Started refactoring of Iterator hierarchy
[dbsrgits/DBM-Deep.git] / lib / DBM / Deep / Engine.pm
index 983b3e9..999a65c 100644 (file)
 package DBM::Deep::Engine;
 
-use 5.6.0;
+use 5.006_000;
 
 use strict;
-use warnings;
+use warnings FATAL => 'all';
 
-use Fcntl qw( :DEFAULT :flock :seek );
-use Scalar::Util ();
+use DBM::Deep::Iterator ();
 
 # File-wide notes:
-# * All the local($/,$\); are to protect read() and print() from -l.
-# * To add to bucket_size, make sure you modify the following:
-#   - calculate_sizes()
-#   - _get_key_subloc()
-#   - add_bucket() - where the buckets are printed
-
-##
-# Setup file and tag signatures.  These should never change.
-##
-sub SIG_FILE     () { 'DPDB' }
-sub SIG_HEADER   () { 'h'    }
-sub SIG_INTERNAL () { 'i'    }
-sub SIG_HASH     () { 'H'    }
-sub SIG_ARRAY    () { 'A'    }
-sub SIG_NULL     () { 'N'    }
-sub SIG_DATA     () { 'D'    }
-sub SIG_INDEX    () { 'I'    }
-sub SIG_BLIST    () { 'B'    }
-sub SIG_FREE     () { 'F'    }
-sub SIG_SIZE     () {  1     }
-
-sub new {
-    my $class = shift;
-    my ($args) = @_;
-
-    my $self = bless {
-        long_size   => 4,
-        long_pack   => 'N',
-        data_size   => 4,
-        data_pack   => 'N',
-
-        digest      => \&Digest::MD5::md5,
-        hash_size   => 16,
-
-        ##
-        # Maximum number of buckets per list before another level of indexing is
-        # done. Increase this value for slightly greater speed, but larger database
-        # files. DO NOT decrease this value below 16, due to risk of recursive
-        # reindex overrun.
-        ##
-        max_buckets => 16,
-
-        fileobj => undef,
-        obj     => undef,
-    }, $class;
-
-    if ( defined $args->{pack_size} ) {
-        if ( lc $args->{pack_size} eq 'small' ) {
-            $args->{long_size} = 2;
-            $args->{long_pack} = 'n';
-        }
-        elsif ( lc $args->{pack_size} eq 'medium' ) {
-            $args->{long_size} = 4;
-            $args->{long_pack} = 'N';
-        }
-        elsif ( lc $args->{pack_size} eq 'large' ) {
-            $args->{long_size} = 8;
-            $args->{long_pack} = 'Q';
-        }
-        else {
-            die "Unknown pack_size value: '$args->{pack_size}'\n";
-        }
-    }
-
-    # Grab the parameters we want to use
-    foreach my $param ( keys %$self ) {
-        next unless exists $args->{$param};
-        $self->{$param} = $args->{$param};
-    }
-    Scalar::Util::weaken( $self->{obj} ) if $self->{obj};
-
-    if ( $self->{max_buckets} < 16 ) {
-        warn "Floor of max_buckets is 16. Setting it to 16 from '$self->{max_buckets}'\n";
-        $self->{max_buckets} = 16;
-    }
-
-    return $self;
-}
-
-sub _fileobj { return $_[0]{fileobj} }
-sub _fh      { return $_[0]->_fileobj->{fh} }
-
-sub calculate_sizes {
-    my $self = shift;
-
-    #XXX Does this need to be updated with different hashing algorithms?
-    $self->{index_size}       = (2**8) * $self->{long_size};
-    $self->{bucket_size}      = $self->{hash_size} + $self->{long_size} * 3;
-    $self->{bucket_list_size} = $self->{max_buckets} * $self->{bucket_size};
-
-    return;
-}
-
-sub write_file_header {
-    my $self = shift;
-
-    local($/,$\);
-
-    my $fh = $self->_fh;
-
-    my $loc = $self->_request_space( length( SIG_FILE ) + 21 );
-    seek($fh, $loc + $self->_fileobj->{file_offset}, SEEK_SET);
-    print( $fh
-        SIG_FILE,
-        SIG_HEADER,
-        pack('N', 1),  # header version
-        pack('N', 12), # header size
-        pack('N', 0),  # currently running transaction IDs
-        pack('n', $self->{long_size}),
-        pack('A', $self->{long_pack}),
-        pack('n', $self->{data_size}),
-        pack('A', $self->{data_pack}),
-        pack('n', $self->{max_buckets}),
-    );
-
-    $self->_fileobj->set_transaction_offset( 13 );
+# * Every method in here assumes that the storage has been appropriately
+#   safeguarded. This can be anything from flock() to some sort of manual
+#   mutex. But, it's the caller's responsability to make sure that this has
+#   been done.
 
-    return;
-}
-
-sub read_file_header {
-    my $self = shift;
-
-    local($/,$\);
+sub SIG_HASH     () { 'H' }
+sub SIG_ARRAY    () { 'A' }
 
-    my $fh = $self->_fh;
+=head1 NAME
 
-    seek($fh, 0 + $self->_fileobj->{file_offset}, SEEK_SET);
-    my $buffer;
-    my $bytes_read = read( $fh, $buffer, length(SIG_FILE) + 9 );
+DBM::Deep::Engine
 
-    return unless $bytes_read;
+=head1 PURPOSE
 
-    my ($file_signature, $sig_header, $header_version, $size) = unpack(
-        'A4 A N N', $buffer
-    );
+This is an internal-use-only object for L<DBM::Deep/>. It mediates the low-level
+mapping between the L<DBM::Deep/> objects and the storage medium.
 
-    unless ( $file_signature eq SIG_FILE ) {
-        $self->_fileobj->close;
-        $self->_throw_error( "Signature not found -- file is not a Deep DB" );
-    }
+The purpose of this documentation is to provide low-level documentation for
+developers. It is B<not> intended to be used by the general public. This
+documentation and what it documents can and will change without notice.
 
-    unless ( $sig_header eq SIG_HEADER ) {
-        $self->_fileobj->close;
-        $self->_throw_error( "Old file version found." );
-    }
+=head1 OVERVIEW
 
-    my $buffer2;
-    $bytes_read += read( $fh, $buffer2, $size );
-    my ($running_transactions, @values) = unpack( 'N n A n A n', $buffer2 );
+The engine exposes an API to the DBM::Deep objects (DBM::Deep, DBM::Deep::Array,
+and DBM::Deep::Hash) for their use to access the actual stored values. This API
+is the following:
 
-    $self->_fileobj->set_transaction_offset( 13 );
+=over 4
 
-    if ( @values < 5 || grep { !defined } @values ) {
-        $self->_fileobj->close;
-        $self->_throw_error("Corrupted file - bad header");
-    }
+=item * new
 
-    #XXX Add warnings if values weren't set right
-    @{$self}{qw(long_size long_pack data_size data_pack max_buckets)} = @values;
-
-    return $bytes_read;
-}
+=item * read_value
 
-sub setup_fh {
-    my $self = shift;
-    my ($obj) = @_;
+=item * get_classname
 
-    local($/,$\);
-
-    my $fh = $self->_fh;
-    flock $fh, LOCK_EX;
-
-    #XXX The duplication of calculate_sizes needs to go away
-    unless ( $obj->{base_offset} ) {
-        my $bytes_read = $self->read_file_header;
-
-        $self->calculate_sizes;
-
-        ##
-        # File is empty -- write header and master index
-        ##
-        if (!$bytes_read) {
-            if ( my $afh = $self->_fileobj->{audit_fh} ) {
-                flock( $afh, LOCK_EX );
-                print( $afh "# Database created on " . localtime(time) . "\n" );
-                flock( $afh, LOCK_UN );
-            }
-
-            $self->write_file_header;
-
-            $obj->{base_offset} = $self->_request_space( $self->tag_size( $self->{index_size} ) );
-
-            $self->write_tag(
-                $obj->_base_offset, $obj->_type,
-                chr(0)x$self->{index_size},
-            );
-
-            # Flush the filehandle
-            my $old_fh = select $fh;
-            my $old_af = $|; $| = 1; $| = $old_af;
-            select $old_fh;
-        }
-        else {
-            $obj->{base_offset} = $bytes_read;
-
-            ##
-            # Get our type from master index header
-            ##
-            my $tag = $self->load_tag($obj->_base_offset);
-            unless ( $tag ) {
-                flock $fh, LOCK_UN;
-                $self->_throw_error("Corrupted file, no master index record");
-            }
-
-            unless ($obj->_type eq $tag->{signature}) {
-                flock $fh, LOCK_UN;
-                $self->_throw_error("File type mismatch");
-            }
-        }
-    }
-    else {
-        $self->calculate_sizes;
-    }
+=item * make_reference
 
-    #XXX We have to make sure we don't mess up when autoflush isn't turned on
-    unless ( $self->_fileobj->{inode} ) {
-        my @stats = stat($fh);
-        $self->_fileobj->{inode} = $stats[1];
-        $self->_fileobj->{end} = $stats[7];
-    }
+=item * key_exists
 
-    flock $fh, LOCK_UN;
+=item * delete_key
 
-    return 1;
-}
+=item * write_value
 
-sub tag_size {
-    my $self = shift;
-    my ($size) = @_;
-    return SIG_SIZE + $self->{data_size} + $size;
-}
+=item * get_next_key
 
-sub write_tag {
-    ##
-    # Given offset, signature and content, create tag and write to disk
-    ##
-    my $self = shift;
-    my ($offset, $sig, $content) = @_;
-    my $size = length( $content );
+=item * setup
 
-    local($/,$\);
+=item * begin_work
 
-    my $fh = $self->_fh;
+=item * commit
 
-    if ( defined $offset ) {
-        seek($fh, $offset + $self->_fileobj->{file_offset}, SEEK_SET);
-    }
+=item * rollback
 
-    print( $fh $sig . pack($self->{data_pack}, $size) . $content );
+=item * lock_exclusive
 
-    return unless defined $offset;
+=item * lock_shared
 
-    return {
-        signature => $sig,
-        size => $size,
-        offset => $offset + SIG_SIZE + $self->{data_size},
-        content => $content
-    };
-}
+=item * unlock
 
-sub load_tag {
-    ##
-    # Given offset, load single tag and return signature, size and data
-    ##
-    my $self = shift;
-    my ($offset) = @_;
+=back
 
-    local($/,$\);
+They are explained in their own sections below. These methods, in turn, may
+provide some bounds-checking, but primarily act to instantiate objects in the
+Engine::Sector::* hierarchy and dispatch to them.
 
-#    print join(':',map{$_||''}caller(1)), $/;
+=head1 TRANSACTIONS
 
-    my $fh = $self->_fh;
+Transactions in DBM::Deep are implemented using a variant of MVCC. This attempts
+to keep the amount of actual work done against the file low while stil providing
+Atomicity, Consistency, and Isolation. Durability, unfortunately, cannot be done
+with only one file.
 
-    seek($fh, $offset + $self->_fileobj->{file_offset}, SEEK_SET);
+=head2 STALENESS
 
-    #XXX I'm not sure this check will work if autoflush isn't enabled ...
-    return if eof $fh;
+If another process uses a transaction slot and writes stuff to it, then
+terminates, the data that process wrote it still within the file. In order to
+address this, there is also a transaction staleness counter associated within
+every write.  Each time a transaction is started, that process increments that
+transaction's staleness counter. If, when it reads a value, the staleness
+counters aren't identical, DBM::Deep will consider the value on disk to be stale
+and discard it.
 
-    my $b;
-    read( $fh, $b, SIG_SIZE + $self->{data_size} );
-    my ($sig, $size) = unpack( "A $self->{data_pack}", $b );
+=head2 DURABILITY
 
-    my $buffer;
-    read( $fh, $buffer, $size);
+The fourth leg of ACID is Durability, the guarantee that when a commit returns,
+the data will be there the next time you read from it. This should be regardless
+of any crashes or powerdowns in between the commit and subsequent read.
+DBM::Deep does provide that guarantee; once the commit returns, all of the data
+has been transferred from the transaction shadow to the HEAD. The issue arises
+with partial commits - a commit that is interrupted in some fashion. In keeping
+with DBM::Deep's "tradition" of very light error-checking and non-existent
+error-handling, there is no way to recover from a partial commit. (This is
+probably a failure in Consistency as well as Durability.)
 
-    return {
-        signature => $sig,
-        size => $size,
-        offset => $offset + SIG_SIZE + $self->{data_size},
-        content => $buffer
-    };
-}
+Other DBMSes use transaction logs (a separate file, generally) to achieve
+Durability.  As DBM::Deep is a single-file, we would have to do something
+similar to what SQLite and BDB do in terms of committing using synchonized
+writes. To do this, we would have to use a much higher RAM footprint and some
+serious programming that make my head hurts just to think about it.
 
-sub _get_dbm_object {
-    my $item = shift;
-
-    my $obj = eval {
-        local $SIG{__DIE__};
-        if ($item->isa( 'DBM::Deep' )) {
-            return $item;
-        }
-        return;
-    };
-    return $obj if $obj;
-
-    my $r = Scalar::Util::reftype( $item ) || '';
-    if ( $r eq 'HASH' ) {
-        my $obj = eval {
-            local $SIG{__DIE__};
-            my $obj = tied(%$item);
-            if ($obj->isa( 'DBM::Deep' )) {
-                return $obj;
-            }
-            return;
-        };
-        return $obj if $obj;
-    }
-    elsif ( $r eq 'ARRAY' ) {
-        my $obj = eval {
-            local $SIG{__DIE__};
-            my $obj = tied(@$item);
-            if ($obj->isa( 'DBM::Deep' )) {
-                return $obj;
-            }
-            return;
-        };
-        return $obj if $obj;
-    }
+=cut
 
-    return;
-}
+=head2 read_value( $obj, $key )
 
-sub _length_needed {
-    my $self = shift;
-    my ($value, $key) = @_;
+This takes an object that provides _base_offset() and a string. It returns the
+value stored in the corresponding Sector::Value's data section.
 
-    my $is_dbm_deep = eval {
-        local $SIG{'__DIE__'};
-        $value->isa( 'DBM::Deep' );
-    };
+=cut
 
-    my $len = SIG_SIZE + $self->{data_size}
-            + $self->{data_size} + length( $key );
+sub read_value { die "read_value must be implemented in a child class" }
 
-    if ( $is_dbm_deep && $value->_fileobj eq $self->_fileobj ) {
-        return $len + $self->{long_size};
-    }
+=head2 get_classname( $obj )
 
-    my $r = Scalar::Util::reftype( $value ) || '';
-    if ( $self->_fileobj->{autobless} ) {
-        # This is for the bit saying whether or not this thing is blessed.
-        $len += 1;
-    }
+This takes an object that provides _base_offset() and returns the classname (if
+any) associated with it.
 
-    unless ( $r eq 'HASH' || $r eq 'ARRAY' ) {
-        if ( defined $value ) {
-            $len += length( $value );
-        }
-        return $len;
-    }
+It delegates to Sector::Reference::get_classname() for the heavy lifting.
 
-    $len += $self->{index_size};
+It performs a staleness check.
 
-    # if autobless is enabled, must also take into consideration
-    # the class name as it is stored after the key.
-    if ( $self->_fileobj->{autobless} ) {
-        my $c = Scalar::Util::blessed($value);
-        if ( defined $c && !$is_dbm_deep ) {
-            $len += $self->{data_size} + length($c);
-        }
-    }
+=cut
 
-    return $len;
-}
+sub get_classname { die "get_classname must be implemented in a child class" }
 
-sub add_bucket {
-    ##
-    # Adds one key/value pair to bucket list, given offset, MD5 digest of key,
-    # plain (undigested) key and value.
-    ##
-    my $self = shift;
-    my ($tag, $md5, $plain_key, $value, $deleted, $orig_key) = @_;
-    $deleted ||= 0;
+=head2 make_reference( $obj, $old_key, $new_key )
 
-    local($/,$\);
+This takes an object that provides _base_offset() and two strings. The
+strings correspond to the old key and new key, respectively. This operation
+is equivalent to (given C<< $db->{foo} = []; >>) C<< $db->{bar} = $db->{foo} >>.
 
-    # This verifies that only supported values will be stored.
-    {
-        my $r = Scalar::Util::reftype( $value );
-        last if !defined $r;
+This returns nothing.
 
-        last if $r eq 'HASH';
-        last if $r eq 'ARRAY';
+=cut
 
-        $self->_throw_error(
-            "Storage of variables of type '$r' is not supported."
-        );
-    }
+sub make_reference { die "make_reference must be implemented in a child class" }
 
-    my $location = 0;
-    my $result = 2;
+=head2 key_exists( $obj, $key )
 
-    my $root = $self->_fileobj;
-    my $fh   = $self->_fh;
+This takes an object that provides _base_offset() and a string for
+the key to be checked. This returns 1 for true and "" for false.
 
-    my $actual_length = $self->_length_needed( $value, $plain_key );
+=cut
 
-    #ACID - This is a mutation. Must only find the exact transaction
-    my ($subloc, $offset, $size,$is_deleted) = $self->_find_in_buckets( $tag, $md5, 1 );
+sub key_exists { die "key_exists must be implemented in a child class" }
 
-    my @transactions;
-    if ( $self->_fileobj->transaction_id == 0 ) {
-        @transactions = $self->_fileobj->current_transactions;
-    }
+=head2 delete_key( $obj, $key )
 
-#    $self->_release_space( $size, $subloc );
-    # Updating a known md5
-#XXX This needs updating to use _release_space
-    if ( $subloc ) {
-        $result = 1;
-
-        if ($actual_length <= $size) {
-            $location = $subloc;
-        }
-        else {
-            $location = $self->_request_space( $actual_length );
-            seek(
-                $fh,
-                $tag->{offset} + $offset
-              + $self->{hash_size} + $root->{file_offset},
-                SEEK_SET,
-            );
-            print( $fh pack($self->{long_pack}, $location ) );
-            print( $fh pack($self->{long_pack}, $actual_length ) );
-            print( $fh pack('n n', $root->transaction_id, $deleted ) );
-        }
-    }
-    # Adding a new md5
-    elsif ( defined $offset ) {
-        $location = $self->_request_space( $actual_length );
-
-        seek( $fh, $tag->{offset} + $offset + $root->{file_offset}, SEEK_SET );
-        print( $fh $md5 . pack($self->{long_pack}, $location ) );
-        print( $fh pack($self->{long_pack}, $actual_length ) );
-        print( $fh pack('n n', $root->transaction_id, $deleted ) );
-
-        for ( @transactions ) {
-            my $tag2 = $self->load_tag( $tag->{offset} - SIG_SIZE - $self->{data_size} );
-            $self->_fileobj->{transaction_id} = $_;
-            $self->add_bucket( $tag2, $md5, '', '', 1, $orig_key );
-            $self->_fileobj->{transaction_id} = 0;
-        }
-    }
-    # If bucket didn't fit into list, split into a new index level
-    # split_index() will do the _request_space() call
-    else {
-        $location = $self->split_index( $md5, $tag );
-    }
+This takes an object that provides _base_offset() and a string for
+the key to be deleted. This returns the result of the Sector::Reference
+delete_key() method.
 
-    $self->write_value( $location, $plain_key, $value, $orig_key );
+=cut
 
-    return $result;
-}
+sub delete_key { die "delete_key must be implemented in a child class" }
 
-sub write_value {
-    my $self = shift;
-    my ($location, $key, $value, $orig_key) = @_;
+=head2 write_value( $obj, $key, $value )
 
-    local($/,$\);
+This takes an object that provides _base_offset(), a string for the
+key, and a value. This value can be anything storable within L<DBM::Deep/>.
 
-    my $fh = $self->_fh;
-    my $root = $self->_fileobj;
+This returns 1 upon success.
 
-    my $dbm_deep_obj = _get_dbm_object( $value );
-    if ( $dbm_deep_obj && $dbm_deep_obj->_fileobj ne $self->_fileobj ) {
-        $self->_throw_error( "Cannot cross-reference. Use export() instead" );
-    }
+=cut
 
-    seek($fh, $location + $root->{file_offset}, SEEK_SET);
+sub write_value { die "write_value must be implemented in a child class" }
 
-    ##
-    # Write signature based on content type, set content length and write
-    # actual value.
-    ##
-    my $r = Scalar::Util::reftype( $value ) || '';
-    if ( $dbm_deep_obj ) {
-        $self->write_tag( undef, SIG_INTERNAL,pack($self->{long_pack}, $dbm_deep_obj->_base_offset) );
-    }
-    elsif ($r eq 'HASH') {
-        if ( !$dbm_deep_obj && tied %{$value} ) {
-            $self->_throw_error( "Cannot store something that is tied" );
-        }
-        $self->write_tag( undef, SIG_HASH, chr(0)x$self->{index_size} );
-    }
-    elsif ($r eq 'ARRAY') {
-        if ( !$dbm_deep_obj && tied @{$value} ) {
-            $self->_throw_error( "Cannot store something that is tied" );
-        }
-        $self->write_tag( undef, SIG_ARRAY, chr(0)x$self->{index_size} );
-    }
-    elsif (!defined($value)) {
-        $self->write_tag( undef, SIG_NULL, '' );
-    }
-    else {
-        $self->write_tag( undef, SIG_DATA, $value );
-    }
+=head2 setup( $obj )
 
-    ##
-    # Plain key is stored AFTER value, as keys are typically fetched less often.
-    ##
-    print( $fh pack($self->{data_pack}, length($key)) . $key );
-
-    # Internal references don't care about autobless
-    return 1 if $dbm_deep_obj;
-
-    ##
-    # If value is blessed, preserve class name
-    ##
-    if ( $root->{autobless} ) {
-        my $c = Scalar::Util::blessed($value);
-        if ( defined $c && !$dbm_deep_obj ) {
-            print( $fh chr(1) );
-            print( $fh pack($self->{data_pack}, length($c)) . $c );
-        }
-        else {
-            print( $fh chr(0) );
-        }
-    }
+This takes an object that provides _base_offset(). It will do everything needed
+in order to properly initialize all values for necessary functioning. If this is
+called upon an already initialized object, this will also reset the inode.
 
-    ##
-    # Tie the passed in reference so that changes to it are reflected in the
-    # datafile. The use of $location as the base_offset will act as the
-    # the linkage between parent and child.
-    #
-    # The overall assignment is a hack around the fact that just tying doesn't
-    # store the values. This may not be the wrong thing to do.
-    ##
-    if ($r eq 'HASH') {
-        my %x = %$value;
-        tie %$value, 'DBM::Deep', {
-            base_offset => $location,
-            fileobj     => $root,
-            parent      => $self->{obj},
-            parent_key  => $orig_key,
-        };
-        %$value = %x;
-    }
-    elsif ($r eq 'ARRAY') {
-        my @x = @$value;
-        tie @$value, 'DBM::Deep', {
-            base_offset => $location,
-            fileobj     => $root,
-            parent      => $self->{obj},
-            parent_key  => $orig_key,
-        };
-        @$value = @x;
-    }
+This returns 1.
 
-    return 1;
-}
+=cut
 
-sub split_index {
-    my $self = shift;
-    my ($md5, $tag) = @_;
+sub setup { die "setup must be implemented in a child class" }
 
-    local($/,$\);
+=head2 begin_work( $obj )
 
-    my $fh = $self->_fh;
-    my $root = $self->_fileobj;
+This takes an object that provides _base_offset(). It will set up all necessary
+bookkeeping in order to run all work within a transaction.
 
-    my $loc = $self->_request_space(
-        $self->tag_size( $self->{index_size} ),
-    );
+If $obj is already within a transaction, an error wiill be thrown. If there are
+no more available transactions, an error will be thrown.
 
-    seek($fh, $tag->{ref_loc} + $root->{file_offset}, SEEK_SET);
-    print( $fh pack($self->{long_pack}, $loc) );
+This returns undef.
 
-    my $index_tag = $self->write_tag(
-        $loc, SIG_INDEX,
-        chr(0)x$self->{index_size},
-    );
+=cut
 
-    my $newtag_loc = $self->_request_space(
-        $self->tag_size( $self->{bucket_list_size} ),
-    );
+sub begin_work { die "begin_work must be implemented in a child class" }
 
-    my $keys = $tag->{content}
-             . $md5 . pack($self->{long_pack}, $newtag_loc)
-                    . pack($self->{long_pack}, 0)  # size
-                    . pack($self->{long_pack}, 0); # transaction ID
+=head2 rollback( $obj )
 
-    my @newloc = ();
-    BUCKET:
-    for (my $i = 0; $i <= $self->{max_buckets}; $i++) {
-        my ($key, $old_subloc, $size) = $self->_get_key_subloc( $keys, $i );
+This takes an object that provides _base_offset(). It will revert all
+actions taken within the running transaction.
 
-        die "[INTERNAL ERROR]: No key in split_index()\n" unless $key;
-        die "[INTERNAL ERROR]: No subloc in split_index()\n" unless $old_subloc;
+If $obj is not within a transaction, an error will be thrown.
 
-        my $num = ord(substr($key, $tag->{ch} + 1, 1));
+This returns 1.
 
-        if ($newloc[$num]) {
-            seek($fh, $newloc[$num] + $root->{file_offset}, SEEK_SET);
-            my $subkeys;
-            read( $fh, $subkeys, $self->{bucket_list_size});
+=cut
 
-            # This is looking for the first empty spot
-            my ($subloc, $offset, $size) = $self->_find_in_buckets(
-                { content => $subkeys }, '',
-            );
+sub rollback { die "rollback must be implemented in a child class" }
 
-            seek($fh, $newloc[$num] + $offset + $root->{file_offset}, SEEK_SET);
-            print( $fh $key . pack($self->{long_pack}, $old_subloc) );
+=head2 commit( $obj )
 
-            next;
-        }
+This takes an object that provides _base_offset(). It will apply all
+actions taken within the transaction to the HEAD.
 
-        seek($fh, $index_tag->{offset} + ($num * $self->{long_size}) + $root->{file_offset}, SEEK_SET);
+If $obj is not within a transaction, an error will be thrown.
 
-        my $loc = $self->_request_space(
-            $self->tag_size( $self->{bucket_list_size} ),
-        );
+This returns 1.
 
-        print( $fh pack($self->{long_pack}, $loc) );
+=cut
 
-        my $blist_tag = $self->write_tag(
-            $loc, SIG_BLIST,
-            chr(0)x$self->{bucket_list_size},
-        );
+sub commit { die "commit must be implemented in a child class" }
 
-        seek($fh, $blist_tag->{offset} + $root->{file_offset}, SEEK_SET);
-        print( $fh $key . pack($self->{long_pack}, $old_subloc) );
+=head2 get_next_key( $obj, $prev_key )
 
-        $newloc[$num] = $blist_tag->{offset};
-    }
+This takes an object that provides _base_offset() and an optional string
+representing the prior key returned via a prior invocation of this method.
 
-    $self->_release_space(
-        $self->tag_size( $self->{bucket_list_size} ),
-        $tag->{offset} - SIG_SIZE - $self->{data_size},
-    );
+This method delegates to C<< DBM::Deep::Iterator->get_next_key() >>.
 
-    return $newtag_loc;
-}
+=cut
 
-sub read_from_loc {
+# XXX Add staleness here
+sub get_next_key {
     my $self = shift;
-    my ($subloc, $orig_key) = @_;
-
-    local($/,$\);
-
-    my $fh = $self->_fh;
-
-    ##
-    # Found match -- seek to offset and read signature
-    ##
-    my $signature;
-    seek($fh, $subloc + $self->_fileobj->{file_offset}, SEEK_SET);
-    read( $fh, $signature, SIG_SIZE);
-
-    ##
-    # If value is a hash or array, return new DBM::Deep object with correct offset
-    ##
-    if (($signature eq SIG_HASH) || ($signature eq SIG_ARRAY)) {
-        my $new_obj = DBM::Deep->new({
-            type        => $signature,
-            base_offset => $subloc,
-            fileobj     => $self->_fileobj,
-            parent      => $self->{obj},
-            parent_key  => $orig_key,
+    my ($obj, $prev_key) = @_;
+
+    # XXX Need to add logic about resetting the iterator if any key in the
+    # reference has changed
+    unless ( $prev_key ) {
+        $obj->{iterator} = $self->iterator_class->new({
+            base_offset => $obj->_base_offset,
+            engine      => $self,
         });
-
-        if ($new_obj->_fileobj->{autobless}) {
-            ##
-            # Skip over value and plain key to see if object needs
-            # to be re-blessed
-            ##
-            seek($fh, $self->{data_size} + $self->{index_size}, SEEK_CUR);
-
-            my $size;
-            read( $fh, $size, $self->{data_size});
-            $size = unpack($self->{data_pack}, $size);
-            if ($size) { seek($fh, $size, SEEK_CUR); }
-
-            my $bless_bit;
-            read( $fh, $bless_bit, 1);
-            if (ord($bless_bit)) {
-                ##
-                # Yes, object needs to be re-blessed
-                ##
-                my $class_name;
-                read( $fh, $size, $self->{data_size});
-                $size = unpack($self->{data_pack}, $size);
-                if ($size) { read( $fh, $class_name, $size); }
-                if ($class_name) { $new_obj = bless( $new_obj, $class_name ); }
-            }
-        }
-
-        return $new_obj;
-    }
-    elsif ( $signature eq SIG_INTERNAL ) {
-        my $size;
-        read( $fh, $size, $self->{data_size});
-        $size = unpack($self->{data_pack}, $size);
-
-        if ( $size ) {
-            my $new_loc;
-            read( $fh, $new_loc, $size );
-            $new_loc = unpack( $self->{long_pack}, $new_loc );
-
-            return $self->read_from_loc( $new_loc, $orig_key );
-        }
-        else {
-            return;
-        }
-    }
-    ##
-    # Otherwise return actual value
-    ##
-    elsif ( $signature eq SIG_DATA ) {
-        my $size;
-        read( $fh, $size, $self->{data_size});
-        $size = unpack($self->{data_pack}, $size);
-
-        my $value = '';
-        if ($size) { read( $fh, $value, $size); }
-        return $value;
     }
 
-    ##
-    # Key exists, but content is null
-    ##
-    return;
-}
-
-sub get_bucket_value {
-    ##
-    # Fetch single value given tag and MD5 digested key.
-    ##
-    my $self = shift;
-    my ($tag, $md5, $orig_key) = @_;
-
-    #ACID - This is a read. Can find exact or HEAD
-    my ($subloc, $offset, $size,$is_deleted) = $self->_find_in_buckets( $tag, $md5 );
-    if ( $subloc && !$is_deleted ) {
-        return $self->read_from_loc( $subloc, $orig_key );
-    }
-    return;
+    return $obj->{iterator}->get_next_key( $obj );
 }
 
-sub delete_bucket {
-    ##
-    # Delete single key/value pair given tag and MD5 digested key.
-    ##
-    my $self = shift;
-    my ($tag, $md5) = @_;
+=head2 lock_exclusive()
 
-    local($/,$\);
+This takes an object that provides _base_offset(). It will guarantee that
+the storage has taken precautions to be safe for a write.
 
-    #ACID - This is a mutation. Must only find the exact transaction
-    my ($subloc, $offset, $size) = $self->_find_in_buckets( $tag, $md5, 1 );
-#XXX This needs _release_space()
-    if ( $subloc ) {
-        my $fh = $self->_fh;
-        seek($fh, $tag->{offset} + $offset + $self->_fileobj->{file_offset}, SEEK_SET);
-        print( $fh substr($tag->{content}, $offset + $self->{bucket_size} ) );
-        print( $fh chr(0) x $self->{bucket_size} );
+This returns nothing.
 
-        return 1;
-    }
-    return;
-}
+=cut
 
-sub bucket_exists {
-    ##
-    # Check existence of single key given tag and MD5 digested key.
-    ##
+sub lock_exclusive {
     my $self = shift;
-    my ($tag, $md5) = @_;
-
-    #ACID - This is a read. Can find exact or HEAD
-    my ($subloc, $offset, $size, $is_deleted) = $self->_find_in_buckets( $tag, $md5 );
-    return ($subloc && !$is_deleted) && 1;
+    my ($obj) = @_;
+    return $self->storage->lock_exclusive( $obj );
 }
 
-sub find_bucket_list {
-    ##
-    # Locate offset for bucket list, given digested key
-    ##
-    my $self = shift;
-    my ($offset, $md5, $args) = @_;
-    $args = {} unless $args;
-
-    local($/,$\);
-
-    ##
-    # Locate offset for bucket list using digest index system
-    ##
-    my $tag = $self->load_tag( $offset )
-        or $self->_throw_error( "INTERNAL ERROR - Cannot find tag" );
-
-    my $ch = 0;
-    while ($tag->{signature} ne SIG_BLIST) {
-        my $num = ord substr($md5, $ch, 1);
-
-        my $ref_loc = $tag->{offset} + ($num * $self->{long_size});
-        $tag = $self->index_lookup( $tag, $num );
-
-        if (!$tag) {
-            return if !$args->{create};
-
-            my $loc = $self->_request_space(
-                $self->tag_size( $self->{bucket_list_size} ),
-            );
-
-            my $fh = $self->_fh;
-            seek($fh, $ref_loc + $self->_fileobj->{file_offset}, SEEK_SET);
-            print( $fh pack($self->{long_pack}, $loc) );
-
-            $tag = $self->write_tag(
-                $loc, SIG_BLIST,
-                chr(0)x$self->{bucket_list_size},
-            );
+=head2 lock_shared()
 
-            $tag->{ref_loc} = $ref_loc;
-            $tag->{ch} = $ch;
+This takes an object that provides _base_offset(). It will guarantee that
+the storage has taken precautions to be safe for a read.
 
-            last;
-        }
+This returns nothing.
 
-        $tag->{ch} = $ch++;
-        $tag->{ref_loc} = $ref_loc;
-    }
-
-    return $tag;
-}
+=cut
 
-sub index_lookup {
-    ##
-    # Given index tag, lookup single entry in index and return .
-    ##
+sub lock_shared {
     my $self = shift;
-    my ($tag, $index) = @_;
-
-    my $location = unpack(
-        $self->{long_pack},
-        substr(
-            $tag->{content},
-            $index * $self->{long_size},
-            $self->{long_size},
-        ),
-    );
+    my ($obj) = @_;
+    return $self->storage->lock_shared( $obj );
+}
 
-    if (!$location) { return; }
+=head2 unlock()
 
-    return $self->load_tag( $location );
-}
+This takes an object that provides _base_offset(). It will guarantee that
+the storage has released the most recently-taken lock.
 
-sub traverse_index {
-    ##
-    # Scan index and recursively step into deeper levels, looking for next key.
-    ##
-    my $self = shift;
-    my ($obj, $offset, $ch, $force_return_next) = @_;
-
-    local($/,$\);
-
-    my $tag = $self->load_tag( $offset );
-
-    my $fh = $self->_fh;
-
-    if ($tag->{signature} ne SIG_BLIST) {
-        my $content = $tag->{content};
-        my $start = $obj->{return_next} ? 0 : ord(substr($obj->{prev_md5}, $ch, 1));
-
-        for (my $idx = $start; $idx < (2**8); $idx++) {
-            my $subloc = unpack(
-                $self->{long_pack},
-                substr(
-                    $content,
-                    $idx * $self->{long_size},
-                    $self->{long_size},
-                ),
-            );
-
-            if ($subloc) {
-                my $result = $self->traverse_index(
-                    $obj, $subloc, $ch + 1, $force_return_next,
-                );
-
-                if (defined($result)) { return $result; }
-            }
-        } # index loop
-
-        $obj->{return_next} = 1;
-    } # tag is an index
-
-    else {
-        my $keys = $tag->{content};
-        if ($force_return_next) { $obj->{return_next} = 1; }
-
-        ##
-        # Iterate through buckets, looking for a key match
-        ##
-        for (my $i = 0; $i < $self->{max_buckets}; $i++) {
-            my ($key, $subloc) = $self->_get_key_subloc( $keys, $i );
-
-            # End of bucket list -- return to outer loop
-            if (!$subloc) {
-                $obj->{return_next} = 1;
-                last;
-            }
-            # Located previous key -- return next one found
-            elsif ($key eq $obj->{prev_md5}) {
-                $obj->{return_next} = 1;
-                next;
-            }
-            # Seek to bucket location and skip over signature
-            elsif ($obj->{return_next}) {
-                seek($fh, $subloc + $self->_fileobj->{file_offset}, SEEK_SET);
-
-                # Skip over value to get to plain key
-                my $sig;
-                read( $fh, $sig, SIG_SIZE );
-
-                my $size;
-                read( $fh, $size, $self->{data_size});
-                $size = unpack($self->{data_pack}, $size);
-                if ($size) { seek($fh, $size, SEEK_CUR); }
-
-                # Read in plain key and return as scalar
-                my $plain_key;
-                read( $fh, $size, $self->{data_size});
-                $size = unpack($self->{data_pack}, $size);
-                if ($size) { read( $fh, $plain_key, $size); }
-
-                return $plain_key;
-            }
-        }
-
-        $obj->{return_next} = 1;
-    } # tag is a bucket list
+This returns nothing.
 
-    return;
-}
+=cut
 
-sub get_next_key {
-    ##
-    # Locate next key, given digested previous one
-    ##
+sub unlock {
     my $self = shift;
     my ($obj) = @_;
 
-    $obj->{prev_md5} = $_[1] ? $_[1] : undef;
-    $obj->{return_next} = 0;
-
-    ##
-    # If the previous key was not specifed, start at the top and
-    # return the first one found.
-    ##
-    if (!$obj->{prev_md5}) {
-        $obj->{prev_md5} = chr(0) x $self->{hash_size};
-        $obj->{return_next} = 1;
-    }
-
-    return $self->traverse_index( $obj, $obj->_base_offset, 0 );
-}
+    my $rv = $self->storage->unlock( $obj );
 
-# Utilities
+    $self->flush if $rv;
 
-sub _get_key_subloc {
-    my $self = shift;
-    my ($keys, $idx) = @_;
-
-    my ($key, $subloc, $size, $transaction_id, $is_deleted) = unpack(
-        # This is 'a', not 'A'. Please read the pack() documentation for the
-        # difference between the two and why it's important.
-        "a$self->{hash_size} $self->{long_pack}2 n2",
-        substr(
-            $keys,
-            ($idx * $self->{bucket_size}),
-            $self->{bucket_size},
-        ),
-    );
-
-    return ($key, $subloc, $size, $transaction_id, $is_deleted);
+    return $rv;
 }
 
-sub _find_in_buckets {
-    my $self = shift;
-    my ($tag, $md5, $exact) = @_;
-
-    my $trans_id = $self->_fileobj->transaction_id;
-
-    my @zero;
-
-    BUCKET:
-    for ( my $i = 0; $i < $self->{max_buckets}; $i++ ) {
-        my ($key, $subloc, $size, $transaction_id, $is_deleted) = $self->_get_key_subloc(
-            $tag->{content}, $i,
-        );
+=head1 INTERNAL METHODS
 
-        my @rv = ($subloc, $i * $self->{bucket_size}, $size, $is_deleted);
+The following methods are internal-use-only to DBM::Deep::Engine and its
+child classes.
 
-        unless ( $subloc ) {
-            if ( !$exact && @zero and $trans_id ) {
-                @rv = ($zero[2], $zero[0] * $self->{bucket_size},$zero[3],$is_deleted);
-            }
-            return @rv;
-        }
+=cut
 
-        next BUCKET if $key ne $md5;
+=head2 flush()
 
-        # Save off the HEAD in case we need it.
-        @zero = ($i,$key,$subloc,$size,$transaction_id,$is_deleted) if $transaction_id == 0;
+This takes no arguments. It will do everything necessary to flush all things to
+disk. This is usually called during unlock() and setup().
 
-        next BUCKET if $transaction_id != $trans_id;
+This returns nothing.
 
-        return @rv;
-    }
-
-    return;
-}
-
-sub _request_space {
-    my $self = shift;
-    my ($size) = @_;
-
-    my $loc = $self->_fileobj->{end};
-    $self->_fileobj->{end} += $size;
+=cut
 
-    return $loc;
-}
-
-sub _release_space {
+sub flush {
     my $self = shift;
-    my ($size, $loc) = @_;
-
-    local($/,$\);
 
-    my $next_loc = 0;
-
-    my $fh = $self->_fh;
-    seek( $fh, $loc + $self->_fileobj->{file_offset}, SEEK_SET );
-    print( $fh SIG_FREE
-        . pack($self->{long_pack}, $size )
-        . pack($self->{long_pack}, $next_loc )
-    );
+    # Why do we need to have the storage flush? Shouldn't autoflush take care of
+    # things? -RobK, 2008-06-26
+    $self->storage->flush;
 
     return;
 }
 
-sub _throw_error {
-    die "DBM::Deep: $_[1]\n";
-}
-
-1;
-__END__
-
-# This will be added in later, after more refactoring is done. This is an early
-# attempt at refactoring on the physical level instead of the virtual level.
-sub _read_at {
-    my $self = shift;
-    my ($spot, $amount, $unpack) = @_;
-
-    local($/,$\);
-
-    my $fh = $self->_fh;
-    seek( $fh, $spot + $self->_fileobj->{file_offset}, SEEK_SET );
-
-    my $buffer;
-    my $bytes_read = read( $fh, $buffer, $amount );
-
-    if ( $unpack ) {
-        $buffer = unpack( $unpack, $buffer );
-    }
-
-    if ( wantarray ) {
-        return ($buffer, $bytes_read);
-    }
-    else {
-        return $buffer;
-    }
-}
-
-sub _print_at {
-    my $self = shift;
-    my ($spot, $data) = @_;
-
-    local($/,$\);
-
-    my $fh = $self->_fh;
-    seek( $fh, $spot, SEEK_SET );
-    print( $fh $data );
+=head2 load_sector( $loc )
 
-    return;
-}
+This takes an id/location/offset and loads the sector based on the engine's
+defined sector type.
 
-sub get_file_version {
-    my $self = shift;
+=cut
 
-    local($/,$\);
+sub load_sector { $_[0]->sector_type->load( @_ ) }
 
-    my $fh = $self->_fh;
+=head2 ACCESSORS
 
-    seek( $fh, 13 + $self->_fileobj->{file_offset}, SEEK_SET );
-    my $buffer;
-    my $bytes_read = read( $fh, $buffer, 4 );
-    unless ( $bytes_read == 4 ) {
-        $self->_throw_error( "Cannot read file version" );
-    }
+The following are readonly attributes.
 
-    return unpack( 'N', $buffer );
-}
+=over 4
 
-sub write_file_version {
-    my $self = shift;
-    my ($new_version) = @_;
+=item * storage
 
-    local($/,$\);
+=back
 
-    my $fh = $self->_fh;
+=cut
 
-    seek( $fh, 13 + $self->_fileobj->{file_offset}, SEEK_SET );
-    print( $fh pack( 'N', $new_version ) );
+sub storage { $_[0]{storage} }
 
-    return;
-}
+sub sector_type { die "sector_type must be implemented in a child class" }
 
+1;
+__END__