Merge 'trunk' into 'DBIx-Class-current'
Brandon L. Black [Tue, 22 May 2007 01:40:14 +0000 (01:40 +0000)]
r30913@brandon-blacks-computer (orig r3263):  matthewt | 2007-05-06 11:52:36 -0500
patch from soulchild (thanks!)
r31140@brandon-blacks-computer (orig r3318):  castaway | 2007-05-17 07:56:49 -0500
Applied patch from Pedro Melo to fix order of components in the example

r31938@brandon-blacks-computer (orig r3348):  ilmari | 2007-05-21 15:23:36 -0500
Copy the working mk_hash from HashRefInflator in -current into Cookbook

r31946@brandon-blacks-computer (orig r3355):  blblack | 2007-05-21 20:21:42 -0500
connect_info should return the same data it was given

1  2 
lib/DBIx/Class/Manual/Cookbook.pod
lib/DBIx/Class/Storage/DBI.pm

@@@ -70,6 -70,56 +70,56 @@@ This results in the following C<WHERE> 
  For more information on generating complex queries, see
  L<SQL::Abstract/WHERE CLAUSES>.
  
+ =head3 Arbitrary SQL through a custom ResultSource
+ Sometimes you have to run arbitrary SQL because your query is too complex
+ (e.g. it contains Unions, Sub-Selects, Stored Procedures, etc.) or has to
+ be optimized for your database in a special way, but you still want to 
+ get the results as a L<DBIx::Class::ResultSet>. 
+ The recommended way to accomplish this is by defining a separate ResultSource 
+ for your query. You can then inject complete SQL statements using a scalar 
+ reference (this is a feature of L<SQL::Abstract>).
+ Say you want to run a complex custom query on your user data, here's what
+ you have to add to your User class:
+   package My::Schema::User;
+   
+   use base qw/DBIx::Class/;
+   
+   # ->load_components, ->table, ->add_columns, etc.
+   # Make a new ResultSource based on the User class
+   my $source = __PACKAGE__->result_source_instance();
+   my $new_source = $source->new( $source );
+   $new_source->source_name( 'UserFriendsComplex' );
+   
+   # Hand in your query as a scalar reference
+   # It will be added as a sub-select after FROM,
+   # so pay attention to the surrounding brackets!
+   $new_source->name( \<<SQL );
+   ( SELECT u.* FROM user u 
+   INNER JOIN user_friends f ON u.id = f.user_id 
+   WHERE f.friend_user_id = ?
+   UNION 
+   SELECT u.* FROM user u 
+   INNER JOIN user_friends f ON u.id = f.friend_user_id 
+   WHERE f.user_id = ? )
+   SQL 
+   # Finally, register your new ResultSource with your Schema
+   My::Schema->register_source( 'UserFriendsComplex' => $new_source );
+ Next, you can execute your complex query using bind parameters like this:
+   my $friends = [ $schema->resultset( 'UserFriendsComplex' )->search( {}, 
+     {
+       bind  => [ 12345, 12345 ]
+     }
+   ) ];
+   
+ ... and you'll get back a perfect L<DBIx::Class::ResultSet>.
  =head3 Using specific columns
  
  When you only want specific columns from a table, you can use
@@@ -494,7 -544,7 +544,7 @@@ To order C<< $book->pages >> by descend
  =head2 Transactions
  
  As of version 0.04001, there is improved transaction support in
 -L<DBIx::Class::Storage::DBI> and L<DBIx::Class::Schema>.  Here is an
 +L<DBIx::Class::Storage> and L<DBIx::Class::Schema>.  Here is an
  example of the recommended way to use it:
  
    my $genus = $schema->resultset('Genus')->find(12);
@@@ -914,7 -964,7 +964,7 @@@ method
  
  =head2 Profiling
  
 -When you enable L<DBIx::Class::Storage::DBI>'s debugging it prints the SQL
 +When you enable L<DBIx::Class::Storage>'s debugging it prints the SQL
  executed as well as notifications of query completion and transaction
  begin/commit.  If you'd like to profile the SQL you can subclass the
  L<DBIx::Class::Storage::Statistics> class and write your own profiling
@@@ -1109,18 -1159,60 +1159,18 @@@ B<Test File> test.p
  
  DBIx::Class is not built for speed, it's built for convenience and
  ease of use, but sometimes you just need to get the data, and skip the
 -fancy objects. Luckily this is also fairly easy using
 -C<inflate_result>:
 -
 -  # Define a class which just returns the results as a hashref:
 -  package My::HashRefInflator;
 -
 -  ## $me is the hashref of cols/data from the immediate resultsource
 -  ## $prefetch is a deep hashref of all the data from the prefetched
 -  ##   related sources.
 -
 -  sub mk_hash {
 -     my ($me, $rest) = @_;
 -
 -     # to avoid emtpy has_many rels contain one empty hashref
 -     return if (not keys %$me);
 -
 -     my $def;
 -
 -     foreach (values %$me) {
 -         if (defined $_) {
 -             $def = 1;
 -             last;
 -         }
 -     }
 -     return unless $def;
 -
 -     return { %$me,
 -         map {
 -           ( $_ =>
 -              ref($rest->{$_}[0]) eq 'ARRAY' ? [ map { mk_hash(@$_) } @{$rest->{$_}} ]
 -                                             : mk_hash( @{$rest->{$_}} )
 -           )
 -         } keys %$rest
 -     };
 -  }
 -
 -  sub inflate_result {
 -     my ($self, $source, $me, $prefetch) = @_;
 -     return mk_hash($me, $prefetch); 
 -  }
 -
 -  # Change the object inflation to a hashref for just this resultset:
 -  $rs->result_class('My::HashRefInflator');
 -
 -  my $datahashref = $rs->next;
 -  foreach my $col (keys %$datahashref) {
 -     if(!ref($datahashref->{$col})) {
 -        # It's a plain value
 -     }
 -     elsif(ref($datahashref->{$col} eq 'HASH')) {
 -        # It's a related value in a hashref
 -     }
 -  }
 -
 +fancy objects.
 +  
 +To do this simply use L<DBIx::Class::ResultClass::HashRefInflator>.
 +  
 + my $rs = $schema->resultset('CD');
 + 
 + $rs->result_class('DBIx::Class::ResultClass::HashRefInflator');
 + 
 + my $hash_ref = $rs->find(1);
 +  
 +Wasn't that easy?
 +  
  =head2 Get raw data for blindingly fast results
  
  If the C<inflate_result> solution above is not fast enough for you, you
@@@ -3,21 -3,14 +3,21 @@@ package DBIx::Class::Storage::DBI
  
  use base 'DBIx::Class::Storage';
  
 -use strict;
 +use strict;    
  use warnings;
  use DBI;
  use SQL::Abstract::Limit;
  use DBIx::Class::Storage::DBI::Cursor;
  use DBIx::Class::Storage::Statistics;
  use IO::File;
 -use Carp::Clan qw/DBIx::Class/;
 +use Scalar::Util 'blessed';
 +
- __PACKAGE__->mk_group_accessors(
-   'simple' =>
-     qw/_connect_info _dbh _sql_maker _sql_maker_opts _conn_pid _conn_tid
-        disable_sth_caching cursor on_connect_do transaction_depth/
++__PACKAGE__->mk_group_accessors('simple' =>
++    qw/_connect_info _dbi_connect_info _dbh _sql_maker _sql_maker_opts
++       _conn_pid _conn_tid disable_sth_caching cursor on_connect_do
++       transaction_depth/
 +);
 +
  BEGIN {
  
  package DBIC::SQL::Abstract; # Would merge upstream, but nate doesn't reply :(
@@@ -63,6 -56,7 +63,6 @@@ use Scalar::Util 'blessed'
  sub _find_syntax {
    my ($self, $syntax) = @_;
    my $dbhname = blessed($syntax) ?  $syntax->{Driver}{Name} : $syntax;
 -#  print STDERR "Found DBH $syntax >$dbhname< ", $syntax->{Driver}->{Name}, "\n";
    if(ref($self) && $dbhname && $dbhname eq 'DB2') {
      return 'RowNumberOver';
    }
@@@ -293,6 -287,15 +293,6 @@@ sub name_sep 
  
  } # End of BEGIN block
  
 -use base qw/DBIx::Class/;
 -
 -__PACKAGE__->load_components(qw/AccessorGroup/);
 -
 -__PACKAGE__->mk_group_accessors('simple' =>
 -  qw/_connect_info _dbi_connect_info _dbh _sql_maker _sql_maker_opts
 -     _conn_pid _conn_tid debug debugobj cursor on_connect_do
 -     transaction_depth/);
 -
  =head1 NAME
  
  DBIx::Class::Storage::DBI - DBI storage handler
  
  =head1 DESCRIPTION
  
 -This class represents the connection to the database
 +This class represents the connection to an RDBMS via L<DBI>.  See
 +L<DBIx::Class::Storage> for general information.  This pod only
 +documents DBI-specific methods and behaviors.
  
  =head1 METHODS
  
  =cut
  
  sub new {
 -  my $new = {};
 -  bless $new, (ref $_[0] || $_[0]);
 +  my $new = shift->next::method(@_);
  
    $new->cursor("DBIx::Class::Storage::DBI::Cursor");
    $new->transaction_depth(0);
 -
 -  $new->debugobj(new DBIx::Class::Storage::Statistics());
 -
 -  my $fh;
 -
 -  my $debug_env = $ENV{DBIX_CLASS_STORAGE_DBI_DEBUG}
 -                  || $ENV{DBIC_TRACE};
 -
 -  if (defined($debug_env) && ($debug_env =~ /=(.+)$/)) {
 -    $fh = IO::File->new($1, 'w')
 -      or $new->throw_exception("Cannot open trace file $1");
 -  } else {
 -    $fh = IO::File->new('>&STDERR');
 -  }
 -  $new->debugfh($fh);
 -  $new->debug(1) if $debug_env;
    $new->_sql_maker_opts({});
 -  return $new;
 -}
 -
 -=head2 throw_exception
 -
 -Throws an exception - croaks.
 -
 -=cut
 +  $new->{_in_dbh_do} = 0;
 +  $new->{_dbh_gen} = 0;
  
 -sub throw_exception {
 -  my ($self, $msg) = @_;
 -  croak($msg);
 +  $new;
  }
  
  =head2 connect_info
@@@ -331,13 -359,7 +331,13 @@@ C<connect_info> here
  
  The arrayref can either contain the same set of arguments one would
  normally pass to L<DBI/connect>, or a lone code reference which returns
 -a connected database handle.
 +a connected database handle.  Please note that the L<DBI> docs
 +recommend that you always explicitly set C<AutoCommit> to either
 +C<0> or C<1>.   L<DBIx::Class> further recommends that it be set
 +to C<1>, and that you perform transactions via our L</txn_do>
 +method.  L<DBIx::Class> will set it to C<1> if you do not do explicitly
 +set it to zero.  This is the default for most DBDs.  See below for more
 +details.
  
  In either case, if the final argument in your connect_info happens
  to be a hashref, C<connect_info> will look there for several
@@@ -351,11 -373,6 +351,11 @@@ This can be set to an arrayref of liter
  be executed immediately after making the connection to the database
  every time we [re-]connect.
  
 +=item disable_sth_caching
 +
 +If set to a true value, this option will disable the caching of
 +statement handles via L<DBI/prepare_cached>.
 +
  =item limit_dialect 
  
  Sets the limit dialect. This is useful for JDBC-bridge among others
@@@ -390,27 -407,6 +390,27 @@@ Every time C<connect_info> is invoked, 
  these options will be cleared before setting the new ones, regardless of
  whether any options are specified in the new C<connect_info>.
  
 +Important note:  DBIC expects the returned database handle provided by 
 +a subref argument to have RaiseError set on it.  If it doesn't, things
 +might not work very well, YMMV.  If you don't use a subref, DBIC will
 +force this setting for you anyways.  Setting HandleError to anything
 +other than simple exception object wrapper might cause problems too.
 +
 +Another Important Note:
 +
 +DBIC can do some wonderful magic with handling exceptions,
 +disconnections, and transactions when you use C<AutoCommit =&gt; 1>
 +combined with C<txn_do> for transaction support.
 +
 +If you set C<AutoCommit =&gt; 0> in your connect info, then you are always
 +in an assumed transaction between commits, and you're telling us you'd
 +like to manage that manually.  A lot of DBIC's magic protections
 +go away.  We can't protect you from exceptions due to database
 +disconnects because we don't know anything about how to restart your
 +transactions.  You're on your own for handling all sorts of exceptional
 +cases if you choose the C<AutoCommit =&gt 0> path, just as you would
 +be with raw DBI.
 +
  Examples:
  
    # Simple SQLite connection
        'dbi:Pg:dbname=foo',
        'postgres',
        'my_pg_password',
 -      { AutoCommit => 0 },
 +      { AutoCommit => 1 },
        { quote_char => q{"}, name_sep => q{.} },
      ]
    );
        'dbi:Pg:dbname=foo',
        'postgres',
        'my_pg_password',
 -      { AutoCommit => 0, quote_char => q{"}, name_sep => q{.} },
 +      { AutoCommit => 1, quote_char => q{"}, name_sep => q{.} },
      ]
    );
  
            quote_char => q{`},
            name_sep => q{@},
            on_connect_do => ['SET search_path TO myschema,otherschema,public'],
 +          disable_sth_caching => 1,
        },
      ]
    );
  
 +=cut
 +
 +sub connect_info {
 +  my ($self, $info_arg) = @_;
 +
 +  return $self->_connect_info if !$info_arg;
 +
 +  # Kill sql_maker/_sql_maker_opts, so we get a fresh one with only
 +  #  the new set of options
 +  $self->_sql_maker(undef);
 +  $self->_sql_maker_opts({});
++  $self->_connect_info($info_arg);
 +
-   my $info = [ @$info_arg ]; # copy because we can alter it
-   my $last_info = $info->[-1];
++  my $dbi_info = [@$info_arg]; # copy for DBI
++  my $last_info = $dbi_info->[-1];
 +  if(ref $last_info eq 'HASH') {
 +    for my $storage_opt (qw/on_connect_do disable_sth_caching/) {
 +      if(my $value = delete $last_info->{$storage_opt}) {
 +        $self->$storage_opt($value);
 +      }
 +    }
 +    for my $sql_maker_opt (qw/limit_dialect quote_char name_sep/) {
 +      if(my $opt_val = delete $last_info->{$sql_maker_opt}) {
 +        $self->_sql_maker_opts->{$sql_maker_opt} = $opt_val;
 +      }
 +    }
 +
 +    # Get rid of any trailing empty hashref
-     pop(@$info) if !keys %$last_info;
++    pop(@$dbi_info) if !keys %$last_info;
 +  }
 +
-   if(ref $info->[0] ne 'CODE') {
++  $self->_dbi_connect_info($dbi_info);
++
++  if(ref $dbi_info->[0] ne 'CODE') {
 +      # Extend to 3 arguments with undefs, if necessary
-       while(scalar(@$info) < 3) { push(@$info, undef) }
++      while(scalar(@$dbi_info) < 3) { push(@$dbi_info, undef) }
 +
 +      # Complain if 4th argument is defined and is not a HASH
-       if(defined $info->[3] && ref $info->[3] ne 'HASH') {
++      if(defined $dbi_info->[3] && ref $dbi_info->[3] ne 'HASH') {
 +          warn "4th argument of DBI connect info is defined "
 +               . " but is not a hashref!";
 +      }
 +
 +      # Set AutoCommit to 1 if not specified manually
 +      else {
-           $info->[3] ||= {};
-           if(!defined $info->[3]->{AutoCommit}) {
-               $info->[3]->{AutoCommit} = 1;
++          $dbi_info->[3] ||= {};
++          if(!defined $dbi_info->[3]->{AutoCommit}) {
++              $dbi_info->[3]->{AutoCommit} = 1;
 +          }
 +      }
 +  }
 +
-   $self->_connect_info($info);
++  $self->_connect_info;
 +}
 +
  =head2 on_connect_do
  
  This method is deprecated in favor of setting via L</connect_info>.
  
 -=head2 debug
 +=head2 dbh_do
 +
 +Arguments: $subref, @extra_coderef_args?
 +
 +Execute the given subref using the new exception-based connection management.
  
 -Causes SQL trace information to be emitted on the C<debugobj> object.
 -(or C<STDERR> if C<debugobj> has not specifically been set).
 +The first two arguments will be the storage object that C<dbh_do> was called
 +on and a database handle to use.  Any additional arguments will be passed
 +verbatim to the called subref as arguments 2 and onwards.
  
 -This is the equivalent to setting L</DBIC_TRACE> in your
 -shell environment.
 +Using this (instead of $self->_dbh or $self->dbh) ensures correct
 +exception handling and reconnection (or failover in future subclasses).
  
 -=head2 debugfh
 +Your subref should have no side-effects outside of the database, as
 +there is the potential for your subref to be partially double-executed
 +if the database connection was stale/dysfunctional.
  
 -Set or retrieve the filehandle used for trace/debug output.  This should be
 -an IO::Handle compatible ojbect (only the C<print> method is used.  Initially
 -set to be STDERR - although see information on the
 -L<DBIC_TRACE> environment variable.
 +Example:
 +
 +  my @stuff = $schema->storage->dbh_do(
 +    sub {
 +      my ($storage, $dbh, @cols) = @_;
 +      my $cols = join(q{, }, @cols);
 +      $dbh->selectrow_array("SELECT $cols FROM foo");
 +    },
 +    @column_list
 +  );
  
  =cut
  
 -sub debugfh {
 -    my $self = shift;
 +sub dbh_do {
 +  my $self = shift;
 +  my $coderef = shift;
  
 -    if ($self->debugobj->can('debugfh')) {
 -        return $self->debugobj->debugfh(@_);
 +  ref $coderef eq 'CODE' or $self->throw_exception
 +    ('$coderef must be a CODE reference');
 +
 +  return $coderef->($self, $self->_dbh, @_) if $self->{_in_dbh_do}
 +      || $self->{transaction_depth};
 +
 +  local $self->{_in_dbh_do} = 1;
 +
 +  my @result;
 +  my $want_array = wantarray;
 +
 +  eval {
 +    $self->_verify_pid if $self->_dbh;
 +    $self->_populate_dbh if !$self->_dbh;
 +    if($want_array) {
 +        @result = $coderef->($self, $self->_dbh, @_);
      }
 -}
 +    elsif(defined $want_array) {
 +        $result[0] = $coderef->($self, $self->_dbh, @_);
 +    }
 +    else {
 +        $coderef->($self, $self->_dbh, @_);
 +    }
 +  };
  
 -=head2 debugobj
 +  my $exception = $@;
 +  if(!$exception) { return $want_array ? @result : $result[0] }
  
 -Sets or retrieves the object used for metric collection. Defaults to an instance
 -of L<DBIx::Class::Storage::Statistics> that is campatible with the original
 -method of using a coderef as a callback.  See the aforementioned Statistics
 -class for more information.
 +  $self->throw_exception($exception) if $self->connected;
  
 -=head2 debugcb
 +  # We were not connected - reconnect and retry, but let any
 +  #  exception fall right through this time
 +  $self->_populate_dbh;
 +  $coderef->($self, $self->_dbh, @_);
 +}
  
 -Sets a callback to be executed each time a statement is run; takes a sub
 -reference.  Callback is executed as $sub->($op, $info) where $op is
 -SELECT/INSERT/UPDATE/DELETE and $info is what would normally be printed.
 +# This is basically a blend of dbh_do above and DBIx::Class::Storage::txn_do.
 +# It also informs dbh_do to bypass itself while under the direction of txn_do,
 +#  via $self->{_in_dbh_do} (this saves some redundant eval and errorcheck, etc)
 +sub txn_do {
 +  my $self = shift;
 +  my $coderef = shift;
  
 -See L<debugobj> for a better way.
 +  ref $coderef eq 'CODE' or $self->throw_exception
 +    ('$coderef must be a CODE reference');
  
 -=cut
 +  local $self->{_in_dbh_do} = 1;
  
 -sub debugcb {
 -    my $self = shift;
 +  my @result;
 +  my $want_array = wantarray;
 +
 +  my $tried = 0;
 +  while(1) {
 +    eval {
 +      $self->_verify_pid if $self->_dbh;
 +      $self->_populate_dbh if !$self->_dbh;
 +
 +      $self->txn_begin;
 +      if($want_array) {
 +          @result = $coderef->(@_);
 +      }
 +      elsif(defined $want_array) {
 +          $result[0] = $coderef->(@_);
 +      }
 +      else {
 +          $coderef->(@_);
 +      }
 +      $self->txn_commit;
 +    };
  
 -    if ($self->debugobj->can('callback')) {
 -        return $self->debugobj->callback(@_);
 +    my $exception = $@;
 +    if(!$exception) { return $want_array ? @result : $result[0] }
 +
 +    if($tried++ > 0 || $self->connected) {
 +      eval { $self->txn_rollback };
 +      my $rollback_exception = $@;
 +      if($rollback_exception) {
 +        my $exception_class = "DBIx::Class::Storage::NESTED_ROLLBACK_EXCEPTION";
 +        $self->throw_exception($exception)  # propagate nested rollback
 +          if $rollback_exception =~ /$exception_class/;
 +
 +        $self->throw_exception(
 +          "Transaction aborted: ${exception}. "
 +          . "Rollback failed: ${rollback_exception}"
 +        );
 +      }
 +      $self->throw_exception($exception)
      }
 +
 +    # We were not connected, and was first try - reconnect and retry
 +    # via the while loop
 +    $self->_populate_dbh;
 +  }
  }
  
  =head2 disconnect
  
 -Disconnect the L<DBI> handle, performing a rollback first if the
 +Our C<disconnect> method also performs a rollback first if the
  database is not in C<AutoCommit> mode.
  
  =cut
@@@ -652,21 -516,25 +655,21 @@@ sub disconnect 
      $self->_dbh->rollback unless $self->_dbh->{AutoCommit};
      $self->_dbh->disconnect;
      $self->_dbh(undef);
 +    $self->{_dbh_gen}++;
    }
  }
  
 -=head2 connected
 -
 -Check if the L<DBI> handle is connected.  Returns true if the handle
 -is connected.
 -
 -=cut
 -
 -sub connected { my ($self) = @_;
 +sub connected {
 +  my ($self) = @_;
  
    if(my $dbh = $self->_dbh) {
        if(defined $self->_conn_tid && $self->_conn_tid != threads->tid) {
 -          return $self->_dbh(undef);
 +          $self->_dbh(undef);
 +          $self->{_dbh_gen}++;
 +          return;
        }
 -      elsif($self->_conn_pid != $$) {
 -          $self->_dbh->{InactiveDestroy} = 1;
 -          return $self->_dbh(undef);
 +      else {
 +          $self->_verify_pid;
        }
        return ($dbh->FETCH('Active') && $dbh->ping);
    }
    return 0;
  }
  
 -=head2 ensure_connected
 +# handle pid changes correctly
 +#  NOTE: assumes $self->_dbh is a valid $dbh
 +sub _verify_pid {
 +  my ($self) = @_;
  
 -Check whether the database handle is connected - if not then make a
 -connection.
 +  return if $self->_conn_pid == $$;
  
 -=cut
 +  $self->_dbh->{InactiveDestroy} = 1;
 +  $self->_dbh(undef);
 +  $self->{_dbh_gen}++;
 +
 +  return;
 +}
  
  sub ensure_connected {
    my ($self) = @_;
@@@ -712,9 -573,16 +715,9 @@@ sub dbh 
  sub _sql_maker_args {
      my ($self) = @_;
      
 -    return ( limit_dialect => $self->dbh, %{$self->_sql_maker_opts} );
 +    return ( bindtype=>'columns', limit_dialect => $self->dbh, %{$self->_sql_maker_opts} );
  }
  
 -=head2 sql_maker
 -
 -Returns a C<sql_maker> object - normally an object of class
 -C<DBIC::SQL::Abstract>.
 -
 -=cut
 -
  sub sql_maker {
    my ($self) = @_;
    unless ($self->_sql_maker) {
    return $self->_sql_maker;
  }
  
 -sub connect_info {
 -  my ($self, $info_arg) = @_;
 -
 -  if($info_arg) {
 -    # Kill sql_maker/_sql_maker_opts, so we get a fresh one with only
 -    #  the new set of options
 -    $self->_sql_maker(undef);
 -    $self->_sql_maker_opts({});
 -    $self->_connect_info($info_arg);
 -
 -    my $dbi_info = [@$info_arg]; # copy for DBI
 -    my $last_info = $dbi_info->[-1];
 -    if(ref $last_info eq 'HASH') {
 -      if(my $on_connect_do = delete $last_info->{on_connect_do}) {
 -        $self->on_connect_do($on_connect_do);
 -      }
 -      for my $sql_maker_opt (qw/limit_dialect quote_char name_sep/) {
 -        if(my $opt_val = delete $last_info->{$sql_maker_opt}) {
 -          $self->_sql_maker_opts->{$sql_maker_opt} = $opt_val;
 -        }
 -      }
 -
 -      # Get rid of any trailing empty hashref
 -      pop(@$dbi_info) if !keys %$last_info;
 -    }
 -
 -    $self->_dbi_connect_info($dbi_info);
 -  }
 -
 -  $self->_connect_info;
 -}
 -
  sub _populate_dbh {
    my ($self) = @_;
-   my @info = @{$self->_connect_info || []};
+   my @info = @{$self->_dbi_connect_info || []};
    $self->_dbh($self->_connect(@info));
  
 +  # Always set the transaction depth on connect, since
 +  #  there is no transaction in progress by definition
 +  $self->{transaction_depth} = $self->_dbh->{AutoCommit} ? 0 : 1;
 +
    if(ref $self eq 'DBIx::Class::Storage::DBI') {
      my $driver = $self->_dbh->{Driver}->{Name};
      if ($self->load_optional_class("DBIx::Class::Storage::DBI::${driver}")) {
@@@ -765,15 -661,9 +768,15 @@@ sub _connect 
    }
  
    eval {
 -    $dbh = ref $info[0] eq 'CODE'
 -         ? &{$info[0]}
 -         : DBI->connect(@info);
 +    if(ref $info[0] eq 'CODE') {
 +       $dbh = &{$info[0]}
 +    }
 +    else {
 +       $dbh = DBI->connect(@info);
 +       $dbh->{RaiseError} = 1;
 +       $dbh->{PrintError} = 0;
 +       $dbh->{PrintWarn} = 0;
 +    }
    };
  
    $DBI::connect_via = $old_connect_via if $old_connect_via;
    $dbh;
  }
  
  
  sub txn_begin {
    my $self = shift;
 -  if ($self->{transaction_depth}++ == 0) {
 -    my $dbh = $self->dbh;
 -    if ($dbh->{AutoCommit}) {
 -      $self->debugobj->txn_begin()
 -        if ($self->debug);
 -      $dbh->begin_work;
 -    }
 +  if($self->{transaction_depth}++ == 0) {
 +    $self->debugobj->txn_begin()
 +      if $self->debug;
 +    # this isn't ->_dbh-> because
 +    #  we should reconnect on begin_work
 +    #  for AutoCommit users
 +    $self->dbh->begin_work;
    }
  }
  
 -=head2 txn_commit
 -
 -Issues a commit against the current dbh.
 -
 -=cut
 -
  sub txn_commit {
    my $self = shift;
 -  my $dbh = $self->dbh;
 -  if ($self->{transaction_depth} == 0) {
 -    unless ($dbh->{AutoCommit}) {
 -      $self->debugobj->txn_commit()
 -        if ($self->debug);
 -      $dbh->commit;
 -    }
 +  if ($self->{transaction_depth} == 1) {
 +    my $dbh = $self->_dbh;
 +    $self->debugobj->txn_commit()
 +      if ($self->debug);
 +    $dbh->commit;
 +    $self->{transaction_depth} = 0
 +      if $dbh->{AutoCommit};
    }
 -  else {
 -    if (--$self->{transaction_depth} == 0) {
 -      $self->debugobj->txn_commit()
 -        if ($self->debug);
 -      $dbh->commit;
 -    }
 +  elsif($self->{transaction_depth} > 1) {
 +    $self->{transaction_depth}--
    }
  }
  
 -=head2 txn_rollback
 -
 -Issues a rollback against the current dbh. A nested rollback will
 -throw a L<DBIx::Class::Storage::NESTED_ROLLBACK_EXCEPTION> exception,
 -which allows the rollback to propagate to the outermost transaction.
 -
 -=cut
 -
  sub txn_rollback {
    my $self = shift;
 -
 +  my $dbh = $self->_dbh;
 +  my $autocommit;
    eval {
 -    my $dbh = $self->dbh;
 -    if ($self->{transaction_depth} == 0) {
 -      unless ($dbh->{AutoCommit}) {
 -        $self->debugobj->txn_rollback()
 -          if ($self->debug);
 -        $dbh->rollback;
 -      }
 +    $autocommit = $dbh->{AutoCommit};
 +    if ($self->{transaction_depth} == 1) {
 +      $self->debugobj->txn_rollback()
 +        if ($self->debug);
 +      $dbh->rollback;
 +      $self->{transaction_depth} = 0
 +        if $autocommit;
 +    }
 +    elsif($self->{transaction_depth} > 1) {
 +      $self->{transaction_depth}--;
      }
      else {
 -      if (--$self->{transaction_depth} == 0) {
 -        $self->debugobj->txn_rollback()
 -          if ($self->debug);
 -        $dbh->rollback;
 -      }
 -      else {
 -        die DBIx::Class::Storage::NESTED_ROLLBACK_EXCEPTION->new;
 -      }
 +      die DBIx::Class::Storage::NESTED_ROLLBACK_EXCEPTION->new;
      }
    };
 -
    if ($@) {
      my $error = $@;
      my $exception_class = "DBIx::Class::Storage::NESTED_ROLLBACK_EXCEPTION";
      $error =~ /$exception_class/ and $self->throw_exception($error);
 -    $self->{transaction_depth} = 0;          # ensure that a failed rollback
 -    $self->throw_exception($error);          # resets the transaction depth
 +    # ensure that a failed rollback resets the transaction depth
 +    $self->{transaction_depth} = $autocommit ? 0 : 1;
 +    $self->throw_exception($error);
    }
  }
  
 -sub _execute {
 +# This used to be the top-half of _execute.  It was split out to make it
 +#  easier to override in NoBindVars without duping the rest.  It takes up
 +#  all of _execute's args, and emits $sql, @bind.
 +sub _prep_for_execute {
    my ($self, $op, $extra_bind, $ident, @args) = @_;
 +
    my ($sql, @bind) = $self->sql_maker->$op($ident, @args);
 -  unshift(@bind, @$extra_bind) if $extra_bind;
 +  unshift(@bind,
 +    map { ref $_ eq 'ARRAY' ? $_ : [ '!!dummy', $_ ] } @$extra_bind)
 +      if $extra_bind;
 +  @bind = map { ref $_ ? ''.$_ : $_ } @bind; # stringify args
 +
 +  return ($sql, @bind);
 +}
 +
 +sub _execute {
 +  my ($self, $op, $extra_bind, $ident, $bind_attributes, @args) = @_;
 +  
 +  if( blessed($ident) && $ident->isa("DBIx::Class::ResultSource") ) {
 +    $ident = $ident->from();
 +  }
 +  
 +  my ($sql, @bind) = $self->sql_maker->$op($ident, @args);
 +  unshift(@bind,
 +    map { ref $_ eq 'ARRAY' ? $_ : [ '!!dummy', $_ ] } @$extra_bind)
 +      if $extra_bind;
    if ($self->debug) {
 -      my @debug_bind = map { defined $_ ? qq{'$_'} : q{'NULL'} } @bind;
 +      my @debug_bind =
 +        map { defined ($_ && $_->[1]) ? qq{'$_->[1]'} : q{'NULL'} } @bind;
        $self->debugobj->query_start($sql, @debug_bind);
    }
 -  my $sth = eval { $self->sth($sql,$op) };
  
 -  if (!$sth || $@) {
 -    $self->throw_exception(
 -      'no sth generated via sql (' . ($@ || $self->_dbh->errstr) . "): $sql"
 -    );
 -  }
 -  @bind = map { ref $_ ? ''.$_ : $_ } @bind; # stringify args
 -  my $rv;
 -  if ($sth) {
 -    my $time = time();
 -    $rv = eval { $sth->execute(@bind) };
 +  my ($rv, $sth);
 +  RETRY: while (1) {
 +    $sth = eval { $self->sth($sql,$op) };
  
 -    if ($@ || !$rv) {
 -      $self->throw_exception("Error executing '$sql': ".($@ || $sth->errstr));
 +    if (!$sth || $@) {
 +      $self->throw_exception(
 +        'no sth generated via sql (' . ($@ || $self->_dbh->errstr) . "): $sql"
 +      );
      }
 -  } else {
 -    $self->throw_exception("'$sql' did not generate a statement.");
 -  }
 +
 +    if ($sth) {
 +      my $time = time();
 +      $rv = eval {
 +        my $placeholder_index = 1; 
 +
 +        foreach my $bound (@bind) {
 +
 +          my $attributes = {};
 +          my($column_name, @data) = @$bound;
 +
 +          if( $bind_attributes ) {
 +            $attributes = $bind_attributes->{$column_name}
 +            if defined $bind_attributes->{$column_name};
 +          }
 +
 +          foreach my $data (@data)
 +          {
 +            $data = ref $data ? ''.$data : $data; # stringify args
 +
 +            $sth->bind_param($placeholder_index, $data, $attributes);
 +            $placeholder_index++;
 +          }
 +        }
 +        $sth->execute();
 +      };
 +    
 +      if ($@ || !$rv) {
 +        $self->throw_exception("Error executing '$sql': ".($@ || $sth->errstr))
 +          if $self->connected;
 +        $self->_populate_dbh;
 +      } else {
 +        last RETRY;
 +      }
 +    } else {
 +      $self->throw_exception("'$sql' did not generate a statement.");
 +    }
 +  } # While(1) to retry if disconencted
 +
    if ($self->debug) {
 -      my @debug_bind = map { defined $_ ? qq{`$_'} : q{`NULL'} } @bind; 
 -      $self->debugobj->query_end($sql, @debug_bind);
 +     my @debug_bind =
 +       map { defined ($_ && $_->[1]) ? qq{'$_->[1]'} : q{'NULL'} } @bind; 
 +     $self->debugobj->query_end($sql, @debug_bind);
    }
    return (wantarray ? ($rv, $sth, @bind) : $rv);
  }
  
  sub insert {
 -  my ($self, $ident, $to_insert) = @_;
 +  my ($self, $source, $to_insert) = @_;
 +  
 +  my $ident = $source->from; 
 +  my $bind_attributes = $self->source_bind_attributes($source);
 +
    $self->throw_exception(
      "Couldn't insert ".join(', ',
        map "$_ => $to_insert->{$_}", keys %$to_insert
      )." into ${ident}"
 -  ) unless ($self->_execute('insert' => [], $ident, $to_insert));
 +  ) unless ($self->_execute('insert' => [], $source, $bind_attributes, $to_insert));
    return $to_insert;
  }
  
 +## Still not quite perfect, and EXPERIMENTAL
 +## Currently it is assumed that all values passed will be "normal", i.e. not 
 +## scalar refs, or at least, all the same type as the first set, the statement is
 +## only prepped once.
 +sub insert_bulk {
 +  my ($self, $source, $cols, $data) = @_;
 +  my %colvalues;
 +  my $table = $source->from;
 +  @colvalues{@$cols} = (0..$#$cols);
 +  my ($sql, @bind) = $self->sql_maker->insert($table, \%colvalues);
 +  
 +  if ($self->debug) {
 +      my @debug_bind = map { defined $_->[1] ? qq{$_->[1]} : q{'NULL'} } @bind;
 +      $self->debugobj->query_start($sql, @debug_bind);
 +  }
 +  my $sth = $self->sth($sql);
 +
 +#  @bind = map { ref $_ ? ''.$_ : $_ } @bind; # stringify args
 +
 +  my $rv;
 +  
 +  ## This must be an arrayref, else nothing works!
 +  
 +  my $tuple_status = [];
 +  
 +  ##use Data::Dumper;
 +  ##print STDERR Dumper( $data, $sql, [@bind] );
 +
 +  if ($sth) {
 +  
 +    my $time = time();
 +
 +    ## Get the bind_attributes, if any exist
 +    my $bind_attributes = $self->source_bind_attributes($source);
 +
 +    ## Bind the values and execute
 +    $rv = eval {
 +
 +     my $placeholder_index = 1; 
 +
 +        foreach my $bound (@bind) {
 +
 +          my $attributes = {};
 +          my ($column_name, $data_index) = @$bound;
 +
 +          if( $bind_attributes ) {
 +            $attributes = $bind_attributes->{$column_name}
 +            if defined $bind_attributes->{$column_name};
 +          }
 +
 +          my @data = map { $_->[$data_index] } @$data;
 +
 +          $sth->bind_param_array( $placeholder_index, [@data], $attributes );
 +          $placeholder_index++;
 +      }
 +      $sth->execute_array( {ArrayTupleStatus => $tuple_status} );
 +
 +    };
 +   
 +    if ($@ || !defined $rv) {
 +      my $errors = '';
 +      foreach my $tuple (@$tuple_status) {
 +          $errors .= "\n" . $tuple->[1] if(ref $tuple);
 +      }
 +      $self->throw_exception("Error executing '$sql': ".($@ || $errors));
 +    }
 +  } else {
 +    $self->throw_exception("'$sql' did not generate a statement.");
 +  }
 +  if ($self->debug) {
 +      my @debug_bind = map { defined $_ ? qq{`$_'} : q{`NULL'} } @bind;
 +      $self->debugobj->query_end($sql, @debug_bind);
 +  }
 +  return (wantarray ? ($rv, $sth, @bind) : $rv);
 +}
 +
  sub update {
 -  return shift->_execute('update' => [], @_);
 +  my $self = shift @_;
 +  my $source = shift @_;
 +  my $bind_attributes = $self->source_bind_attributes($source);
 +  
 +  return $self->_execute('update' => [], $source, $bind_attributes, @_);
  }
  
 +
  sub delete {
 -  return shift->_execute('delete' => [], @_);
 +  my $self = shift @_;
 +  my $source = shift @_;
 +  
 +  my $bind_attrs = {}; ## If ever it's needed...
 +  
 +  return $self->_execute('delete' => [], $source, $bind_attrs, @_);
  }
  
  sub _select {
        ($order ? (order_by => $order) : ())
      };
    }
 -  my @args = ('select', $attrs->{bind}, $ident, $select, $condition, $order);
 +  my $bind_attrs = {}; ## Future support
 +  my @args = ('select', $attrs->{bind}, $ident, $bind_attrs, $select, $condition, $order);
    if ($attrs->{software_limit} ||
        $self->sql_maker->_default_limit_syntax eq "GenericSubQ") {
          $attrs->{software_limit} = 1;
    return $self->_execute(@args);
  }
  
 +sub source_bind_attributes {
 +  my ($self, $source) = @_;
 +  
 +  my $bind_attributes;
 +  foreach my $column ($source->columns) {
 +  
 +    my $data_type = $source->column_info($column)->{data_type} || '';
 +    $bind_attributes->{$column} = $self->bind_attribute_by_data_type($data_type)
 +     if $data_type;
 +  }
 +
 +  return $bind_attributes;
 +}
 +
  =head2 select
  
  =over 4
@@@ -1097,11 -857,19 +1100,11 @@@ sub select 
    return $self->cursor->new($self, \@_, $attrs);
  }
  
 -=head2 select_single
 -
 -Performs a select, fetch and return of data - handles a single row
 -only.
 -
 -=cut
 -
 -# Need to call finish() to work round broken DBDs
 -
  sub select_single {
    my $self = shift;
    my ($rv, $sth, @bind) = $self->_select(@_);
    my @row = $sth->fetchrow_array;
 +  # Need to call finish() to work round broken DBDs
    $sth->finish();
    return @row;
  }
@@@ -1118,35 -886,32 +1121,35 @@@ Returns a L<DBI> sth (statement handle
  
  =cut
  
 -sub sth {
 -  my ($self, $sql) = @_;
 -  # 3 is the if_active parameter which avoids active sth re-use
 -  return $self->dbh->prepare_cached($sql, {}, 3);
 -}
 +sub _dbh_sth {
 +  my ($self, $dbh, $sql) = @_;
  
 -=head2 columns_info_for
 +  # 3 is the if_active parameter which avoids active sth re-use
 +  my $sth = $self->disable_sth_caching
 +    ? $dbh->prepare($sql)
 +    : $dbh->prepare_cached($sql, {}, 3);
  
 -Returns database type info for a given table column.
 +  $self->throw_exception(
 +    'no sth generated via sql (' . ($@ || $dbh->errstr) . "): $sql"
 +  ) if !$sth;
  
 -=cut
 +  $sth;
 +}
  
 -sub columns_info_for {
 -  my ($self, $table) = @_;
 +sub sth {
 +  my ($self, $sql) = @_;
 +  $self->dbh_do($self->can('_dbh_sth'), $sql);
 +}
  
 -  my $dbh = $self->dbh;
 +sub _dbh_columns_info_for {
 +  my ($self, $dbh, $table) = @_;
  
    if ($dbh->can('column_info')) {
      my %result;
 -    local $dbh->{RaiseError} = 1;
 -    local $dbh->{PrintError} = 0;
      eval {
        my ($schema,$tab) = $table =~ /^(.+?)\.(.+)$/ ? ($1,$2) : (undef,$table);
        my $sth = $dbh->column_info( undef,$schema, $tab, '%' );
        $sth->execute();
 -
        while ( my $info = $sth->fetchrow_hashref() ){
          my %column_info;
          $column_info{data_type}   = $info->{TYPE_NAME};
    return \%result;
  }
  
 +sub columns_info_for {
 +  my ($self, $table) = @_;
 +  $self->dbh_do($self->can('_dbh_columns_info_for'), $table);
 +}
 +
  =head2 last_insert_id
  
  Return the row id of the last insert.
  
  =cut
  
 -sub last_insert_id {
 -  my ($self, $row) = @_;
 -    
 -  return $self->dbh->func('last_insert_rowid');
 +sub _dbh_last_insert_id {
 +    my ($self, $dbh, $source, $col) = @_;
 +    # XXX This is a SQLite-ism as a default... is there a DBI-generic way?
 +    $dbh->func('last_insert_rowid');
 +}
  
 +sub last_insert_id {
 +  my $self = shift;
 +  $self->dbh_do($self->can('_dbh_last_insert_id'), @_);
  }
  
  =head2 sqlt_type
@@@ -1225,25 -981,11 +1228,25 @@@ Returns the database driver name
  
  sub sqlt_type { shift->dbh->{Driver}->{Name} }
  
 +=head2 bind_attribute_by_data_type
 +
 +Given a datatype from column info, returns a database specific bind attribute for
 +$dbh->bind_param($val,$attribute) or nothing if we will let the database planner
 +just handle it.
 +
 +Generally only needed for special case column types, like bytea in postgres.
 +
 +=cut
 +
 +sub bind_attribute_by_data_type {
 +    return;
 +}
 +
  =head2 create_ddl_dir (EXPERIMENTAL)
  
  =over 4
  
 -=item Arguments: $schema \@databases, $version, $directory, $sqlt_args
 +=item Arguments: $schema \@databases, $version, $directory, $preversion, $sqlt_args
  
  =back
  
@@@ -1257,7 -999,7 +1260,7 @@@ across all databases, or fully handle c
  
  sub create_ddl_dir
  {
 -  my ($self, $schema, $databases, $version, $dir, $sqltargs) = @_;
 +  my ($self, $schema, $databases, $version, $dir, $preversion, $sqltargs) = @_;
  
    if(!$dir || !-d $dir)
    {
    $sqltargs = { ( add_drop_table => 1 ), %{$sqltargs || {}} };
  
    eval "use SQL::Translator";
 -  $self->throw_exception("Can't deploy without SQL::Translator: $@") if $@;
 +  $self->throw_exception("Can't create a ddl file without SQL::Translator: $@") if $@;
  
 -  my $sqlt = SQL::Translator->new($sqltargs);
 +  my $sqlt = SQL::Translator->new({
 +#      debug => 1,
 +      add_drop_table => 1,
 +  });
    foreach my $db (@$databases)
    {
      $sqlt->reset();
      $sqlt->parser('SQL::Translator::Parser::DBIx::Class');
  #    $sqlt->parser_args({'DBIx::Class' => $schema);
 +    $sqlt = $self->configure_sqlt($sqlt, $db);
      $sqlt->data($schema);
      $sqlt->producer($db);
  
      my $filename = $schema->ddl_filename($db, $dir, $version);
      if(-e $filename)
      {
 -      $self->throw_exception("$filename already exists, skipping $db");
 +      warn("$filename already exists, skipping $db");
        next;
      }
 -    open($file, ">$filename") 
 -      or $self->throw_exception("Can't open $filename for writing ($!)");
 +
      my $output = $sqlt->translate;
 -#use Data::Dumper;
 -#    print join(":", keys %{$schema->source_registrations});
 -#    print Dumper($sqlt->schema);
      if(!$output)
      {
 -      $self->throw_exception("Failed to translate to $db. (" . $sqlt->error . ")");
 +      warn("Failed to translate to $db, skipping. (" . $sqlt->error . ")");
        next;
      }
 +    if(!open($file, ">$filename"))
 +    {
 +        $self->throw_exception("Can't open $filename for writing ($!)");
 +        next;
 +    }
      print $file $output;
      close($file);
 +
 +    if($preversion)
 +    {
 +      eval "use SQL::Translator::Diff";
 +      if($@)
 +      {
 +        warn("Can't diff versions without SQL::Translator::Diff: $@");
 +        next;
 +      }
 +
 +      my $prefilename = $schema->ddl_filename($db, $dir, $preversion);
 +#      print "Previous version $prefilename\n";
 +      if(!-e $prefilename)
 +      {
 +        warn("No previous schema file found ($prefilename)");
 +        next;
 +      }
 +      #### We need to reparse the SQLite file we just wrote, so that 
 +      ##   Diff doesnt get all confoosed, and Diff is *very* confused.
 +      ##   FIXME: rip Diff to pieces!
 +#      my $target_schema = $sqlt->schema;
 +#      unless ( $target_schema->name ) {
 +#        $target_schema->name( $filename );
 +#      }
 +      my @input;
 +      push @input, {file => $prefilename, parser => $db};
 +      push @input, {file => $filename, parser => $db};
 +      my ( $source_schema, $source_db, $target_schema, $target_db ) = map {
 +        my $file   = $_->{'file'};
 +        my $parser = $_->{'parser'};
 +
 +        my $t = SQL::Translator->new;
 +        $t->debug( 0 );
 +        $t->trace( 0 );
 +        $t->parser( $parser )            or die $t->error;
 +        my $out = $t->translate( $file ) or die $t->error;
 +        my $schema = $t->schema;
 +        unless ( $schema->name ) {
 +          $schema->name( $file );
 +        }
 +        ($schema, $parser);
 +      } @input;
 +
 +      my $diff = SQL::Translator::Diff::schema_diff($source_schema, $db,
 +                                                    $target_schema, $db,
 +                                                    {}
 +                                                   );
 +      my $difffile = $schema->ddl_filename($db, $dir, $version, $preversion);
 +      print STDERR "Diff: $difffile: $db, $dir, $version, $preversion \n";
 +      if(-e $difffile)
 +      {
 +        warn("$difffile already exists, skipping");
 +        next;
 +      }
 +      if(!open $file, ">$difffile")
 +      { 
 +        $self->throw_exception("Can't write to $difffile ($!)");
 +        next;
 +      }
 +      print $file $diff;
 +      close($file);
 +    }
    }
 +}
  
 +sub configure_sqlt() {
 +  my $self = shift;
 +  my $tr = shift;
 +  my $db = shift || $self->sqlt_type;
 +  if ($db eq 'PostgreSQL') {
 +    $tr->quote_table_names(0);
 +    $tr->quote_field_names(0);
 +  }
 +  return $tr;
  }
  
  =head2 deployment_statements
@@@ -1412,17 -1077,6 +1415,17 @@@ sub deployment_statements 
    $type ||= $self->sqlt_type;
    $version ||= $schema->VERSION || '1.x';
    $dir ||= './';
 +  my $filename = $schema->ddl_filename($type, $dir, $version);
 +  if(-f $filename)
 +  {
 +      my $file;
 +      open($file, "<$filename") 
 +        or $self->throw_exception("Can't open $filename ($!)");
 +      my @rows = <$file>;
 +      close($file);
 +      return join('', @rows);
 +  }
 +
    eval "use SQL::Translator";
    if(!$@)
    {
      $self->throw_exception($@) if $@;
      eval "use SQL::Translator::Producer::${type};";
      $self->throw_exception($@) if $@;
 +
 +    # sources needs to be a parser arg, but for simplicty allow at top level 
 +    # coming in
 +    $sqltargs->{parser_args}{sources} = delete $sqltargs->{sources}
 +        if exists $sqltargs->{sources};
 +
      my $tr = SQL::Translator->new(%$sqltargs);
      SQL::Translator::Parser::DBIx::Class::parse( $tr, $schema );
      return "SQL::Translator::Producer::${type}"->can('produce')->($tr);
    }
  
 -  my $filename = $schema->ddl_filename($type, $dir, $version);
 -  if(!-f $filename)
 -  {
 -#      $schema->create_ddl_dir([ $type ], $version, $dir, $sqltargs);
 -      $self->throw_exception("No SQL::Translator, and no Schema file found, aborting deploy");
 -      return;
 -  }
 -  my $file;
 -  open($file, "<$filename") 
 -      or $self->throw_exception("Can't open $filename ($!)");
 -  my @rows = <$file>;
 -  close($file);
 +  $self->throw_exception("No SQL::Translator, and no Schema file found, aborting deploy");
 +  return;
  
 -  return join('', @rows);
 -  
  }
  
 -=head2 deploy
 -
 -Sends the appropriate statements to create or modify tables to the
 -db. This would normally be called through
 -L<DBIx::Class::Schema/deploy>.
 -
 -=cut
 -
  sub deploy {
    my ($self, $schema, $type, $sqltargs, $dir) = @_;
    foreach my $statement ( $self->deployment_statements($schema, $type, undef, $dir, { no_comments => 1, %{ $sqltargs || {} } } ) ) {
        next if($_ =~ /^COMMIT/m);
        next if $_ =~ /^\s+$/; # skip whitespace only
        $self->debugobj->query_start($_) if $self->debug;
 -      $self->dbh->do($_) or warn "SQL was:\n $_";
 +      $self->dbh->do($_) or warn "SQL was:\n $_"; # XXX exceptions?
        $self->debugobj->query_end($_) if $self->debug;
      }
    }
@@@ -1498,9 -1166,14 +1501,9 @@@ sub build_datetime_parser 
  }
  
  sub DESTROY {
 -  # NOTE: if there's a merge conflict here when -current is pushed
 -  #  back to trunk, take -current's version and ignore this trunk one :)
    my $self = shift;
 -
 -  if($self->_dbh && $self->_conn_pid != $$) {
 -    $self->_dbh->{InactiveDestroy} = 1;
 -  }
 -
 +  return if !$self->_dbh;
 +  $self->_verify_pid;
    $self->_dbh(undef);
  }
  
@@@ -1541,6 -1214,25 +1544,6 @@@ For setting, this method is deprecated 
  
  =back
  
 -=head1 ENVIRONMENT VARIABLES
 -
 -=head2 DBIC_TRACE
 -
 -If C<DBIC_TRACE> is set then SQL trace information
 -is produced (as when the L<debug> method is set).
 -
 -If the value is of the form C<1=/path/name> then the trace output is
 -written to the file C</path/name>.
 -
 -This environment variable is checked when the storage object is first
 -created (when you call connect on your schema).  So, run-time changes 
 -to this environment variable will not take effect unless you also 
 -re-connect on your schema.
 -
 -=head2 DBIX_CLASS_STORAGE_DBI_DEBUG
 -
 -Old name for DBIC_TRACE
 -
  =head1 AUTHORS
  
  Matt S. Trout <mst@shadowcatsystems.co.uk>