Preliminary version
[dbsrgits/DBIx-Class.git] / lib / DBIx / Class / Storage / DBI.pm
1 package DBIx::Class::Storage::DBI;
2 # -*- mode: cperl; cperl-indent-level: 2 -*-
3
4 use strict;
5 use warnings;
6
7 use base qw/DBIx::Class::Storage::DBIHacks DBIx::Class::Storage/;
8 use mro 'c3';
9
10 use Carp::Clan qw/^DBIx::Class/;
11 use DBI;
12 use DBIx::Class::Storage::DBI::Cursor;
13 use DBIx::Class::Storage::Statistics;
14 use Scalar::Util();
15 use List::Util();
16 use Data::Dumper::Concise();
17 use Sub::Name ();
18
19 use File::Path ();
20
21 __PACKAGE__->mk_group_accessors('simple' =>
22   qw/_connect_info _dbi_connect_info _dbh _sql_maker _sql_maker_opts _conn_pid
23      _conn_tid transaction_depth _dbh_autocommit _driver_determined savepoints
24      _server_info_hash/
25 );
26
27 # the values for these accessors are picked out (and deleted) from
28 # the attribute hashref passed to connect_info
29 my @storage_options = qw/
30   on_connect_call on_disconnect_call on_connect_do on_disconnect_do
31   disable_sth_caching unsafe auto_savepoint
32 /;
33 __PACKAGE__->mk_group_accessors('simple' => @storage_options);
34
35
36 # default cursor class, overridable in connect_info attributes
37 __PACKAGE__->cursor_class('DBIx::Class::Storage::DBI::Cursor');
38
39 __PACKAGE__->mk_group_accessors('inherited' => qw/
40   sql_maker_class
41   _supports_insert_returning
42 /);
43 __PACKAGE__->sql_maker_class('DBIx::Class::SQLAHacks');
44
45 # Each of these methods need _determine_driver called before itself
46 # in order to function reliably. This is a purely DRY optimization
47 my @rdbms_specific_methods = qw/
48   deployment_statements
49   sqlt_type
50   build_datetime_parser
51   datetime_parser_type
52
53   insert
54   insert_bulk
55   update
56   delete
57   select
58   select_single
59 /;
60
61 for my $meth (@rdbms_specific_methods) {
62
63   my $orig = __PACKAGE__->can ($meth)
64     or next;
65
66   no strict qw/refs/;
67   no warnings qw/redefine/;
68   *{__PACKAGE__ ."::$meth"} = Sub::Name::subname $meth => sub {
69     if (not $_[0]->_driver_determined) {
70       $_[0]->_determine_driver;
71       goto $_[0]->can($meth);
72     }
73     $orig->(@_);
74   };
75 }
76
77
78 =head1 NAME
79
80 DBIx::Class::Storage::DBI - DBI storage handler
81
82 =head1 SYNOPSIS
83
84   my $schema = MySchema->connect('dbi:SQLite:my.db');
85
86   $schema->storage->debug(1);
87
88   my @stuff = $schema->storage->dbh_do(
89     sub {
90       my ($storage, $dbh, @args) = @_;
91       $dbh->do("DROP TABLE authors");
92     },
93     @column_list
94   );
95
96   $schema->resultset('Book')->search({
97      written_on => $schema->storage->datetime_parser->format_datetime(DateTime->now)
98   });
99
100 =head1 DESCRIPTION
101
102 This class represents the connection to an RDBMS via L<DBI>.  See
103 L<DBIx::Class::Storage> for general information.  This pod only
104 documents DBI-specific methods and behaviors.
105
106 =head1 METHODS
107
108 =cut
109
110 sub new {
111   my $new = shift->next::method(@_);
112
113   $new->transaction_depth(0);
114   $new->_sql_maker_opts({});
115   $new->{savepoints} = [];
116   $new->{_in_dbh_do} = 0;
117   $new->{_dbh_gen} = 0;
118
119   # read below to see what this does
120   $new->_arm_global_destructor;
121
122   $new;
123 }
124
125 # This is hack to work around perl shooting stuff in random
126 # order on exit(). If we do not walk the remaining storage
127 # objects in an END block, there is a *small but real* chance
128 # of a fork()ed child to kill the parent's shared DBI handle,
129 # *before perl reaches the DESTROY in this package*
130 # Yes, it is ugly and effective.
131 {
132   my %seek_and_destroy;
133
134   sub _arm_global_destructor {
135     my $self = shift;
136     my $key = Scalar::Util::refaddr ($self);
137     $seek_and_destroy{$key} = $self;
138     Scalar::Util::weaken ($seek_and_destroy{$key});
139   }
140
141   END {
142     local $?; # just in case the DBI destructor changes it somehow
143
144     # destroy just the object if not native to this process/thread
145     $_->_preserve_foreign_dbh for (grep
146       { defined $_ }
147       values %seek_and_destroy
148     );
149   }
150 }
151
152 sub DESTROY {
153   my $self = shift;
154
155   # destroy just the object if not native to this process/thread
156   $self->_preserve_foreign_dbh;
157
158   # some databases need this to stop spewing warnings
159   if (my $dbh = $self->_dbh) {
160     local $@;
161     eval {
162       %{ $dbh->{CachedKids} } = ();
163       $dbh->disconnect;
164     };
165   }
166
167   $self->_dbh(undef);
168 }
169
170 sub _preserve_foreign_dbh {
171   my $self = shift;
172
173   return unless $self->_dbh;
174
175   $self->_verify_tid;
176
177   return unless $self->_dbh;
178
179   $self->_verify_pid;
180
181 }
182
183 # handle pid changes correctly - do not destroy parent's connection
184 sub _verify_pid {
185   my $self = shift;
186
187   return if ( defined $self->_conn_pid and $self->_conn_pid == $$ );
188
189   $self->_dbh->{InactiveDestroy} = 1;
190   $self->_dbh(undef);
191   $self->{_dbh_gen}++;
192
193   return;
194 }
195
196 # very similar to above, but seems to FAIL if I set InactiveDestroy
197 sub _verify_tid {
198   my $self = shift;
199
200   if ( ! defined $self->_conn_tid ) {
201     return; # no threads
202   }
203   elsif ( $self->_conn_tid == threads->tid ) {
204     return; # same thread
205   }
206
207   #$self->_dbh->{InactiveDestroy} = 1;  # why does t/51threads.t fail...?
208   $self->_dbh(undef);
209   $self->{_dbh_gen}++;
210
211   return;
212 }
213
214
215 =head2 connect_info
216
217 This method is normally called by L<DBIx::Class::Schema/connection>, which
218 encapsulates its argument list in an arrayref before passing them here.
219
220 The argument list may contain:
221
222 =over
223
224 =item *
225
226 The same 4-element argument set one would normally pass to
227 L<DBI/connect>, optionally followed by
228 L<extra attributes|/DBIx::Class specific connection attributes>
229 recognized by DBIx::Class:
230
231   $connect_info_args = [ $dsn, $user, $password, \%dbi_attributes?, \%extra_attributes? ];
232
233 =item *
234
235 A single code reference which returns a connected
236 L<DBI database handle|DBI/connect> optionally followed by
237 L<extra attributes|/DBIx::Class specific connection attributes> recognized
238 by DBIx::Class:
239
240   $connect_info_args = [ sub { DBI->connect (...) }, \%extra_attributes? ];
241
242 =item *
243
244 A single hashref with all the attributes and the dsn/user/password
245 mixed together:
246
247   $connect_info_args = [{
248     dsn => $dsn,
249     user => $user,
250     password => $pass,
251     %dbi_attributes,
252     %extra_attributes,
253   }];
254
255   $connect_info_args = [{
256     dbh_maker => sub { DBI->connect (...) },
257     %dbi_attributes,
258     %extra_attributes,
259   }];
260
261 This is particularly useful for L<Catalyst> based applications, allowing the
262 following config (L<Config::General> style):
263
264   <Model::DB>
265     schema_class   App::DB
266     <connect_info>
267       dsn          dbi:mysql:database=test
268       user         testuser
269       password     TestPass
270       AutoCommit   1
271     </connect_info>
272   </Model::DB>
273
274 The C<dsn>/C<user>/C<password> combination can be substituted by the
275 C<dbh_maker> key whose value is a coderef that returns a connected
276 L<DBI database handle|DBI/connect>
277
278 =back
279
280 Please note that the L<DBI> docs recommend that you always explicitly
281 set C<AutoCommit> to either I<0> or I<1>.  L<DBIx::Class> further
282 recommends that it be set to I<1>, and that you perform transactions
283 via our L<DBIx::Class::Schema/txn_do> method.  L<DBIx::Class> will set it
284 to I<1> if you do not do explicitly set it to zero.  This is the default
285 for most DBDs. See L</DBIx::Class and AutoCommit> for details.
286
287 =head3 DBIx::Class specific connection attributes
288
289 In addition to the standard L<DBI|DBI/ATTRIBUTES_COMMON_TO_ALL_HANDLES>
290 L<connection|DBI/Database_Handle_Attributes> attributes, DBIx::Class recognizes
291 the following connection options. These options can be mixed in with your other
292 L<DBI> connection attributes, or placed in a separate hashref
293 (C<\%extra_attributes>) as shown above.
294
295 Every time C<connect_info> is invoked, any previous settings for
296 these options will be cleared before setting the new ones, regardless of
297 whether any options are specified in the new C<connect_info>.
298
299
300 =over
301
302 =item on_connect_do
303
304 Specifies things to do immediately after connecting or re-connecting to
305 the database.  Its value may contain:
306
307 =over
308
309 =item a scalar
310
311 This contains one SQL statement to execute.
312
313 =item an array reference
314
315 This contains SQL statements to execute in order.  Each element contains
316 a string or a code reference that returns a string.
317
318 =item a code reference
319
320 This contains some code to execute.  Unlike code references within an
321 array reference, its return value is ignored.
322
323 =back
324
325 =item on_disconnect_do
326
327 Takes arguments in the same form as L</on_connect_do> and executes them
328 immediately before disconnecting from the database.
329
330 Note, this only runs if you explicitly call L</disconnect> on the
331 storage object.
332
333 =item on_connect_call
334
335 A more generalized form of L</on_connect_do> that calls the specified
336 C<connect_call_METHOD> methods in your storage driver.
337
338   on_connect_do => 'select 1'
339
340 is equivalent to:
341
342   on_connect_call => [ [ do_sql => 'select 1' ] ]
343
344 Its values may contain:
345
346 =over
347
348 =item a scalar
349
350 Will call the C<connect_call_METHOD> method.
351
352 =item a code reference
353
354 Will execute C<< $code->($storage) >>
355
356 =item an array reference
357
358 Each value can be a method name or code reference.
359
360 =item an array of arrays
361
362 For each array, the first item is taken to be the C<connect_call_> method name
363 or code reference, and the rest are parameters to it.
364
365 =back
366
367 Some predefined storage methods you may use:
368
369 =over
370
371 =item do_sql
372
373 Executes a SQL string or a code reference that returns a SQL string. This is
374 what L</on_connect_do> and L</on_disconnect_do> use.
375
376 It can take:
377
378 =over
379
380 =item a scalar
381
382 Will execute the scalar as SQL.
383
384 =item an arrayref
385
386 Taken to be arguments to L<DBI/do>, the SQL string optionally followed by the
387 attributes hashref and bind values.
388
389 =item a code reference
390
391 Will execute C<< $code->($storage) >> and execute the return array refs as
392 above.
393
394 =back
395
396 =item datetime_setup
397
398 Execute any statements necessary to initialize the database session to return
399 and accept datetime/timestamp values used with
400 L<DBIx::Class::InflateColumn::DateTime>.
401
402 Only necessary for some databases, see your specific storage driver for
403 implementation details.
404
405 =back
406
407 =item on_disconnect_call
408
409 Takes arguments in the same form as L</on_connect_call> and executes them
410 immediately before disconnecting from the database.
411
412 Calls the C<disconnect_call_METHOD> methods as opposed to the
413 C<connect_call_METHOD> methods called by L</on_connect_call>.
414
415 Note, this only runs if you explicitly call L</disconnect> on the
416 storage object.
417
418 =item disable_sth_caching
419
420 If set to a true value, this option will disable the caching of
421 statement handles via L<DBI/prepare_cached>.
422
423 =item limit_dialect
424
425 Sets the limit dialect. This is useful for JDBC-bridge among others
426 where the remote SQL-dialect cannot be determined by the name of the
427 driver alone. See also L<SQL::Abstract::Limit>.
428
429 =item quote_char
430
431 Specifies what characters to use to quote table and column names. If
432 you use this you will want to specify L</name_sep> as well.
433
434 C<quote_char> expects either a single character, in which case is it
435 is placed on either side of the table/column name, or an arrayref of length
436 2 in which case the table/column name is placed between the elements.
437
438 For example under MySQL you should use C<< quote_char => '`' >>, and for
439 SQL Server you should use C<< quote_char => [qw/[ ]/] >>.
440
441 =item name_sep
442
443 This only needs to be used in conjunction with C<quote_char>, and is used to
444 specify the character that separates elements (schemas, tables, columns) from
445 each other. In most cases this is simply a C<.>.
446
447 The consequences of not supplying this value is that L<SQL::Abstract>
448 will assume DBIx::Class' uses of aliases to be complete column
449 names. The output will look like I<"me.name"> when it should actually
450 be I<"me"."name">.
451
452 =item unsafe
453
454 This Storage driver normally installs its own C<HandleError>, sets
455 C<RaiseError> and C<ShowErrorStatement> on, and sets C<PrintError> off on
456 all database handles, including those supplied by a coderef.  It does this
457 so that it can have consistent and useful error behavior.
458
459 If you set this option to a true value, Storage will not do its usual
460 modifications to the database handle's attributes, and instead relies on
461 the settings in your connect_info DBI options (or the values you set in
462 your connection coderef, in the case that you are connecting via coderef).
463
464 Note that your custom settings can cause Storage to malfunction,
465 especially if you set a C<HandleError> handler that suppresses exceptions
466 and/or disable C<RaiseError>.
467
468 =item auto_savepoint
469
470 If this option is true, L<DBIx::Class> will use savepoints when nesting
471 transactions, making it possible to recover from failure in the inner
472 transaction without having to abort all outer transactions.
473
474 =item cursor_class
475
476 Use this argument to supply a cursor class other than the default
477 L<DBIx::Class::Storage::DBI::Cursor>.
478
479 =back
480
481 Some real-life examples of arguments to L</connect_info> and
482 L<DBIx::Class::Schema/connect>
483
484   # Simple SQLite connection
485   ->connect_info([ 'dbi:SQLite:./foo.db' ]);
486
487   # Connect via subref
488   ->connect_info([ sub { DBI->connect(...) } ]);
489
490   # Connect via subref in hashref
491   ->connect_info([{
492     dbh_maker => sub { DBI->connect(...) },
493     on_connect_do => 'alter session ...',
494   }]);
495
496   # A bit more complicated
497   ->connect_info(
498     [
499       'dbi:Pg:dbname=foo',
500       'postgres',
501       'my_pg_password',
502       { AutoCommit => 1 },
503       { quote_char => q{"}, name_sep => q{.} },
504     ]
505   );
506
507   # Equivalent to the previous example
508   ->connect_info(
509     [
510       'dbi:Pg:dbname=foo',
511       'postgres',
512       'my_pg_password',
513       { AutoCommit => 1, quote_char => q{"}, name_sep => q{.} },
514     ]
515   );
516
517   # Same, but with hashref as argument
518   # See parse_connect_info for explanation
519   ->connect_info(
520     [{
521       dsn         => 'dbi:Pg:dbname=foo',
522       user        => 'postgres',
523       password    => 'my_pg_password',
524       AutoCommit  => 1,
525       quote_char  => q{"},
526       name_sep    => q{.},
527     }]
528   );
529
530   # Subref + DBIx::Class-specific connection options
531   ->connect_info(
532     [
533       sub { DBI->connect(...) },
534       {
535           quote_char => q{`},
536           name_sep => q{@},
537           on_connect_do => ['SET search_path TO myschema,otherschema,public'],
538           disable_sth_caching => 1,
539       },
540     ]
541   );
542
543
544
545 =cut
546
547 sub connect_info {
548   my ($self, $info) = @_;
549
550   return $self->_connect_info if !$info;
551
552   $self->_connect_info($info); # copy for _connect_info
553
554   $info = $self->_normalize_connect_info($info)
555     if ref $info eq 'ARRAY';
556
557   for my $storage_opt (keys %{ $info->{storage_options} }) {
558     my $value = $info->{storage_options}{$storage_opt};
559
560     $self->$storage_opt($value);
561   }
562
563   # Kill sql_maker/_sql_maker_opts, so we get a fresh one with only
564   #  the new set of options
565   $self->_sql_maker(undef);
566   $self->_sql_maker_opts({});
567
568   for my $sql_maker_opt (keys %{ $info->{sql_maker_options} }) {
569     my $value = $info->{sql_maker_options}{$sql_maker_opt};
570
571     $self->_sql_maker_opts->{$sql_maker_opt} = $value;
572   }
573
574   my %attrs = (
575     %{ $self->_default_dbi_connect_attributes || {} },
576     %{ $info->{attributes} || {} },
577   );
578
579   my @args = @{ $info->{arguments} };
580
581   $self->_dbi_connect_info([@args,
582     %attrs && !(ref $args[0] eq 'CODE') ? \%attrs : ()]);
583
584   return $self->_connect_info;
585 }
586
587 sub _normalize_connect_info {
588   my ($self, $info_arg) = @_;
589   my %info;
590
591   my @args = @$info_arg;  # take a shallow copy for further mutilation
592
593   # combine/pre-parse arguments depending on invocation style
594
595   my %attrs;
596   if (ref $args[0] eq 'CODE') {     # coderef with optional \%extra_attributes
597     %attrs = %{ $args[1] || {} };
598     @args = $args[0];
599   }
600   elsif (ref $args[0] eq 'HASH') { # single hashref (i.e. Catalyst config)
601     %attrs = %{$args[0]};
602     @args = ();
603     if (my $code = delete $attrs{dbh_maker}) {
604       @args = $code;
605
606       my @ignored = grep { delete $attrs{$_} } (qw/dsn user password/);
607       if (@ignored) {
608         carp sprintf (
609             'Attribute(s) %s in connect_info were ignored, as they can not be applied '
610           . "to the result of 'dbh_maker'",
611
612           join (', ', map { "'$_'" } (@ignored) ),
613         );
614       }
615     }
616     else {
617       @args = delete @attrs{qw/dsn user password/};
618     }
619   }
620   else {                # otherwise assume dsn/user/password + \%attrs + \%extra_attrs
621     %attrs = (
622       % { $args[3] || {} },
623       % { $args[4] || {} },
624     );
625     @args = @args[0,1,2];
626   }
627
628   $info{arguments} = \@args;
629
630   my @storage_opts = grep exists $attrs{$_},
631     @storage_options, 'cursor_class';
632
633   @{ $info{storage_options} }{@storage_opts} =
634     delete @attrs{@storage_opts} if @storage_opts;
635
636   my @sql_maker_opts = grep exists $attrs{$_},
637     qw/limit_dialect quote_char name_sep/;
638
639   @{ $info{sql_maker_options} }{@sql_maker_opts} =
640     delete @attrs{@sql_maker_opts} if @sql_maker_opts;
641
642   $info{attributes} = \%attrs if %attrs;
643
644   return \%info;
645 }
646
647 sub _default_dbi_connect_attributes {
648   return {
649     AutoCommit => 1,
650     RaiseError => 1,
651     PrintError => 0,
652   };
653 }
654
655 =head2 on_connect_do
656
657 This method is deprecated in favour of setting via L</connect_info>.
658
659 =cut
660
661 =head2 on_disconnect_do
662
663 This method is deprecated in favour of setting via L</connect_info>.
664
665 =cut
666
667 sub _parse_connect_do {
668   my ($self, $type) = @_;
669
670   my $val = $self->$type;
671   return () if not defined $val;
672
673   my @res;
674
675   if (not ref($val)) {
676     push @res, [ 'do_sql', $val ];
677   } elsif (ref($val) eq 'CODE') {
678     push @res, $val;
679   } elsif (ref($val) eq 'ARRAY') {
680     push @res, map { [ 'do_sql', $_ ] } @$val;
681   } else {
682     $self->throw_exception("Invalid type for $type: ".ref($val));
683   }
684
685   return \@res;
686 }
687
688 =head2 dbh_do
689
690 Arguments: ($subref | $method_name), @extra_coderef_args?
691
692 Execute the given $subref or $method_name using the new exception-based
693 connection management.
694
695 The first two arguments will be the storage object that C<dbh_do> was called
696 on and a database handle to use.  Any additional arguments will be passed
697 verbatim to the called subref as arguments 2 and onwards.
698
699 Using this (instead of $self->_dbh or $self->dbh) ensures correct
700 exception handling and reconnection (or failover in future subclasses).
701
702 Your subref should have no side-effects outside of the database, as
703 there is the potential for your subref to be partially double-executed
704 if the database connection was stale/dysfunctional.
705
706 Example:
707
708   my @stuff = $schema->storage->dbh_do(
709     sub {
710       my ($storage, $dbh, @cols) = @_;
711       my $cols = join(q{, }, @cols);
712       $dbh->selectrow_array("SELECT $cols FROM foo");
713     },
714     @column_list
715   );
716
717 =cut
718
719 sub dbh_do {
720   my $self = shift;
721   my $code = shift;
722
723   my $dbh = $self->_get_dbh;
724
725   return $self->$code($dbh, @_) if $self->{_in_dbh_do}
726       || $self->{transaction_depth};
727
728   local $self->{_in_dbh_do} = 1;
729
730   my @result;
731   my $want_array = wantarray;
732
733   eval {
734
735     if($want_array) {
736         @result = $self->$code($dbh, @_);
737     }
738     elsif(defined $want_array) {
739         $result[0] = $self->$code($dbh, @_);
740     }
741     else {
742         $self->$code($dbh, @_);
743     }
744   };
745
746   # ->connected might unset $@ - copy
747   my $exception = $@;
748   if(!$exception) { return $want_array ? @result : $result[0] }
749
750   $self->throw_exception($exception) if $self->connected;
751
752   # We were not connected - reconnect and retry, but let any
753   #  exception fall right through this time
754   carp "Retrying $code after catching disconnected exception: $exception"
755     if $ENV{DBIC_DBIRETRY_DEBUG};
756   $self->_populate_dbh;
757   $self->$code($self->_dbh, @_);
758 }
759
760 # This is basically a blend of dbh_do above and DBIx::Class::Storage::txn_do.
761 # It also informs dbh_do to bypass itself while under the direction of txn_do,
762 #  via $self->{_in_dbh_do} (this saves some redundant eval and errorcheck, etc)
763 sub txn_do {
764   my $self = shift;
765   my $coderef = shift;
766
767   ref $coderef eq 'CODE' or $self->throw_exception
768     ('$coderef must be a CODE reference');
769
770   return $coderef->(@_) if $self->{transaction_depth} && ! $self->auto_savepoint;
771
772   local $self->{_in_dbh_do} = 1;
773
774   my @result;
775   my $want_array = wantarray;
776
777   my $tried = 0;
778   while(1) {
779     eval {
780       $self->_get_dbh;
781
782       $self->txn_begin;
783       if($want_array) {
784           @result = $coderef->(@_);
785       }
786       elsif(defined $want_array) {
787           $result[0] = $coderef->(@_);
788       }
789       else {
790           $coderef->(@_);
791       }
792       $self->txn_commit;
793     };
794
795     # ->connected might unset $@ - copy
796     my $exception = $@;
797     if(!$exception) { return $want_array ? @result : $result[0] }
798
799     if($tried++ || $self->connected) {
800       eval { $self->txn_rollback };
801       my $rollback_exception = $@;
802       if($rollback_exception) {
803         my $exception_class = "DBIx::Class::Storage::NESTED_ROLLBACK_EXCEPTION";
804         $self->throw_exception($exception)  # propagate nested rollback
805           if $rollback_exception =~ /$exception_class/;
806
807         $self->throw_exception(
808           "Transaction aborted: ${exception}. "
809           . "Rollback failed: ${rollback_exception}"
810         );
811       }
812       $self->throw_exception($exception)
813     }
814
815     # We were not connected, and was first try - reconnect and retry
816     # via the while loop
817     carp "Retrying $coderef after catching disconnected exception: $exception"
818       if $ENV{DBIC_DBIRETRY_DEBUG};
819     $self->_populate_dbh;
820   }
821 }
822
823 =head2 disconnect
824
825 Our C<disconnect> method also performs a rollback first if the
826 database is not in C<AutoCommit> mode.
827
828 =cut
829
830 sub disconnect {
831   my ($self) = @_;
832
833   if( $self->_dbh ) {
834     my @actions;
835
836     push @actions, ( $self->on_disconnect_call || () );
837     push @actions, $self->_parse_connect_do ('on_disconnect_do');
838
839     $self->_do_connection_actions(disconnect_call_ => $_) for @actions;
840
841     $self->_dbh_rollback unless $self->_dbh_autocommit;
842
843     %{ $self->_dbh->{CachedKids} } = ();
844     $self->_dbh->disconnect;
845     $self->_dbh(undef);
846     $self->{_dbh_gen}++;
847   }
848 }
849
850 =head2 with_deferred_fk_checks
851
852 =over 4
853
854 =item Arguments: C<$coderef>
855
856 =item Return Value: The return value of $coderef
857
858 =back
859
860 Storage specific method to run the code ref with FK checks deferred or
861 in MySQL's case disabled entirely.
862
863 =cut
864
865 # Storage subclasses should override this
866 sub with_deferred_fk_checks {
867   my ($self, $sub) = @_;
868   $sub->();
869 }
870
871 =head2 connected
872
873 =over
874
875 =item Arguments: none
876
877 =item Return Value: 1|0
878
879 =back
880
881 Verifies that the current database handle is active and ready to execute
882 an SQL statement (e.g. the connection did not get stale, server is still
883 answering, etc.) This method is used internally by L</dbh>.
884
885 =cut
886
887 sub connected {
888   my $self = shift;
889   return 0 unless $self->_seems_connected;
890
891   #be on the safe side
892   local $self->_dbh->{RaiseError} = 1;
893
894   return $self->_ping;
895 }
896
897 sub _seems_connected {
898   my $self = shift;
899
900   $self->_preserve_foreign_dbh;
901
902   my $dbh = $self->_dbh
903     or return 0;
904
905   return $dbh->FETCH('Active');
906 }
907
908 sub _ping {
909   my $self = shift;
910
911   my $dbh = $self->_dbh or return 0;
912
913   return $dbh->ping;
914 }
915
916 sub ensure_connected {
917   my ($self) = @_;
918
919   unless ($self->connected) {
920     $self->_populate_dbh;
921   }
922 }
923
924 =head2 dbh
925
926 Returns a C<$dbh> - a data base handle of class L<DBI>. The returned handle
927 is guaranteed to be healthy by implicitly calling L</connected>, and if
928 necessary performing a reconnection before returning. Keep in mind that this
929 is very B<expensive> on some database engines. Consider using L</dbh_do>
930 instead.
931
932 =cut
933
934 sub dbh {
935   my ($self) = @_;
936
937   if (not $self->_dbh) {
938     $self->_populate_dbh;
939   } else {
940     $self->ensure_connected;
941   }
942   return $self->_dbh;
943 }
944
945 # this is the internal "get dbh or connect (don't check)" method
946 sub _get_dbh {
947   my $self = shift;
948   $self->_preserve_foreign_dbh;
949   $self->_populate_dbh unless $self->_dbh;
950   return $self->_dbh;
951 }
952
953 sub _sql_maker_args {
954     my ($self) = @_;
955
956     return (
957       bindtype=>'columns',
958       array_datatypes => 1,
959       limit_dialect => $self->_get_dbh,
960       %{$self->_sql_maker_opts}
961     );
962 }
963
964 sub sql_maker {
965   my ($self) = @_;
966   unless ($self->_sql_maker) {
967     my $sql_maker_class = $self->sql_maker_class;
968     $self->ensure_class_loaded ($sql_maker_class);
969     $self->_sql_maker($sql_maker_class->new( $self->_sql_maker_args ));
970   }
971   return $self->_sql_maker;
972 }
973
974 # nothing to do by default
975 sub _rebless {}
976 sub _init {}
977
978 sub _populate_dbh {
979   my ($self) = @_;
980
981   my @info = @{$self->_dbi_connect_info || []};
982   $self->_dbh(undef); # in case ->connected failed we might get sent here
983   $self->_server_info_hash (undef);
984   $self->_dbh($self->_connect(@info));
985
986   $self->_conn_pid($$);
987   $self->_conn_tid(threads->tid) if $INC{'threads.pm'};
988
989   $self->_determine_driver;
990
991   # Always set the transaction depth on connect, since
992   #  there is no transaction in progress by definition
993   $self->{transaction_depth} = $self->_dbh_autocommit ? 0 : 1;
994
995   $self->_run_connection_actions unless $self->{_in_determine_driver};
996 }
997
998 sub _run_connection_actions {
999   my $self = shift;
1000   my @actions;
1001
1002   push @actions, ( $self->on_connect_call || () );
1003   push @actions, $self->_parse_connect_do ('on_connect_do');
1004
1005   $self->_do_connection_actions(connect_call_ => $_) for @actions;
1006 }
1007
1008 sub _server_info {
1009   my $self = shift;
1010
1011   unless ($self->_server_info_hash) {
1012
1013     my %info;
1014
1015     my $server_version = $self->_get_server_version;
1016
1017     if (defined $server_version) {
1018       $info{dbms_version} = $server_version;
1019
1020       my ($numeric_version) = $server_version =~ /^([\d\.]+)/;
1021       my @verparts = split (/\./, $numeric_version);
1022       if (
1023         @verparts
1024           &&
1025         $verparts[0] <= 999
1026       ) {
1027         # consider only up to 3 version parts, iff not more than 3 digits
1028         my @use_parts;
1029         while (@verparts && @use_parts < 3) {
1030           my $p = shift @verparts;
1031           last if $p > 999;
1032           push @use_parts, $p;
1033         }
1034         push @use_parts, 0 while @use_parts < 3;
1035
1036         $info{normalized_dbms_version} = sprintf "%d.%03d%03d", @use_parts;
1037       }
1038     }
1039
1040     $self->_server_info_hash(\%info);
1041   }
1042
1043   return $self->_server_info_hash
1044 }
1045
1046 sub _get_server_version {
1047   eval { shift->_get_dbh->get_info(18) };
1048 }
1049
1050 sub _determine_driver {
1051   my ($self) = @_;
1052
1053   if ((not $self->_driver_determined) && (not $self->{_in_determine_driver})) {
1054     my $started_connected = 0;
1055     local $self->{_in_determine_driver} = 1;
1056
1057     if (ref($self) eq __PACKAGE__) {
1058       my $driver;
1059       if ($self->_dbh) { # we are connected
1060         $driver = $self->_dbh->{Driver}{Name};
1061         $started_connected = 1;
1062       } else {
1063         # if connect_info is a CODEREF, we have no choice but to connect
1064         if (ref $self->_dbi_connect_info->[0] &&
1065             Scalar::Util::reftype($self->_dbi_connect_info->[0]) eq 'CODE') {
1066           $self->_populate_dbh;
1067           $driver = $self->_dbh->{Driver}{Name};
1068         }
1069         else {
1070           # try to use dsn to not require being connected, the driver may still
1071           # force a connection in _rebless to determine version
1072           # (dsn may not be supplied at all if all we do is make a mock-schema)
1073           my $dsn = $self->_dbi_connect_info->[0] || $ENV{DBI_DSN} || '';
1074           ($driver) = $dsn =~ /dbi:([^:]+):/i;
1075           $driver ||= $ENV{DBI_DRIVER};
1076         }
1077       }
1078
1079       if ($driver) {
1080         my $storage_class = "DBIx::Class::Storage::DBI::${driver}";
1081         if ($self->load_optional_class($storage_class)) {
1082           mro::set_mro($storage_class, 'c3');
1083           bless $self, $storage_class;
1084           $self->_rebless();
1085         }
1086       }
1087     }
1088
1089     $self->_driver_determined(1);
1090
1091     $self->_init; # run driver-specific initializations
1092
1093     $self->_run_connection_actions
1094         if !$started_connected && defined $self->_dbh;
1095   }
1096 }
1097
1098 sub _do_connection_actions {
1099   my $self          = shift;
1100   my $method_prefix = shift;
1101   my $call          = shift;
1102
1103   if (not ref($call)) {
1104     my $method = $method_prefix . $call;
1105     $self->$method(@_);
1106   } elsif (ref($call) eq 'CODE') {
1107     $self->$call(@_);
1108   } elsif (ref($call) eq 'ARRAY') {
1109     if (ref($call->[0]) ne 'ARRAY') {
1110       $self->_do_connection_actions($method_prefix, $_) for @$call;
1111     } else {
1112       $self->_do_connection_actions($method_prefix, @$_) for @$call;
1113     }
1114   } else {
1115     $self->throw_exception (sprintf ("Don't know how to process conection actions of type '%s'", ref($call)) );
1116   }
1117
1118   return $self;
1119 }
1120
1121 sub connect_call_do_sql {
1122   my $self = shift;
1123   $self->_do_query(@_);
1124 }
1125
1126 sub disconnect_call_do_sql {
1127   my $self = shift;
1128   $self->_do_query(@_);
1129 }
1130
1131 # override in db-specific backend when necessary
1132 sub connect_call_datetime_setup { 1 }
1133
1134 sub _do_query {
1135   my ($self, $action) = @_;
1136
1137   if (ref $action eq 'CODE') {
1138     $action = $action->($self);
1139     $self->_do_query($_) foreach @$action;
1140   }
1141   else {
1142     # Most debuggers expect ($sql, @bind), so we need to exclude
1143     # the attribute hash which is the second argument to $dbh->do
1144     # furthermore the bind values are usually to be presented
1145     # as named arrayref pairs, so wrap those here too
1146     my @do_args = (ref $action eq 'ARRAY') ? (@$action) : ($action);
1147     my $sql = shift @do_args;
1148     my $attrs = shift @do_args;
1149     my @bind = map { [ undef, $_ ] } @do_args;
1150
1151     $self->_query_start($sql, @bind);
1152     $self->_get_dbh->do($sql, $attrs, @do_args);
1153     $self->_query_end($sql, @bind);
1154   }
1155
1156   return $self;
1157 }
1158
1159 sub _connect {
1160   my ($self, @info) = @_;
1161
1162   $self->throw_exception("You failed to provide any connection info")
1163     if !@info;
1164
1165   my ($old_connect_via, $dbh);
1166
1167   if ($INC{'Apache/DBI.pm'} && $ENV{MOD_PERL}) {
1168     $old_connect_via = $DBI::connect_via;
1169     $DBI::connect_via = 'connect';
1170   }
1171
1172   eval {
1173     if(ref $info[0] eq 'CODE') {
1174        $dbh = $info[0]->();
1175     }
1176     else {
1177        $dbh = DBI->connect(@info);
1178     }
1179
1180     if($dbh && !$self->unsafe) {
1181       my $weak_self = $self;
1182       Scalar::Util::weaken($weak_self);
1183       $dbh->{HandleError} = sub {
1184           if ($weak_self) {
1185             $weak_self->throw_exception("DBI Exception: $_[0]");
1186           }
1187           else {
1188             # the handler may be invoked by something totally out of
1189             # the scope of DBIC
1190             croak ("DBI Exception: $_[0]");
1191           }
1192       };
1193       $dbh->{ShowErrorStatement} = 1;
1194       $dbh->{RaiseError} = 1;
1195       $dbh->{PrintError} = 0;
1196     }
1197   };
1198
1199   $DBI::connect_via = $old_connect_via if $old_connect_via;
1200
1201   $self->throw_exception("DBI Connection failed: " . ($@||$DBI::errstr))
1202     if !$dbh || $@;
1203
1204   $self->_dbh_autocommit($dbh->{AutoCommit});
1205
1206   $dbh;
1207 }
1208
1209 sub svp_begin {
1210   my ($self, $name) = @_;
1211
1212   $name = $self->_svp_generate_name
1213     unless defined $name;
1214
1215   $self->throw_exception ("You can't use savepoints outside a transaction")
1216     if $self->{transaction_depth} == 0;
1217
1218   $self->throw_exception ("Your Storage implementation doesn't support savepoints")
1219     unless $self->can('_svp_begin');
1220
1221   push @{ $self->{savepoints} }, $name;
1222
1223   $self->debugobj->svp_begin($name) if $self->debug;
1224
1225   return $self->_svp_begin($name);
1226 }
1227
1228 sub svp_release {
1229   my ($self, $name) = @_;
1230
1231   $self->throw_exception ("You can't use savepoints outside a transaction")
1232     if $self->{transaction_depth} == 0;
1233
1234   $self->throw_exception ("Your Storage implementation doesn't support savepoints")
1235     unless $self->can('_svp_release');
1236
1237   if (defined $name) {
1238     $self->throw_exception ("Savepoint '$name' does not exist")
1239       unless grep { $_ eq $name } @{ $self->{savepoints} };
1240
1241     # Dig through the stack until we find the one we are releasing.  This keeps
1242     # the stack up to date.
1243     my $svp;
1244
1245     do { $svp = pop @{ $self->{savepoints} } } while $svp ne $name;
1246   } else {
1247     $name = pop @{ $self->{savepoints} };
1248   }
1249
1250   $self->debugobj->svp_release($name) if $self->debug;
1251
1252   return $self->_svp_release($name);
1253 }
1254
1255 sub svp_rollback {
1256   my ($self, $name) = @_;
1257
1258   $self->throw_exception ("You can't use savepoints outside a transaction")
1259     if $self->{transaction_depth} == 0;
1260
1261   $self->throw_exception ("Your Storage implementation doesn't support savepoints")
1262     unless $self->can('_svp_rollback');
1263
1264   if (defined $name) {
1265       # If they passed us a name, verify that it exists in the stack
1266       unless(grep({ $_ eq $name } @{ $self->{savepoints} })) {
1267           $self->throw_exception("Savepoint '$name' does not exist!");
1268       }
1269
1270       # Dig through the stack until we find the one we are releasing.  This keeps
1271       # the stack up to date.
1272       while(my $s = pop(@{ $self->{savepoints} })) {
1273           last if($s eq $name);
1274       }
1275       # Add the savepoint back to the stack, as a rollback doesn't remove the
1276       # named savepoint, only everything after it.
1277       push(@{ $self->{savepoints} }, $name);
1278   } else {
1279       # We'll assume they want to rollback to the last savepoint
1280       $name = $self->{savepoints}->[-1];
1281   }
1282
1283   $self->debugobj->svp_rollback($name) if $self->debug;
1284
1285   return $self->_svp_rollback($name);
1286 }
1287
1288 sub _svp_generate_name {
1289     my ($self) = @_;
1290
1291     return 'savepoint_'.scalar(@{ $self->{'savepoints'} });
1292 }
1293
1294 sub txn_begin {
1295   my $self = shift;
1296
1297   # this means we have not yet connected and do not know the AC status
1298   # (e.g. coderef $dbh)
1299   $self->ensure_connected if (! defined $self->_dbh_autocommit);
1300
1301   if($self->{transaction_depth} == 0) {
1302     $self->debugobj->txn_begin()
1303       if $self->debug;
1304     $self->_dbh_begin_work;
1305   }
1306   elsif ($self->auto_savepoint) {
1307     $self->svp_begin;
1308   }
1309   $self->{transaction_depth}++;
1310 }
1311
1312 sub _dbh_begin_work {
1313   my $self = shift;
1314
1315   # if the user is utilizing txn_do - good for him, otherwise we need to
1316   # ensure that the $dbh is healthy on BEGIN.
1317   # We do this via ->dbh_do instead of ->dbh, so that the ->dbh "ping"
1318   # will be replaced by a failure of begin_work itself (which will be
1319   # then retried on reconnect)
1320   if ($self->{_in_dbh_do}) {
1321     $self->_dbh->begin_work;
1322   } else {
1323     $self->dbh_do(sub { $_[1]->begin_work });
1324   }
1325 }
1326
1327 sub txn_commit {
1328   my $self = shift;
1329   if ($self->{transaction_depth} == 1) {
1330     $self->debugobj->txn_commit()
1331       if ($self->debug);
1332     $self->_dbh_commit;
1333     $self->{transaction_depth} = 0
1334       if $self->_dbh_autocommit;
1335   }
1336   elsif($self->{transaction_depth} > 1) {
1337     $self->{transaction_depth}--;
1338     $self->svp_release
1339       if $self->auto_savepoint;
1340   }
1341 }
1342
1343 sub _dbh_commit {
1344   my $self = shift;
1345   my $dbh  = $self->_dbh
1346     or $self->throw_exception('cannot COMMIT on a disconnected handle');
1347   $dbh->commit;
1348 }
1349
1350 sub txn_rollback {
1351   my $self = shift;
1352   my $dbh = $self->_dbh;
1353   eval {
1354     if ($self->{transaction_depth} == 1) {
1355       $self->debugobj->txn_rollback()
1356         if ($self->debug);
1357       $self->{transaction_depth} = 0
1358         if $self->_dbh_autocommit;
1359       $self->_dbh_rollback;
1360     }
1361     elsif($self->{transaction_depth} > 1) {
1362       $self->{transaction_depth}--;
1363       if ($self->auto_savepoint) {
1364         $self->svp_rollback;
1365         $self->svp_release;
1366       }
1367     }
1368     else {
1369       die DBIx::Class::Storage::NESTED_ROLLBACK_EXCEPTION->new;
1370     }
1371   };
1372   if ($@) {
1373     my $error = $@;
1374     my $exception_class = "DBIx::Class::Storage::NESTED_ROLLBACK_EXCEPTION";
1375     $error =~ /$exception_class/ and $self->throw_exception($error);
1376     # ensure that a failed rollback resets the transaction depth
1377     $self->{transaction_depth} = $self->_dbh_autocommit ? 0 : 1;
1378     $self->throw_exception($error);
1379   }
1380 }
1381
1382 sub _dbh_rollback {
1383   my $self = shift;
1384   my $dbh  = $self->_dbh
1385     or $self->throw_exception('cannot ROLLBACK on a disconnected handle');
1386   $dbh->rollback;
1387 }
1388
1389 # This used to be the top-half of _execute.  It was split out to make it
1390 #  easier to override in NoBindVars without duping the rest.  It takes up
1391 #  all of _execute's args, and emits $sql, @bind.
1392 sub _prep_for_execute {
1393   my ($self, $op, $extra_bind, $ident, $args) = @_;
1394
1395   if( Scalar::Util::blessed($ident) && $ident->isa("DBIx::Class::ResultSource") ) {
1396     $ident = $ident->from();
1397   }
1398
1399   my ($sql, @bind) = $self->sql_maker->$op($ident, @$args);
1400
1401   unshift(@bind,
1402     map { ref $_ eq 'ARRAY' ? $_ : [ '!!dummy', $_ ] } @$extra_bind)
1403       if $extra_bind;
1404   return ($sql, \@bind);
1405 }
1406
1407
1408 sub _fix_bind_params {
1409     my ($self, @bind) = @_;
1410
1411     ### Turn @bind from something like this:
1412     ###   ( [ "artist", 1 ], [ "cdid", 1, 3 ] )
1413     ### to this:
1414     ###   ( "'1'", "'1'", "'3'" )
1415     return
1416         map {
1417             if ( defined( $_ && $_->[1] ) ) {
1418                 map { qq{'$_'}; } @{$_}[ 1 .. $#$_ ];
1419             }
1420             else { q{'NULL'}; }
1421         } @bind;
1422 }
1423
1424 sub _query_start {
1425     my ( $self, $sql, @bind ) = @_;
1426
1427     if ( $self->debug ) {
1428         @bind = $self->_fix_bind_params(@bind);
1429
1430         $self->debugobj->query_start( $sql, @bind );
1431     }
1432 }
1433
1434 sub _query_end {
1435     my ( $self, $sql, @bind ) = @_;
1436
1437     if ( $self->debug ) {
1438         @bind = $self->_fix_bind_params(@bind);
1439         $self->debugobj->query_end( $sql, @bind );
1440     }
1441 }
1442
1443 sub _dbh_execute {
1444   my ($self, $dbh, $op, $extra_bind, $ident, $bind_attributes, @args) = @_;
1445
1446   my ($sql, $bind) = $self->_prep_for_execute($op, $extra_bind, $ident, \@args);
1447
1448   $self->_query_start( $sql, @$bind );
1449
1450   my $sth = $self->sth($sql,$op);
1451
1452   my $placeholder_index = 1;
1453
1454   foreach my $bound (@$bind) {
1455     my $attributes = {};
1456     my($column_name, @data) = @$bound;
1457
1458     if ($bind_attributes) {
1459       $attributes = $bind_attributes->{$column_name}
1460       if defined $bind_attributes->{$column_name};
1461     }
1462
1463     foreach my $data (@data) {
1464       my $ref = ref $data;
1465       $data = $ref && $ref ne 'ARRAY' ? ''.$data : $data; # stringify args (except arrayrefs)
1466
1467       $sth->bind_param($placeholder_index, $data, $attributes);
1468       $placeholder_index++;
1469     }
1470   }
1471
1472   # Can this fail without throwing an exception anyways???
1473   my $rv = $sth->execute();
1474   $self->throw_exception($sth->errstr) if !$rv;
1475
1476   $self->_query_end( $sql, @$bind );
1477
1478   return (wantarray ? ($rv, $sth, @$bind) : $rv);
1479 }
1480
1481 sub _execute {
1482     my $self = shift;
1483     $self->dbh_do('_dbh_execute', @_);  # retry over disconnects
1484 }
1485
1486 sub _prefetch_insert_auto_nextvals {
1487   my ($self, $source, $to_insert) = @_;
1488
1489   my $upd = {};
1490
1491   foreach my $col ( $source->columns ) {
1492     if ( !defined $to_insert->{$col} ) {
1493       my $col_info = $source->column_info($col);
1494
1495       if ( $col_info->{auto_nextval} ) {
1496         $upd->{$col} = $to_insert->{$col} = $self->_sequence_fetch(
1497           'nextval',
1498           $col_info->{sequence} ||=
1499             $self->_dbh_get_autoinc_seq($self->_get_dbh, $source, $col)
1500         );
1501       }
1502     }
1503   }
1504
1505   return $upd;
1506 }
1507
1508 sub insert {
1509   my $self = shift;
1510   my ($source, $to_insert, $opts) = @_;
1511
1512   my $updated_cols = $self->_prefetch_insert_auto_nextvals (@_);
1513
1514   my $bind_attributes = $self->source_bind_attributes($source);
1515
1516   my ($rv, $sth) = $self->_execute('insert' => [], $source, $bind_attributes, $to_insert, $opts);
1517
1518   if ($opts->{returning}) {
1519     my @ret_cols = @{$opts->{returning}};
1520
1521     my @ret_vals = eval {
1522       local $SIG{__WARN__} = sub {};
1523       my @r = $sth->fetchrow_array;
1524       $sth->finish;
1525       @r;
1526     };
1527
1528     my %ret;
1529     @ret{@ret_cols} = @ret_vals if (@ret_vals);
1530
1531     $updated_cols = {
1532       %$updated_cols,
1533       %ret,
1534     };
1535   }
1536
1537   return $updated_cols;
1538 }
1539
1540 ## Currently it is assumed that all values passed will be "normal", i.e. not
1541 ## scalar refs, or at least, all the same type as the first set, the statement is
1542 ## only prepped once.
1543 sub insert_bulk {
1544   my ($self, $source, $cols, $data) = @_;
1545
1546   my %colvalues;
1547   @colvalues{@$cols} = (0..$#$cols);
1548
1549   for my $i (0..$#$cols) {
1550     my $first_val = $data->[0][$i];
1551     next unless ref $first_val eq 'SCALAR';
1552
1553     $colvalues{ $cols->[$i] } = $first_val;
1554   }
1555
1556   # check for bad data and stringify stringifiable objects
1557   my $bad_slice = sub {
1558     my ($msg, $col_idx, $slice_idx) = @_;
1559     $self->throw_exception(sprintf "%s for column '%s' in populate slice:\n%s",
1560       $msg,
1561       $cols->[$col_idx],
1562       do {
1563         local $Data::Dumper::Maxdepth = 1; # don't dump objects, if any
1564         Data::Dumper::Concise::Dumper({
1565           map { $cols->[$_] => $data->[$slice_idx][$_] } (0 .. $#$cols)
1566         }),
1567       }
1568     );
1569   };
1570
1571   for my $datum_idx (0..$#$data) {
1572     my $datum = $data->[$datum_idx];
1573
1574     for my $col_idx (0..$#$cols) {
1575       my $val            = $datum->[$col_idx];
1576       my $sqla_bind      = $colvalues{ $cols->[$col_idx] };
1577       my $is_literal_sql = (ref $sqla_bind) eq 'SCALAR';
1578
1579       if ($is_literal_sql) {
1580         if (not ref $val) {
1581           $bad_slice->('bind found where literal SQL expected', $col_idx, $datum_idx);
1582         }
1583         elsif ((my $reftype = ref $val) ne 'SCALAR') {
1584           $bad_slice->("$reftype reference found where literal SQL expected",
1585             $col_idx, $datum_idx);
1586         }
1587         elsif ($$val ne $$sqla_bind){
1588           $bad_slice->("inconsistent literal SQL value, expecting: '$$sqla_bind'",
1589             $col_idx, $datum_idx);
1590         }
1591       }
1592       elsif (my $reftype = ref $val) {
1593         require overload;
1594         if (overload::Method($val, '""')) {
1595           $datum->[$col_idx] = "".$val;
1596         }
1597         else {
1598           $bad_slice->("$reftype reference found where bind expected",
1599             $col_idx, $datum_idx);
1600         }
1601       }
1602     }
1603   }
1604
1605   my ($sql, $bind) = $self->_prep_for_execute (
1606     'insert', undef, $source, [\%colvalues]
1607   );
1608   my @bind = @$bind;
1609
1610   my $empty_bind = 1 if (not @bind) &&
1611     (grep { ref $_ eq 'SCALAR' } values %colvalues) == @$cols;
1612
1613   if ((not @bind) && (not $empty_bind)) {
1614     $self->throw_exception(
1615       'Cannot insert_bulk without support for placeholders'
1616     );
1617   }
1618
1619   # neither _execute_array, nor _execute_inserts_with_no_binds are
1620   # atomic (even if _execute _array is a single call). Thus a safety
1621   # scope guard
1622   my $guard = $self->txn_scope_guard;
1623
1624   $self->_query_start( $sql, ['__BULK__'] );
1625   my $sth = $self->sth($sql);
1626   my $rv = do {
1627     if ($empty_bind) {
1628       # bind_param_array doesn't work if there are no binds
1629       $self->_dbh_execute_inserts_with_no_binds( $sth, scalar @$data );
1630     }
1631     else {
1632 #      @bind = map { ref $_ ? ''.$_ : $_ } @bind; # stringify args
1633       $self->_execute_array( $source, $sth, \@bind, $cols, $data );
1634     }
1635   };
1636
1637   $self->_query_end( $sql, ['__BULK__'] );
1638
1639   $guard->commit;
1640
1641   return (wantarray ? ($rv, $sth, @bind) : $rv);
1642 }
1643
1644 sub _execute_array {
1645   my ($self, $source, $sth, $bind, $cols, $data, @extra) = @_;
1646
1647   ## This must be an arrayref, else nothing works!
1648   my $tuple_status = [];
1649
1650   ## Get the bind_attributes, if any exist
1651   my $bind_attributes = $self->source_bind_attributes($source);
1652
1653   ## Bind the values and execute
1654   my $placeholder_index = 1;
1655
1656   foreach my $bound (@$bind) {
1657
1658     my $attributes = {};
1659     my ($column_name, $data_index) = @$bound;
1660
1661     if( $bind_attributes ) {
1662       $attributes = $bind_attributes->{$column_name}
1663       if defined $bind_attributes->{$column_name};
1664     }
1665
1666     my @data = map { $_->[$data_index] } @$data;
1667
1668     $sth->bind_param_array(
1669       $placeholder_index,
1670       [@data],
1671       (%$attributes ?  $attributes : ()),
1672     );
1673     $placeholder_index++;
1674   }
1675
1676   my $rv = eval {
1677     $self->_dbh_execute_array($sth, $tuple_status, @extra);
1678   };
1679   my $err = $@ || $sth->errstr;
1680
1681 # Statement must finish even if there was an exception.
1682   eval { $sth->finish };
1683   $err = $@ unless $err;
1684
1685   if ($err) {
1686     my $i = 0;
1687     ++$i while $i <= $#$tuple_status && !ref $tuple_status->[$i];
1688
1689     $self->throw_exception("Unexpected populate error: $err")
1690       if ($i > $#$tuple_status);
1691
1692     $self->throw_exception(sprintf "%s for populate slice:\n%s",
1693       ($tuple_status->[$i][1] || $err),
1694       Data::Dumper::Concise::Dumper({
1695         map { $cols->[$_] => $data->[$i][$_] } (0 .. $#$cols)
1696       }),
1697     );
1698   }
1699   return $rv;
1700 }
1701
1702 sub _dbh_execute_array {
1703     my ($self, $sth, $tuple_status, @extra) = @_;
1704
1705     return $sth->execute_array({ArrayTupleStatus => $tuple_status});
1706 }
1707
1708 sub _dbh_execute_inserts_with_no_binds {
1709   my ($self, $sth, $count) = @_;
1710
1711   eval {
1712     my $dbh = $self->_get_dbh;
1713     local $dbh->{RaiseError} = 1;
1714     local $dbh->{PrintError} = 0;
1715
1716     $sth->execute foreach 1..$count;
1717   };
1718   my $exception = $@;
1719
1720 # Make sure statement is finished even if there was an exception.
1721   eval { $sth->finish };
1722   $exception = $@ unless $exception;
1723
1724   $self->throw_exception($exception) if $exception;
1725
1726   return $count;
1727 }
1728
1729 sub update {
1730   my ($self, $source, @args) = @_;
1731
1732   my $bind_attrs = $self->source_bind_attributes($source);
1733
1734   return $self->_execute('update' => [], $source, $bind_attrs, @args);
1735 }
1736
1737
1738 sub delete {
1739   my ($self, $source, @args) = @_;
1740
1741   my $bind_attrs = $self->source_bind_attributes($source);
1742
1743   return $self->_execute('delete' => [], $source, $bind_attrs, @args);
1744 }
1745
1746 # We were sent here because the $rs contains a complex search
1747 # which will require a subquery to select the correct rows
1748 # (i.e. joined or limited resultsets, or non-introspectable conditions)
1749 #
1750 # Generating a single PK column subquery is trivial and supported
1751 # by all RDBMS. However if we have a multicolumn PK, things get ugly.
1752 # Look at _multipk_update_delete()
1753 sub _subq_update_delete {
1754   my $self = shift;
1755   my ($rs, $op, $values) = @_;
1756
1757   my $rsrc = $rs->result_source;
1758
1759   # quick check if we got a sane rs on our hands
1760   my @pcols = $rsrc->_pri_cols;
1761
1762   my $sel = $rs->_resolved_attrs->{select};
1763   $sel = [ $sel ] unless ref $sel eq 'ARRAY';
1764
1765   if (
1766       join ("\x00", map { join '.', $rs->{attrs}{alias}, $_ } sort @pcols)
1767         ne
1768       join ("\x00", sort @$sel )
1769   ) {
1770     $self->throw_exception (
1771       '_subq_update_delete can not be called on resultsets selecting columns other than the primary keys'
1772     );
1773   }
1774
1775   if (@pcols == 1) {
1776     return $self->$op (
1777       $rsrc,
1778       $op eq 'update' ? $values : (),
1779       { $pcols[0] => { -in => $rs->as_query } },
1780     );
1781   }
1782
1783   else {
1784     return $self->_multipk_update_delete (@_);
1785   }
1786 }
1787
1788 # ANSI SQL does not provide a reliable way to perform a multicol-PK
1789 # resultset update/delete involving subqueries. So by default resort
1790 # to simple (and inefficient) delete_all style per-row opearations,
1791 # while allowing specific storages to override this with a faster
1792 # implementation.
1793 #
1794 sub _multipk_update_delete {
1795   return shift->_per_row_update_delete (@_);
1796 }
1797
1798 # This is the default loop used to delete/update rows for multi PK
1799 # resultsets, and used by mysql exclusively (because it can't do anything
1800 # else).
1801 #
1802 # We do not use $row->$op style queries, because resultset update/delete
1803 # is not expected to cascade (this is what delete_all/update_all is for).
1804 #
1805 # There should be no race conditions as the entire operation is rolled
1806 # in a transaction.
1807 #
1808 sub _per_row_update_delete {
1809   my $self = shift;
1810   my ($rs, $op, $values) = @_;
1811
1812   my $rsrc = $rs->result_source;
1813   my @pcols = $rsrc->_pri_cols;
1814
1815   my $guard = $self->txn_scope_guard;
1816
1817   # emulate the return value of $sth->execute for non-selects
1818   my $row_cnt = '0E0';
1819
1820   my $subrs_cur = $rs->cursor;
1821   my @all_pk = $subrs_cur->all;
1822   for my $pks ( @all_pk) {
1823
1824     my $cond;
1825     for my $i (0.. $#pcols) {
1826       $cond->{$pcols[$i]} = $pks->[$i];
1827     }
1828
1829     $self->$op (
1830       $rsrc,
1831       $op eq 'update' ? $values : (),
1832       $cond,
1833     );
1834
1835     $row_cnt++;
1836   }
1837
1838   $guard->commit;
1839
1840   return $row_cnt;
1841 }
1842
1843 sub _select {
1844   my $self = shift;
1845   $self->_execute($self->_select_args(@_));
1846 }
1847
1848 sub _select_args_to_query {
1849   my $self = shift;
1850
1851   # my ($op, $bind, $ident, $bind_attrs, $select, $cond, $rs_attrs, $rows, $offset)
1852   #  = $self->_select_args($ident, $select, $cond, $attrs);
1853   my ($op, $bind, $ident, $bind_attrs, @args) =
1854     $self->_select_args(@_);
1855
1856   # my ($sql, $prepared_bind) = $self->_prep_for_execute($op, $bind, $ident, [ $select, $cond, $rs_attrs, $rows, $offset ]);
1857   my ($sql, $prepared_bind) = $self->_prep_for_execute($op, $bind, $ident, \@args);
1858   $prepared_bind ||= [];
1859
1860   return wantarray
1861     ? ($sql, $prepared_bind, $bind_attrs)
1862     : \[ "($sql)", @$prepared_bind ]
1863   ;
1864 }
1865
1866 sub _select_args {
1867   my ($self, $ident, $select, $where, $attrs) = @_;
1868
1869   my $sql_maker = $self->sql_maker;
1870   my ($alias2source, $rs_alias) = $self->_resolve_ident_sources ($ident);
1871
1872   $attrs = {
1873     %$attrs,
1874     select => $select,
1875     from => $ident,
1876     where => $where,
1877     $rs_alias && $alias2source->{$rs_alias}
1878       ? ( _rsroot_source_handle => $alias2source->{$rs_alias}->handle )
1879       : ()
1880     ,
1881   };
1882
1883   # calculate bind_attrs before possible $ident mangling
1884   my $bind_attrs = {};
1885   for my $alias (keys %$alias2source) {
1886     my $bindtypes = $self->source_bind_attributes ($alias2source->{$alias}) || {};
1887     for my $col (keys %$bindtypes) {
1888
1889       my $fqcn = join ('.', $alias, $col);
1890       $bind_attrs->{$fqcn} = $bindtypes->{$col} if $bindtypes->{$col};
1891
1892       # Unqialified column names are nice, but at the same time can be
1893       # rather ambiguous. What we do here is basically go along with
1894       # the loop, adding an unqualified column slot to $bind_attrs,
1895       # alongside the fully qualified name. As soon as we encounter
1896       # another column by that name (which would imply another table)
1897       # we unset the unqualified slot and never add any info to it
1898       # to avoid erroneous type binding. If this happens the users
1899       # only choice will be to fully qualify his column name
1900
1901       if (exists $bind_attrs->{$col}) {
1902         $bind_attrs->{$col} = {};
1903       }
1904       else {
1905         $bind_attrs->{$col} = $bind_attrs->{$fqcn};
1906       }
1907     }
1908   }
1909
1910   # adjust limits
1911   if (
1912     $attrs->{software_limit}
1913       ||
1914     $sql_maker->_default_limit_syntax eq "GenericSubQ"
1915   ) {
1916     $attrs->{software_limit} = 1;
1917   }
1918   else {
1919     $self->throw_exception("rows attribute must be positive if present")
1920       if (defined($attrs->{rows}) && !($attrs->{rows} > 0));
1921
1922     # MySQL actually recommends this approach.  I cringe.
1923     $attrs->{rows} = 2**48 if not defined $attrs->{rows} and defined $attrs->{offset};
1924   }
1925
1926   my @limit;
1927
1928   # see if we need to tear the prefetch apart otherwise delegate the limiting to the
1929   # storage, unless software limit was requested
1930   if (
1931     #limited has_many
1932     ( $attrs->{rows} && keys %{$attrs->{collapse}} )
1933        ||
1934     # grouped prefetch (to satisfy group_by == select)
1935     ( $attrs->{group_by}
1936         &&
1937       @{$attrs->{group_by}}
1938         &&
1939       $attrs->{_prefetch_select}
1940         &&
1941       @{$attrs->{_prefetch_select}}
1942     )
1943   ) {
1944     ($ident, $select, $where, $attrs)
1945       = $self->_adjust_select_args_for_complex_prefetch ($ident, $select, $where, $attrs);
1946   }
1947   elsif (! $attrs->{software_limit} ) {
1948     push @limit, $attrs->{rows}, $attrs->{offset};
1949   }
1950
1951   # try to simplify the joinmap further (prune unreferenced type-single joins)
1952   $ident = $self->_prune_unused_joins ($ident, $select, $where, $attrs);
1953
1954 ###
1955   # This would be the point to deflate anything found in $where
1956   # (and leave $attrs->{bind} intact). Problem is - inflators historically
1957   # expect a row object. And all we have is a resultsource (it is trivial
1958   # to extract deflator coderefs via $alias2source above).
1959   #
1960   # I don't see a way forward other than changing the way deflators are
1961   # invoked, and that's just bad...
1962 ###
1963
1964   return ('select', $attrs->{bind}, $ident, $bind_attrs, $select, $where, $attrs, @limit);
1965 }
1966
1967 # Returns a counting SELECT for a simple count
1968 # query. Abstracted so that a storage could override
1969 # this to { count => 'firstcol' } or whatever makes
1970 # sense as a performance optimization
1971 sub _count_select {
1972   #my ($self, $source, $rs_attrs) = @_;
1973   return { count => '*' };
1974 }
1975
1976 # Returns a SELECT which will end up in the subselect
1977 # There may or may not be a group_by, as the subquery
1978 # might have been called to accomodate a limit
1979 #
1980 # Most databases would be happy with whatever ends up
1981 # here, but some choke in various ways.
1982 #
1983 sub _subq_count_select {
1984   my ($self, $source, $rs_attrs) = @_;
1985
1986   if (my $groupby = $rs_attrs->{group_by}) {
1987
1988     my $avail_columns = $self->_resolve_column_info ($rs_attrs->{from});
1989
1990     my $sel_index;
1991     for my $sel (@{$rs_attrs->{select}}) {
1992       if (ref $sel eq 'HASH' and $sel->{-as}) {
1993         $sel_index->{$sel->{-as}} = $sel;
1994       }
1995     }
1996
1997     my @selection;
1998     for my $g_part (@$groupby) {
1999       if (ref $g_part or $avail_columns->{$g_part}) {
2000         push @selection, $g_part;
2001       }
2002       elsif ($sel_index->{$g_part}) {
2003         push @selection, $sel_index->{$g_part};
2004       }
2005       else {
2006         $self->throw_exception ("group_by criteria '$g_part' not contained within current resultset source(s)");
2007       }
2008     }
2009
2010     return \@selection;
2011   }
2012
2013   my @pcols = map { join '.', $rs_attrs->{alias}, $_ } ($source->primary_columns);
2014   return @pcols ? \@pcols : [ 1 ];
2015 }
2016
2017 sub source_bind_attributes {
2018   my ($self, $source) = @_;
2019
2020   my $bind_attributes;
2021   foreach my $column ($source->columns) {
2022
2023     my $data_type = $source->column_info($column)->{data_type} || '';
2024     $bind_attributes->{$column} = $self->bind_attribute_by_data_type($data_type)
2025      if $data_type;
2026   }
2027
2028   return $bind_attributes;
2029 }
2030
2031 =head2 select
2032
2033 =over 4
2034
2035 =item Arguments: $ident, $select, $condition, $attrs
2036
2037 =back
2038
2039 Handle a SQL select statement.
2040
2041 =cut
2042
2043 sub select {
2044   my $self = shift;
2045   my ($ident, $select, $condition, $attrs) = @_;
2046   return $self->cursor_class->new($self, \@_, $attrs);
2047 }
2048
2049 sub select_single {
2050   my $self = shift;
2051   my ($rv, $sth, @bind) = $self->_select(@_);
2052   my @row = $sth->fetchrow_array;
2053   my @nextrow = $sth->fetchrow_array if @row;
2054   if(@row && @nextrow) {
2055     carp "Query returned more than one row.  SQL that returns multiple rows is DEPRECATED for ->find and ->single";
2056   }
2057   # Need to call finish() to work round broken DBDs
2058   $sth->finish();
2059   return @row;
2060 }
2061
2062 =head2 sth
2063
2064 =over 4
2065
2066 =item Arguments: $sql
2067
2068 =back
2069
2070 Returns a L<DBI> sth (statement handle) for the supplied SQL.
2071
2072 =cut
2073
2074 sub _dbh_sth {
2075   my ($self, $dbh, $sql) = @_;
2076
2077   # 3 is the if_active parameter which avoids active sth re-use
2078   my $sth = $self->disable_sth_caching
2079     ? $dbh->prepare($sql)
2080     : $dbh->prepare_cached($sql, {}, 3);
2081
2082   # XXX You would think RaiseError would make this impossible,
2083   #  but apparently that's not true :(
2084   $self->throw_exception($dbh->errstr) if !$sth;
2085
2086   $sth;
2087 }
2088
2089 sub sth {
2090   my ($self, $sql) = @_;
2091   $self->dbh_do('_dbh_sth', $sql);  # retry over disconnects
2092 }
2093
2094 sub _dbh_columns_info_for {
2095   my ($self, $dbh, $table) = @_;
2096
2097   if ($dbh->can('column_info')) {
2098     my %result;
2099     eval {
2100       my ($schema,$tab) = $table =~ /^(.+?)\.(.+)$/ ? ($1,$2) : (undef,$table);
2101       my $sth = $dbh->column_info( undef,$schema, $tab, '%' );
2102       $sth->execute();
2103       while ( my $info = $sth->fetchrow_hashref() ){
2104         my %column_info;
2105         $column_info{data_type}   = $info->{TYPE_NAME};
2106         $column_info{size}      = $info->{COLUMN_SIZE};
2107         $column_info{is_nullable}   = $info->{NULLABLE} ? 1 : 0;
2108         $column_info{default_value} = $info->{COLUMN_DEF};
2109         my $col_name = $info->{COLUMN_NAME};
2110         $col_name =~ s/^\"(.*)\"$/$1/;
2111
2112         $result{$col_name} = \%column_info;
2113       }
2114     };
2115     return \%result if !$@ && scalar keys %result;
2116   }
2117
2118   my %result;
2119   my $sth = $dbh->prepare($self->sql_maker->select($table, undef, \'1 = 0'));
2120   $sth->execute;
2121   my @columns = @{$sth->{NAME_lc}};
2122   for my $i ( 0 .. $#columns ){
2123     my %column_info;
2124     $column_info{data_type} = $sth->{TYPE}->[$i];
2125     $column_info{size} = $sth->{PRECISION}->[$i];
2126     $column_info{is_nullable} = $sth->{NULLABLE}->[$i] ? 1 : 0;
2127
2128     if ($column_info{data_type} =~ m/^(.*?)\((.*?)\)$/) {
2129       $column_info{data_type} = $1;
2130       $column_info{size}    = $2;
2131     }
2132
2133     $result{$columns[$i]} = \%column_info;
2134   }
2135   $sth->finish;
2136
2137   foreach my $col (keys %result) {
2138     my $colinfo = $result{$col};
2139     my $type_num = $colinfo->{data_type};
2140     my $type_name;
2141     if(defined $type_num && $dbh->can('type_info')) {
2142       my $type_info = $dbh->type_info($type_num);
2143       $type_name = $type_info->{TYPE_NAME} if $type_info;
2144       $colinfo->{data_type} = $type_name if $type_name;
2145     }
2146   }
2147
2148   return \%result;
2149 }
2150
2151 sub columns_info_for {
2152   my ($self, $table) = @_;
2153   $self->_dbh_columns_info_for ($self->_get_dbh, $table);
2154 }
2155
2156 =head2 last_insert_id
2157
2158 Return the row id of the last insert.
2159
2160 =cut
2161
2162 sub _dbh_last_insert_id {
2163     my ($self, $dbh, $source, $col) = @_;
2164
2165     my $id = eval { $dbh->last_insert_id (undef, undef, $source->name, $col) };
2166
2167     return $id if defined $id;
2168
2169     my $class = ref $self;
2170     $self->throw_exception ("No storage specific _dbh_last_insert_id() method implemented in $class, and the generic DBI::last_insert_id() failed");
2171 }
2172
2173 sub last_insert_id {
2174   my $self = shift;
2175   $self->_dbh_last_insert_id ($self->_dbh, @_);
2176 }
2177
2178 =head2 _native_data_type
2179
2180 =over 4
2181
2182 =item Arguments: $type_name
2183
2184 =back
2185
2186 This API is B<EXPERIMENTAL>, will almost definitely change in the future, and
2187 currently only used by L<::AutoCast|DBIx::Class::Storage::DBI::AutoCast> and
2188 L<::Sybase::ASE|DBIx::Class::Storage::DBI::Sybase::ASE>.
2189
2190 The default implementation returns C<undef>, implement in your Storage driver if
2191 you need this functionality.
2192
2193 Should map types from other databases to the native RDBMS type, for example
2194 C<VARCHAR2> to C<VARCHAR>.
2195
2196 Types with modifiers should map to the underlying data type. For example,
2197 C<INTEGER AUTO_INCREMENT> should become C<INTEGER>.
2198
2199 Composite types should map to the container type, for example
2200 C<ENUM(foo,bar,baz)> becomes C<ENUM>.
2201
2202 =cut
2203
2204 sub _native_data_type {
2205   #my ($self, $data_type) = @_;
2206   return undef
2207 }
2208
2209 # Check if placeholders are supported at all
2210 sub _placeholders_supported {
2211   my $self = shift;
2212   my $dbh  = $self->_get_dbh;
2213
2214   # some drivers provide a $dbh attribute (e.g. Sybase and $dbh->{syb_dynamic_supported})
2215   # but it is inaccurate more often than not
2216   eval {
2217     local $dbh->{PrintError} = 0;
2218     local $dbh->{RaiseError} = 1;
2219     $dbh->do('select ?', {}, 1);
2220   };
2221   return $@ ? 0 : 1;
2222 }
2223
2224 # Check if placeholders bound to non-string types throw exceptions
2225 #
2226 sub _typeless_placeholders_supported {
2227   my $self = shift;
2228   my $dbh  = $self->_get_dbh;
2229
2230   eval {
2231     local $dbh->{PrintError} = 0;
2232     local $dbh->{RaiseError} = 1;
2233     # this specifically tests a bind that is NOT a string
2234     $dbh->do('select 1 where 1 = ?', {}, 1);
2235   };
2236   return $@ ? 0 : 1;
2237 }
2238
2239 =head2 sqlt_type
2240
2241 Returns the database driver name.
2242
2243 =cut
2244
2245 sub sqlt_type {
2246   shift->_get_dbh->{Driver}->{Name};
2247 }
2248
2249 =head2 bind_attribute_by_data_type
2250
2251 Given a datatype from column info, returns a database specific bind
2252 attribute for C<< $dbh->bind_param($val,$attribute) >> or nothing if we will
2253 let the database planner just handle it.
2254
2255 Generally only needed for special case column types, like bytea in postgres.
2256
2257 =cut
2258
2259 sub bind_attribute_by_data_type {
2260     return;
2261 }
2262
2263 =head2 is_datatype_numeric
2264
2265 Given a datatype from column_info, returns a boolean value indicating if
2266 the current RDBMS considers it a numeric value. This controls how
2267 L<DBIx::Class::Row/set_column> decides whether to mark the column as
2268 dirty - when the datatype is deemed numeric a C<< != >> comparison will
2269 be performed instead of the usual C<eq>.
2270
2271 =cut
2272
2273 sub is_datatype_numeric {
2274   my ($self, $dt) = @_;
2275
2276   return 0 unless $dt;
2277
2278   return $dt =~ /^ (?:
2279     numeric | int(?:eger)? | (?:tiny|small|medium|big)int | dec(?:imal)? | real | float | double (?: \s+ precision)? | (?:big)?serial
2280   ) $/ix;
2281 }
2282
2283
2284 =head2 create_ddl_dir
2285
2286 =over 4
2287
2288 =item Arguments: $schema \@databases, $version, $directory, $preversion, \%sqlt_args
2289
2290 =back
2291
2292 Creates a SQL file based on the Schema, for each of the specified
2293 database engines in C<\@databases> in the given directory.
2294 (note: specify L<SQL::Translator> names, not L<DBI> driver names).
2295
2296 Given a previous version number, this will also create a file containing
2297 the ALTER TABLE statements to transform the previous schema into the
2298 current one. Note that these statements may contain C<DROP TABLE> or
2299 C<DROP COLUMN> statements that can potentially destroy data.
2300
2301 The file names are created using the C<ddl_filename> method below, please
2302 override this method in your schema if you would like a different file
2303 name format. For the ALTER file, the same format is used, replacing
2304 $version in the name with "$preversion-$version".
2305
2306 See L<SQL::Translator/METHODS> for a list of values for C<\%sqlt_args>.
2307 The most common value for this would be C<< { add_drop_table => 1 } >>
2308 to have the SQL produced include a C<DROP TABLE> statement for each table
2309 created. For quoting purposes supply C<quote_table_names> and
2310 C<quote_field_names>.
2311
2312 If no arguments are passed, then the following default values are assumed:
2313
2314 =over 4
2315
2316 =item databases  - ['MySQL', 'SQLite', 'PostgreSQL']
2317
2318 =item version    - $schema->schema_version
2319
2320 =item directory  - './'
2321
2322 =item preversion - <none>
2323
2324 =back
2325
2326 By default, C<\%sqlt_args> will have
2327
2328  { add_drop_table => 1, ignore_constraint_names => 1, ignore_index_names => 1 }
2329
2330 merged with the hash passed in. To disable any of those features, pass in a
2331 hashref like the following
2332
2333  { ignore_constraint_names => 0, # ... other options }
2334
2335
2336 WARNING: You are strongly advised to check all SQL files created, before applying
2337 them.
2338
2339 =cut
2340
2341 sub create_ddl_dir {
2342   my ($self, $schema, $databases, $version, $dir, $preversion, $sqltargs) = @_;
2343
2344   unless ($dir) {
2345     carp "No directory given, using ./\n";
2346     $dir = './';
2347   } else {
2348       -d $dir or File::Path::mkpath($dir)
2349           or $self->throw_exception("create_ddl_dir: $! creating dir '$dir'");
2350   }
2351
2352   $self->throw_exception ("Directory '$dir' does not exist\n") unless(-d $dir);
2353
2354   $databases ||= ['MySQL', 'SQLite', 'PostgreSQL'];
2355   $databases = [ $databases ] if(ref($databases) ne 'ARRAY');
2356
2357   my $schema_version = $schema->schema_version || '1.x';
2358   $version ||= $schema_version;
2359
2360   $sqltargs = {
2361     add_drop_table => 1,
2362     ignore_constraint_names => 1,
2363     ignore_index_names => 1,
2364     %{$sqltargs || {}}
2365   };
2366
2367   unless (DBIx::Class::Optional::Dependencies->req_ok_for ('deploy')) {
2368     $self->throw_exception("Can't create a ddl file without " . DBIx::Class::Optional::Dependencies->req_missing_for ('deploy') );
2369   }
2370
2371   my $sqlt = SQL::Translator->new( $sqltargs );
2372
2373   $sqlt->parser('SQL::Translator::Parser::DBIx::Class');
2374   my $sqlt_schema = $sqlt->translate({ data => $schema })
2375     or $self->throw_exception ($sqlt->error);
2376
2377   foreach my $db (@$databases) {
2378     $sqlt->reset();
2379     $sqlt->{schema} = $sqlt_schema;
2380     $sqlt->producer($db);
2381
2382     my $file;
2383     my $filename = $schema->ddl_filename($db, $version, $dir);
2384     if (-e $filename && ($version eq $schema_version )) {
2385       # if we are dumping the current version, overwrite the DDL
2386       carp "Overwriting existing DDL file - $filename";
2387       unlink($filename);
2388     }
2389
2390     my $output = $sqlt->translate;
2391     if(!$output) {
2392       carp("Failed to translate to $db, skipping. (" . $sqlt->error . ")");
2393       next;
2394     }
2395     if(!open($file, ">$filename")) {
2396       $self->throw_exception("Can't open $filename for writing ($!)");
2397       next;
2398     }
2399     print $file $output;
2400     close($file);
2401
2402     next unless ($preversion);
2403
2404     require SQL::Translator::Diff;
2405
2406     my $prefilename = $schema->ddl_filename($db, $preversion, $dir);
2407     if(!-e $prefilename) {
2408       carp("No previous schema file found ($prefilename)");
2409       next;
2410     }
2411
2412     my $difffile = $schema->ddl_filename($db, $version, $dir, $preversion);
2413     if(-e $difffile) {
2414       carp("Overwriting existing diff file - $difffile");
2415       unlink($difffile);
2416     }
2417
2418     my $source_schema;
2419     {
2420       my $t = SQL::Translator->new($sqltargs);
2421       $t->debug( 0 );
2422       $t->trace( 0 );
2423
2424       $t->parser( $db )
2425         or $self->throw_exception ($t->error);
2426
2427       my $out = $t->translate( $prefilename )
2428         or $self->throw_exception ($t->error);
2429
2430       $source_schema = $t->schema;
2431
2432       $source_schema->name( $prefilename )
2433         unless ( $source_schema->name );
2434     }
2435
2436     # The "new" style of producers have sane normalization and can support
2437     # diffing a SQL file against a DBIC->SQLT schema. Old style ones don't
2438     # And we have to diff parsed SQL against parsed SQL.
2439     my $dest_schema = $sqlt_schema;
2440
2441     unless ( "SQL::Translator::Producer::$db"->can('preprocess_schema') ) {
2442       my $t = SQL::Translator->new($sqltargs);
2443       $t->debug( 0 );
2444       $t->trace( 0 );
2445
2446       $t->parser( $db )
2447         or $self->throw_exception ($t->error);
2448
2449       my $out = $t->translate( $filename )
2450         or $self->throw_exception ($t->error);
2451
2452       $dest_schema = $t->schema;
2453
2454       $dest_schema->name( $filename )
2455         unless $dest_schema->name;
2456     }
2457
2458     my $diff = SQL::Translator::Diff::schema_diff($source_schema, $db,
2459                                                   $dest_schema,   $db,
2460                                                   $sqltargs
2461                                                  );
2462     if(!open $file, ">$difffile") {
2463       $self->throw_exception("Can't write to $difffile ($!)");
2464       next;
2465     }
2466     print $file $diff;
2467     close($file);
2468   }
2469 }
2470
2471 =head2 deployment_statements
2472
2473 =over 4
2474
2475 =item Arguments: $schema, $type, $version, $directory, $sqlt_args
2476
2477 =back
2478
2479 Returns the statements used by L</deploy> and L<DBIx::Class::Schema/deploy>.
2480
2481 The L<SQL::Translator> (not L<DBI>) database driver name can be explicitly
2482 provided in C<$type>, otherwise the result of L</sqlt_type> is used as default.
2483
2484 C<$directory> is used to return statements from files in a previously created
2485 L</create_ddl_dir> directory and is optional. The filenames are constructed
2486 from L<DBIx::Class::Schema/ddl_filename>, the schema name and the C<$version>.
2487
2488 If no C<$directory> is specified then the statements are constructed on the
2489 fly using L<SQL::Translator> and C<$version> is ignored.
2490
2491 See L<SQL::Translator/METHODS> for a list of values for C<$sqlt_args>.
2492
2493 =cut
2494
2495 sub deployment_statements {
2496   my ($self, $schema, $type, $version, $dir, $sqltargs) = @_;
2497   $type ||= $self->sqlt_type;
2498   $version ||= $schema->schema_version || '1.x';
2499   $dir ||= './';
2500   my $filename = $schema->ddl_filename($type, $version, $dir);
2501   if(-f $filename)
2502   {
2503       my $file;
2504       open($file, "<$filename")
2505         or $self->throw_exception("Can't open $filename ($!)");
2506       my @rows = <$file>;
2507       close($file);
2508       return join('', @rows);
2509   }
2510
2511   unless (DBIx::Class::Optional::Dependencies->req_ok_for ('deploy') ) {
2512     $self->throw_exception("Can't deploy without a ddl_dir or " . DBIx::Class::Optional::Dependencies->req_missing_for ('deploy') );
2513   }
2514
2515   # sources needs to be a parser arg, but for simplicty allow at top level
2516   # coming in
2517   $sqltargs->{parser_args}{sources} = delete $sqltargs->{sources}
2518       if exists $sqltargs->{sources};
2519
2520   my $tr = SQL::Translator->new(
2521     producer => "SQL::Translator::Producer::${type}",
2522     %$sqltargs,
2523     parser => 'SQL::Translator::Parser::DBIx::Class',
2524     data => $schema,
2525   );
2526
2527   my @ret;
2528   my $wa = wantarray;
2529   if ($wa) {
2530     @ret = $tr->translate;
2531   }
2532   else {
2533     $ret[0] = $tr->translate;
2534   }
2535
2536   $self->throw_exception( 'Unable to produce deployment statements: ' . $tr->error)
2537     unless (@ret && defined $ret[0]);
2538
2539   return $wa ? @ret : $ret[0];
2540 }
2541
2542 sub deploy {
2543   my ($self, $schema, $type, $sqltargs, $dir) = @_;
2544   my $deploy = sub {
2545     my $line = shift;
2546     return if($line =~ /^--/);
2547     return if(!$line);
2548     # next if($line =~ /^DROP/m);
2549     return if($line =~ /^BEGIN TRANSACTION/m);
2550     return if($line =~ /^COMMIT/m);
2551     return if $line =~ /^\s+$/; # skip whitespace only
2552     $self->_query_start($line);
2553     eval {
2554       # do a dbh_do cycle here, as we need some error checking in
2555       # place (even though we will ignore errors)
2556       $self->dbh_do (sub { $_[1]->do($line) });
2557     };
2558     if ($@) {
2559       carp qq{$@ (running "${line}")};
2560     }
2561     $self->_query_end($line);
2562   };
2563   my @statements = $schema->deployment_statements($type, undef, $dir, { %{ $sqltargs || {} }, no_comments => 1 } );
2564   if (@statements > 1) {
2565     foreach my $statement (@statements) {
2566       $deploy->( $statement );
2567     }
2568   }
2569   elsif (@statements == 1) {
2570     foreach my $line ( split(";\n", $statements[0])) {
2571       $deploy->( $line );
2572     }
2573   }
2574 }
2575
2576 =head2 datetime_parser
2577
2578 Returns the datetime parser class
2579
2580 =cut
2581
2582 sub datetime_parser {
2583   my $self = shift;
2584   return $self->{datetime_parser} ||= do {
2585     $self->build_datetime_parser(@_);
2586   };
2587 }
2588
2589 =head2 datetime_parser_type
2590
2591 Defines (returns) the datetime parser class - currently hardwired to
2592 L<DateTime::Format::MySQL>
2593
2594 =cut
2595
2596 sub datetime_parser_type { "DateTime::Format::MySQL"; }
2597
2598 =head2 build_datetime_parser
2599
2600 See L</datetime_parser>
2601
2602 =cut
2603
2604 sub build_datetime_parser {
2605   my $self = shift;
2606   my $type = $self->datetime_parser_type(@_);
2607   $self->ensure_class_loaded ($type);
2608   return $type;
2609 }
2610
2611
2612 =head2 is_replicating
2613
2614 A boolean that reports if a particular L<DBIx::Class::Storage::DBI> is set to
2615 replicate from a master database.  Default is undef, which is the result
2616 returned by databases that don't support replication.
2617
2618 =cut
2619
2620 sub is_replicating {
2621     return;
2622
2623 }
2624
2625 =head2 lag_behind_master
2626
2627 Returns a number that represents a certain amount of lag behind a master db
2628 when a given storage is replicating.  The number is database dependent, but
2629 starts at zero and increases with the amount of lag. Default in undef
2630
2631 =cut
2632
2633 sub lag_behind_master {
2634     return;
2635 }
2636
2637 =head2 relname_to_table_alias
2638
2639 =over 4
2640
2641 =item Arguments: $relname, $join_count
2642
2643 =back
2644
2645 L<DBIx::Class> uses L<DBIx::Class::Relationship> names as table aliases in
2646 queries.
2647
2648 This hook is to allow specific L<DBIx::Class::Storage> drivers to change the
2649 way these aliases are named.
2650
2651 The default behavior is C<< "$relname_$join_count" if $join_count > 1 >>,
2652 otherwise C<"$relname">.
2653
2654 =cut
2655
2656 sub relname_to_table_alias {
2657   my ($self, $relname, $join_count) = @_;
2658
2659   my $alias = ($join_count && $join_count > 1 ?
2660     join('_', $relname, $join_count) : $relname);
2661
2662   return $alias;
2663 }
2664
2665 1;
2666
2667 =head1 USAGE NOTES
2668
2669 =head2 DBIx::Class and AutoCommit
2670
2671 DBIx::Class can do some wonderful magic with handling exceptions,
2672 disconnections, and transactions when you use C<< AutoCommit => 1 >>
2673 (the default) combined with C<txn_do> for transaction support.
2674
2675 If you set C<< AutoCommit => 0 >> in your connect info, then you are always
2676 in an assumed transaction between commits, and you're telling us you'd
2677 like to manage that manually.  A lot of the magic protections offered by
2678 this module will go away.  We can't protect you from exceptions due to database
2679 disconnects because we don't know anything about how to restart your
2680 transactions.  You're on your own for handling all sorts of exceptional
2681 cases if you choose the C<< AutoCommit => 0 >> path, just as you would
2682 be with raw DBI.
2683
2684
2685 =head1 AUTHORS
2686
2687 Matt S. Trout <mst@shadowcatsystems.co.uk>
2688
2689 Andy Grundman <andy@hybridized.org>
2690
2691 =head1 LICENSE
2692
2693 You may distribute this code under the same terms as Perl itself.
2694
2695 =cut