7fff40ec5bb29bd602f2b65b7d0b7f5ece903825
[dbsrgits/DBIx-Class.git] / lib / DBIx / Class / Storage / DBI / Replicated.pm
1 package DBIx::Class::Storage::DBI::Replicated;
2
3 BEGIN {
4   use Carp::Clan qw/^DBIx::Class/;
5   use DBIx::Class;
6   croak('The following modules are required for Replication ' . DBIx::Class::Optional::Dependencies->req_missing_for ('replicated') )
7     unless DBIx::Class::Optional::Dependencies->req_ok_for ('replicated');
8 }
9
10 use Moose;
11 use DBIx::Class::Storage::DBI;
12 use DBIx::Class::Storage::DBI::Replicated::Pool;
13 use DBIx::Class::Storage::DBI::Replicated::Balancer;
14 use DBIx::Class::Storage::DBI::Replicated::Types qw/BalancerClassNamePart DBICSchema DBICStorageDBI/;
15 use MooseX::Types::Moose qw/ClassName HashRef Object/;
16 use Scalar::Util 'reftype';
17 use Hash::Merge;
18 use List::Util qw/min max reduce/;
19 use Try::Tiny;
20 use namespace::clean;
21
22 use namespace::clean -except => 'meta';
23
24 =head1 NAME
25
26 DBIx::Class::Storage::DBI::Replicated - BETA Replicated database support
27
28 =head1 SYNOPSIS
29
30 The Following example shows how to change an existing $schema to a replicated
31 storage type, add some replicated (read-only) databases, and perform reporting
32 tasks.
33
34 You should set the 'storage_type attribute to a replicated type.  You should
35 also define your arguments, such as which balancer you want and any arguments
36 that the Pool object should get.
37
38   my $schema = Schema::Class->clone;
39   $schema->storage_type( ['::DBI::Replicated', {balancer=>'::Random'}] );
40   $schema->connection(...);
41
42 Next, you need to add in the Replicants.  Basically this is an array of
43 arrayrefs, where each arrayref is database connect information.  Think of these
44 arguments as what you'd pass to the 'normal' $schema->connect method.
45
46   $schema->storage->connect_replicants(
47     [$dsn1, $user, $pass, \%opts],
48     [$dsn2, $user, $pass, \%opts],
49     [$dsn3, $user, $pass, \%opts],
50   );
51
52 Now, just use the $schema as you normally would.  Automatically all reads will
53 be delegated to the replicants, while writes to the master.
54
55   $schema->resultset('Source')->search({name=>'etc'});
56
57 You can force a given query to use a particular storage using the search
58 attribute 'force_pool'.  For example:
59
60   my $RS = $schema->resultset('Source')->search(undef, {force_pool=>'master'});
61
62 Now $RS will force everything (both reads and writes) to use whatever was setup
63 as the master storage.  'master' is hardcoded to always point to the Master,
64 but you can also use any Replicant name.  Please see:
65 L<DBIx::Class::Storage::DBI::Replicated::Pool> and the replicants attribute for more.
66
67 Also see transactions and L</execute_reliably> for alternative ways to
68 force read traffic to the master.  In general, you should wrap your statements
69 in a transaction when you are reading and writing to the same tables at the
70 same time, since your replicants will often lag a bit behind the master.
71
72 See L<DBIx::Class::Storage::DBI::Replicated::Instructions> for more help and
73 walkthroughs.
74
75 =head1 DESCRIPTION
76
77 Warning: This class is marked BETA.  This has been running a production
78 website using MySQL native replication as its backend and we have some decent
79 test coverage but the code hasn't yet been stressed by a variety of databases.
80 Individual DBs may have quirks we are not aware of.  Please use this in first
81 development and pass along your experiences/bug fixes.
82
83 This class implements replicated data store for DBI. Currently you can define
84 one master and numerous slave database connections. All write-type queries
85 (INSERT, UPDATE, DELETE and even LAST_INSERT_ID) are routed to master
86 database, all read-type queries (SELECTs) go to the slave database.
87
88 Basically, any method request that L<DBIx::Class::Storage::DBI> would normally
89 handle gets delegated to one of the two attributes: L</read_handler> or to
90 L</write_handler>.  Additionally, some methods need to be distributed
91 to all existing storages.  This way our storage class is a drop in replacement
92 for L<DBIx::Class::Storage::DBI>.
93
94 Read traffic is spread across the replicants (slaves) occurring to a user
95 selected algorithm.  The default algorithm is random weighted.
96
97 =head1 NOTES
98
99 The consistency between master and replicants is database specific.  The Pool
100 gives you a method to validate its replicants, removing and replacing them
101 when they fail/pass predefined criteria.  Please make careful use of the ways
102 to force a query to run against Master when needed.
103
104 =head1 REQUIREMENTS
105
106 Replicated Storage has additional requirements not currently part of
107 L<DBIx::Class>. See L<DBIx::Class::Optional::Dependencies> for more details.
108
109 =head1 ATTRIBUTES
110
111 This class defines the following attributes.
112
113 =head2 schema
114
115 The underlying L<DBIx::Class::Schema> object this storage is attaching
116
117 =cut
118
119 has 'schema' => (
120     is=>'rw',
121     isa=>DBICSchema,
122     weak_ref=>1,
123     required=>1,
124 );
125
126 =head2 pool_type
127
128 Contains the classname which will instantiate the L</pool> object.  Defaults
129 to: L<DBIx::Class::Storage::DBI::Replicated::Pool>.
130
131 =cut
132
133 has 'pool_type' => (
134   is=>'rw',
135   isa=>ClassName,
136   default=>'DBIx::Class::Storage::DBI::Replicated::Pool',
137   handles=>{
138     'create_pool' => 'new',
139   },
140 );
141
142 =head2 pool_args
143
144 Contains a hashref of initialized information to pass to the Balancer object.
145 See L<DBIx::Class::Storage::DBI::Replicated::Pool> for available arguments.
146
147 =cut
148
149 has 'pool_args' => (
150   is=>'rw',
151   isa=>HashRef,
152   lazy=>1,
153   default=>sub { {} },
154 );
155
156
157 =head2 balancer_type
158
159 The replication pool requires a balance class to provider the methods for
160 choose how to spread the query load across each replicant in the pool.
161
162 =cut
163
164 has 'balancer_type' => (
165   is=>'rw',
166   isa=>BalancerClassNamePart,
167   coerce=>1,
168   required=>1,
169   default=> 'DBIx::Class::Storage::DBI::Replicated::Balancer::First',
170   handles=>{
171     'create_balancer' => 'new',
172   },
173 );
174
175 =head2 balancer_args
176
177 Contains a hashref of initialized information to pass to the Balancer object.
178 See L<DBIx::Class::Storage::DBI::Replicated::Balancer> for available arguments.
179
180 =cut
181
182 has 'balancer_args' => (
183   is=>'rw',
184   isa=>HashRef,
185   lazy=>1,
186   required=>1,
187   default=>sub { {} },
188 );
189
190 =head2 pool
191
192 Is a L<DBIx::Class::Storage::DBI::Replicated::Pool> or derived class.  This is a
193 container class for one or more replicated databases.
194
195 =cut
196
197 has 'pool' => (
198   is=>'ro',
199   isa=>'DBIx::Class::Storage::DBI::Replicated::Pool',
200   lazy_build=>1,
201   handles=>[qw/
202     connect_replicants
203     replicants
204     has_replicants
205   /],
206 );
207
208 =head2 balancer
209
210 Is a L<DBIx::Class::Storage::DBI::Replicated::Balancer> or derived class.  This
211 is a class that takes a pool (L<DBIx::Class::Storage::DBI::Replicated::Pool>)
212
213 =cut
214
215 has 'balancer' => (
216   is=>'rw',
217   isa=>'DBIx::Class::Storage::DBI::Replicated::Balancer',
218   lazy_build=>1,
219   handles=>[qw/auto_validate_every/],
220 );
221
222 =head2 master
223
224 The master defines the canonical state for a pool of connected databases.  All
225 the replicants are expected to match this databases state.  Thus, in a classic
226 Master / Slaves distributed system, all the slaves are expected to replicate
227 the Master's state as quick as possible.  This is the only database in the
228 pool of databases that is allowed to handle write traffic.
229
230 =cut
231
232 has 'master' => (
233   is=> 'ro',
234   isa=>DBICStorageDBI,
235   lazy_build=>1,
236 );
237
238 =head1 ATTRIBUTES IMPLEMENTING THE DBIx::Storage::DBI INTERFACE
239
240 The following methods are delegated all the methods required for the
241 L<DBIx::Class::Storage::DBI> interface.
242
243 =head2 read_handler
244
245 Defines an object that implements the read side of L<BIx::Class::Storage::DBI>.
246
247 =cut
248
249 has 'read_handler' => (
250   is=>'rw',
251   isa=>Object,
252   lazy_build=>1,
253   handles=>[qw/
254     select
255     select_single
256     columns_info_for
257     _dbh_columns_info_for
258     _select
259   /],
260 );
261
262 =head2 write_handler
263
264 Defines an object that implements the write side of L<BIx::Class::Storage::DBI>,
265 as well as methods that don't write or read that can be called on only one
266 storage, methods that return a C<$dbh>, and any methods that don't make sense to
267 run on a replicant.
268
269 =cut
270
271 has 'write_handler' => (
272   is=>'ro',
273   isa=>Object,
274   lazy_build=>1,
275   handles=>[qw/
276     on_connect_do
277     on_disconnect_do
278     on_connect_call
279     on_disconnect_call
280     connect_info
281     _connect_info
282     throw_exception
283     sql_maker
284     sqlt_type
285     create_ddl_dir
286     deployment_statements
287     datetime_parser
288     datetime_parser_type
289     build_datetime_parser
290     last_insert_id
291     insert
292     insert_bulk
293     update
294     delete
295     dbh
296     txn_begin
297     txn_do
298     txn_commit
299     txn_rollback
300     txn_scope_guard
301     sth
302     deploy
303     with_deferred_fk_checks
304     dbh_do
305     reload_row
306     with_deferred_fk_checks
307     _prep_for_execute
308
309     backup
310     is_datatype_numeric
311     _count_select
312     _subq_update_delete
313     svp_rollback
314     svp_begin
315     svp_release
316     relname_to_table_alias
317     _dbh_last_insert_id
318     _fix_bind_params
319     _default_dbi_connect_attributes
320     _dbi_connect_info
321     _dbic_connect_attributes
322     auto_savepoint
323     _sqlt_version_ok
324     _query_end
325     bind_attribute_by_data_type
326     transaction_depth
327     _dbh
328     _select_args
329     _dbh_execute_array
330     _sql_maker
331     _query_start
332     _sqlt_version_error
333     _per_row_update_delete
334     _dbh_begin_work
335     _dbh_execute_inserts_with_no_binds
336     _select_args_to_query
337     _svp_generate_name
338     _multipk_update_delete
339     source_bind_attributes
340     _normalize_connect_info
341     _parse_connect_do
342     _dbh_commit
343     _execute_array
344     savepoints
345     _sqlt_minimum_version
346     _sql_maker_opts
347     _conn_pid
348     _conn_tid
349     _dbh_autocommit
350     _native_data_type
351     _get_dbh
352     sql_maker_class
353     _dbh_rollback
354     _adjust_select_args_for_complex_prefetch
355     _resolve_ident_sources
356     _resolve_column_info
357     _prune_unused_joins
358     _strip_cond_qualifiers
359     _extract_order_columns
360     _resolve_aliastypes_from_select_args
361     _execute
362     _do_query
363     _dbh_sth
364     _dbh_execute
365     _prefetch_insert_auto_nextvals
366   /],
367 );
368
369 my @unimplemented = qw(
370   _arm_global_destructor
371   _preserve_foreign_dbh
372   _verify_pid
373   _verify_tid
374
375   get_use_dbms_capability
376   set_use_dbms_capability
377   get_dbms_capability
378   set_dbms_capability
379   _dbh_details
380
381   sql_limit_dialect
382
383   _inner_join_to_node
384 );
385
386 # the capability framework
387 # not sure if CMOP->initialize does evil things to DBIC::S::DBI, fix if a problem
388 push @unimplemented, ( grep
389   { $_ =~ /^ _ (?: use | supports | determine_supports ) _ /x }
390   ( Class::MOP::Class->initialize('DBIx::Class::Storage::DBI')->get_all_method_names )
391 );
392
393 for my $method (@unimplemented) {
394   __PACKAGE__->meta->add_method($method, sub {
395     croak "$method must not be called on ".(blessed shift).' objects';
396   });
397 }
398
399 has _master_connect_info_opts =>
400   (is => 'rw', isa => HashRef, default => sub { {} });
401
402 =head2 around: connect_info
403
404 Preserves master's C<connect_info> options (for merging with replicants.)
405 Also sets any Replicated-related options from connect_info, such as
406 C<pool_type>, C<pool_args>, C<balancer_type> and C<balancer_args>.
407
408 =cut
409
410 around connect_info => sub {
411   my ($next, $self, $info, @extra) = @_;
412
413   my $wantarray = wantarray;
414
415   my $merge = Hash::Merge->new('LEFT_PRECEDENT');
416
417   my %opts;
418   for my $arg (@$info) {
419     next unless (reftype($arg)||'') eq 'HASH';
420     %opts = %{ $merge->merge($arg, \%opts) };
421   }
422   delete $opts{dsn};
423
424   if (@opts{qw/pool_type pool_args/}) {
425     $self->pool_type(delete $opts{pool_type})
426       if $opts{pool_type};
427
428     $self->pool_args(
429       $merge->merge((delete $opts{pool_args} || {}), $self->pool_args)
430     );
431
432     $self->pool($self->_build_pool)
433       if $self->pool;
434   }
435
436   if (@opts{qw/balancer_type balancer_args/}) {
437     $self->balancer_type(delete $opts{balancer_type})
438       if $opts{balancer_type};
439
440     $self->balancer_args(
441       $merge->merge((delete $opts{balancer_args} || {}), $self->balancer_args)
442     );
443
444     $self->balancer($self->_build_balancer)
445       if $self->balancer;
446   }
447
448   $self->_master_connect_info_opts(\%opts);
449
450   my (@res, $res);
451   if ($wantarray) {
452     @res = $self->$next($info, @extra);
453   } else {
454     $res = $self->$next($info, @extra);
455   }
456
457   # Make sure master is blessed into the correct class and apply role to it.
458   my $master = $self->master;
459   $master->_determine_driver;
460   Moose::Meta::Class->initialize(ref $master);
461
462   DBIx::Class::Storage::DBI::Replicated::WithDSN->meta->apply($master);
463
464   # link pool back to master
465   $self->pool->master($master);
466
467   $wantarray ? @res : $res;
468 };
469
470 =head1 METHODS
471
472 This class defines the following methods.
473
474 =head2 BUILDARGS
475
476 L<DBIx::Class::Schema> when instantiating its storage passed itself as the
477 first argument.  So we need to massage the arguments a bit so that all the
478 bits get put into the correct places.
479
480 =cut
481
482 sub BUILDARGS {
483   my ($class, $schema, $storage_type_args, @args) = @_;
484
485   return {
486     schema=>$schema,
487     %$storage_type_args,
488     @args
489   }
490 }
491
492 =head2 _build_master
493
494 Lazy builder for the L</master> attribute.
495
496 =cut
497
498 sub _build_master {
499   my $self = shift @_;
500   my $master = DBIx::Class::Storage::DBI->new($self->schema);
501   $master
502 }
503
504 =head2 _build_pool
505
506 Lazy builder for the L</pool> attribute.
507
508 =cut
509
510 sub _build_pool {
511   my $self = shift @_;
512   $self->create_pool(%{$self->pool_args});
513 }
514
515 =head2 _build_balancer
516
517 Lazy builder for the L</balancer> attribute.  This takes a Pool object so that
518 the balancer knows which pool it's balancing.
519
520 =cut
521
522 sub _build_balancer {
523   my $self = shift @_;
524   $self->create_balancer(
525     pool=>$self->pool,
526     master=>$self->master,
527     %{$self->balancer_args},
528   );
529 }
530
531 =head2 _build_write_handler
532
533 Lazy builder for the L</write_handler> attribute.  The default is to set this to
534 the L</master>.
535
536 =cut
537
538 sub _build_write_handler {
539   return shift->master;
540 }
541
542 =head2 _build_read_handler
543
544 Lazy builder for the L</read_handler> attribute.  The default is to set this to
545 the L</balancer>.
546
547 =cut
548
549 sub _build_read_handler {
550   return shift->balancer;
551 }
552
553 =head2 around: connect_replicants
554
555 All calls to connect_replicants needs to have an existing $schema tacked onto
556 top of the args, since L<DBIx::Storage::DBI> needs it, and any C<connect_info>
557 options merged with the master, with replicant opts having higher priority.
558
559 =cut
560
561 around connect_replicants => sub {
562   my ($next, $self, @args) = @_;
563
564   for my $r (@args) {
565     $r = [ $r ] unless reftype $r eq 'ARRAY';
566
567     $self->throw_exception('coderef replicant connect_info not supported')
568       if ref $r->[0] && reftype $r->[0] eq 'CODE';
569
570 # any connect_info options?
571     my $i = 0;
572     $i++ while $i < @$r && (reftype($r->[$i])||'') ne 'HASH';
573
574 # make one if none
575     $r->[$i] = {} unless $r->[$i];
576
577 # merge if two hashes
578     my @hashes = @$r[$i .. $#{$r}];
579
580     $self->throw_exception('invalid connect_info options')
581       if (grep { reftype($_) eq 'HASH' } @hashes) != @hashes;
582
583     $self->throw_exception('too many hashrefs in connect_info')
584       if @hashes > 2;
585
586     my $merge = Hash::Merge->new('LEFT_PRECEDENT');
587     my %opts = %{ $merge->merge(reverse @hashes) };
588
589 # delete them
590     splice @$r, $i+1, ($#{$r} - $i), ();
591
592 # make sure master/replicants opts don't clash
593     my %master_opts = %{ $self->_master_connect_info_opts };
594     if (exists $opts{dbh_maker}) {
595         delete @master_opts{qw/dsn user password/};
596     }
597     delete $master_opts{dbh_maker};
598
599 # merge with master
600     %opts = %{ $merge->merge(\%opts, \%master_opts) };
601
602 # update
603     $r->[$i] = \%opts;
604   }
605
606   $self->$next($self->schema, @args);
607 };
608
609 =head2 all_storages
610
611 Returns an array of of all the connected storage backends.  The first element
612 in the returned array is the master, and the remainings are each of the
613 replicants.
614
615 =cut
616
617 sub all_storages {
618   my $self = shift @_;
619   return grep {defined $_ && blessed $_} (
620      $self->master,
621      values %{ $self->replicants },
622   );
623 }
624
625 =head2 execute_reliably ($coderef, ?@args)
626
627 Given a coderef, saves the current state of the L</read_handler>, forces it to
628 use reliable storage (e.g. sets it to the master), executes a coderef and then
629 restores the original state.
630
631 Example:
632
633   my $reliably = sub {
634     my $name = shift @_;
635     $schema->resultset('User')->create({name=>$name});
636     my $user_rs = $schema->resultset('User')->find({name=>$name});
637     return $user_rs;
638   };
639
640   my $user_rs = $schema->storage->execute_reliably($reliably, 'John');
641
642 Use this when you must be certain of your database state, such as when you just
643 inserted something and need to get a resultset including it, etc.
644
645 =cut
646
647 sub execute_reliably {
648   my ($self, $coderef, @args) = @_;
649
650   unless( ref $coderef eq 'CODE') {
651     $self->throw_exception('Second argument must be a coderef');
652   }
653
654   ##Get copy of master storage
655   my $master = $self->master;
656
657   ##Get whatever the current read hander is
658   my $current = $self->read_handler;
659
660   ##Set the read handler to master
661   $self->read_handler($master);
662
663   ## do whatever the caller needs
664   my @result;
665   my $want_array = wantarray;
666
667   try {
668     if($want_array) {
669       @result = $coderef->(@args);
670     } elsif(defined $want_array) {
671       ($result[0]) = ($coderef->(@args));
672     } else {
673       $coderef->(@args);
674     }
675   } catch {
676     $self->throw_exception("coderef returned an error: $_");
677   } finally {
678     ##Reset to the original state
679     $self->read_handler($current);
680   };
681
682   return $want_array ? @result : $result[0];
683 }
684
685 =head2 set_reliable_storage
686
687 Sets the current $schema to be 'reliable', that is all queries, both read and
688 write are sent to the master
689
690 =cut
691
692 sub set_reliable_storage {
693   my $self = shift @_;
694   my $schema = $self->schema;
695   my $write_handler = $self->schema->storage->write_handler;
696
697   $schema->storage->read_handler($write_handler);
698 }
699
700 =head2 set_balanced_storage
701
702 Sets the current $schema to be use the </balancer> for all reads, while all
703 writes are sent to the master only
704
705 =cut
706
707 sub set_balanced_storage {
708   my $self = shift @_;
709   my $schema = $self->schema;
710   my $balanced_handler = $self->schema->storage->balancer;
711
712   $schema->storage->read_handler($balanced_handler);
713 }
714
715 =head2 connected
716
717 Check that the master and at least one of the replicants is connected.
718
719 =cut
720
721 sub connected {
722   my $self = shift @_;
723   return
724     $self->master->connected &&
725     $self->pool->connected_replicants;
726 }
727
728 =head2 ensure_connected
729
730 Make sure all the storages are connected.
731
732 =cut
733
734 sub ensure_connected {
735   my $self = shift @_;
736   foreach my $source ($self->all_storages) {
737     $source->ensure_connected(@_);
738   }
739 }
740
741 =head2 limit_dialect
742
743 Set the limit_dialect for all existing storages
744
745 =cut
746
747 sub limit_dialect {
748   my $self = shift @_;
749   foreach my $source ($self->all_storages) {
750     $source->limit_dialect(@_);
751   }
752   return $self->master->limit_dialect;
753 }
754
755 =head2 quote_char
756
757 Set the quote_char for all existing storages
758
759 =cut
760
761 sub quote_char {
762   my $self = shift @_;
763   foreach my $source ($self->all_storages) {
764     $source->quote_char(@_);
765   }
766   return $self->master->quote_char;
767 }
768
769 =head2 name_sep
770
771 Set the name_sep for all existing storages
772
773 =cut
774
775 sub name_sep {
776   my $self = shift @_;
777   foreach my $source ($self->all_storages) {
778     $source->name_sep(@_);
779   }
780   return $self->master->name_sep;
781 }
782
783 =head2 set_schema
784
785 Set the schema object for all existing storages
786
787 =cut
788
789 sub set_schema {
790   my $self = shift @_;
791   foreach my $source ($self->all_storages) {
792     $source->set_schema(@_);
793   }
794 }
795
796 =head2 debug
797
798 set a debug flag across all storages
799
800 =cut
801
802 sub debug {
803   my $self = shift @_;
804   if(@_) {
805     foreach my $source ($self->all_storages) {
806       $source->debug(@_);
807     }
808   }
809   return $self->master->debug;
810 }
811
812 =head2 debugobj
813
814 set a debug object
815
816 =cut
817
818 sub debugobj {
819   my $self = shift @_;
820   return $self->master->debugobj(@_);
821 }
822
823 =head2 debugfh
824
825 set a debugfh object
826
827 =cut
828
829 sub debugfh {
830   my $self = shift @_;
831   return $self->master->debugfh(@_);
832 }
833
834 =head2 debugcb
835
836 set a debug callback
837
838 =cut
839
840 sub debugcb {
841   my $self = shift @_;
842   return $self->master->debugcb(@_);
843 }
844
845 =head2 disconnect
846
847 disconnect everything
848
849 =cut
850
851 sub disconnect {
852   my $self = shift @_;
853   foreach my $source ($self->all_storages) {
854     $source->disconnect(@_);
855   }
856 }
857
858 =head2 cursor_class
859
860 set cursor class on all storages, or return master's
861
862 =cut
863
864 sub cursor_class {
865   my ($self, $cursor_class) = @_;
866
867   if ($cursor_class) {
868     $_->cursor_class($cursor_class) for $self->all_storages;
869   }
870   $self->master->cursor_class;
871 }
872
873 =head2 cursor
874
875 set cursor class on all storages, or return master's, alias for L</cursor_class>
876 above.
877
878 =cut
879
880 sub cursor {
881   my ($self, $cursor_class) = @_;
882
883   if ($cursor_class) {
884     $_->cursor($cursor_class) for $self->all_storages;
885   }
886   $self->master->cursor;
887 }
888
889 =head2 unsafe
890
891 sets the L<DBIx::Class::Storage::DBI/unsafe> option on all storages or returns
892 master's current setting
893
894 =cut
895
896 sub unsafe {
897   my $self = shift;
898
899   if (@_) {
900     $_->unsafe(@_) for $self->all_storages;
901   }
902
903   return $self->master->unsafe;
904 }
905
906 =head2 disable_sth_caching
907
908 sets the L<DBIx::Class::Storage::DBI/disable_sth_caching> option on all storages
909 or returns master's current setting
910
911 =cut
912
913 sub disable_sth_caching {
914   my $self = shift;
915
916   if (@_) {
917     $_->disable_sth_caching(@_) for $self->all_storages;
918   }
919
920   return $self->master->disable_sth_caching;
921 }
922
923 =head2 lag_behind_master
924
925 returns the highest Replicant L<DBIx::Class::Storage::DBI/lag_behind_master>
926 setting
927
928 =cut
929
930 sub lag_behind_master {
931   my $self = shift;
932
933   return max map $_->lag_behind_master, $self->replicants;
934 }
935
936 =head2 is_replicating
937
938 returns true if all replicants return true for
939 L<DBIx::Class::Storage::DBI/is_replicating>
940
941 =cut
942
943 sub is_replicating {
944   my $self = shift;
945
946   return (grep $_->is_replicating, $self->replicants) == ($self->replicants);
947 }
948
949 =head2 connect_call_datetime_setup
950
951 calls L<DBIx::Class::Storage::DBI/connect_call_datetime_setup> for all storages
952
953 =cut
954
955 sub connect_call_datetime_setup {
956   my $self = shift;
957   $_->connect_call_datetime_setup for $self->all_storages;
958 }
959
960 sub _populate_dbh {
961   my $self = shift;
962   $_->_populate_dbh for $self->all_storages;
963 }
964
965 sub _connect {
966   my $self = shift;
967   $_->_connect for $self->all_storages;
968 }
969
970 sub _rebless {
971   my $self = shift;
972   $_->_rebless for $self->all_storages;
973 }
974
975 sub _determine_driver {
976   my $self = shift;
977   $_->_determine_driver for $self->all_storages;
978 }
979
980 sub _driver_determined {
981   my $self = shift;
982
983   if (@_) {
984     $_->_driver_determined(@_) for $self->all_storages;
985   }
986
987   return $self->master->_driver_determined;
988 }
989
990 sub _init {
991   my $self = shift;
992
993   $_->_init for $self->all_storages;
994 }
995
996 sub _run_connection_actions {
997   my $self = shift;
998
999   $_->_run_connection_actions for $self->all_storages;
1000 }
1001
1002 sub _do_connection_actions {
1003   my $self = shift;
1004
1005   if (@_) {
1006     $_->_do_connection_actions(@_) for $self->all_storages;
1007   }
1008 }
1009
1010 sub connect_call_do_sql {
1011   my $self = shift;
1012   $_->connect_call_do_sql(@_) for $self->all_storages;
1013 }
1014
1015 sub disconnect_call_do_sql {
1016   my $self = shift;
1017   $_->disconnect_call_do_sql(@_) for $self->all_storages;
1018 }
1019
1020 sub _seems_connected {
1021   my $self = shift;
1022
1023   return min map $_->_seems_connected, $self->all_storages;
1024 }
1025
1026 sub _ping {
1027   my $self = shift;
1028
1029   return min map $_->_ping, $self->all_storages;
1030 }
1031
1032 # not using the normalized_version, because we want to preserve
1033 # version numbers much longer than the conventional xxx.yyyzzz
1034 my $numify_ver = sub {
1035   my $ver = shift;
1036   my @numparts = split /\D+/, $ver;
1037   my $format = '%d.' . (join '', ('%06d') x (@numparts - 1));
1038
1039   return sprintf $format, @numparts;
1040 };
1041 sub _server_info {
1042   my $self = shift;
1043
1044   if (not $self->_dbh_details->{info}) {
1045     $self->_dbh_details->{info} = (
1046       reduce { $a->[0] < $b->[0] ? $a : $b }
1047       map [ $numify_ver->($_->{dbms_version}), $_ ],
1048       map $_->_server_info, $self->all_storages
1049     )->[1];
1050   }
1051
1052   return $self->next::method;
1053 }
1054
1055 sub _get_server_version {
1056   my $self = shift;
1057
1058   return $self->_server_info->{dbms_version};
1059 }
1060
1061 =head1 GOTCHAS
1062
1063 Due to the fact that replicants can lag behind a master, you must take care to
1064 make sure you use one of the methods to force read queries to a master should
1065 you need realtime data integrity.  For example, if you insert a row, and then
1066 immediately re-read it from the database (say, by doing $row->discard_changes)
1067 or you insert a row and then immediately build a query that expects that row
1068 to be an item, you should force the master to handle reads.  Otherwise, due to
1069 the lag, there is no certainty your data will be in the expected state.
1070
1071 For data integrity, all transactions automatically use the master storage for
1072 all read and write queries.  Using a transaction is the preferred and recommended
1073 method to force the master to handle all read queries.
1074
1075 Otherwise, you can force a single query to use the master with the 'force_pool'
1076 attribute:
1077
1078   my $row = $resultset->search(undef, {force_pool=>'master'})->find($pk);
1079
1080 This attribute will safely be ignore by non replicated storages, so you can use
1081 the same code for both types of systems.
1082
1083 Lastly, you can use the L</execute_reliably> method, which works very much like
1084 a transaction.
1085
1086 For debugging, you can turn replication on/off with the methods L</set_reliable_storage>
1087 and L</set_balanced_storage>, however this operates at a global level and is not
1088 suitable if you have a shared Schema object being used by multiple processes,
1089 such as on a web application server.  You can get around this limitation by
1090 using the Schema clone method.
1091
1092   my $new_schema = $schema->clone;
1093   $new_schema->set_reliable_storage;
1094
1095   ## $new_schema will use only the Master storage for all reads/writes while
1096   ## the $schema object will use replicated storage.
1097
1098 =head1 AUTHOR
1099
1100   John Napiorkowski <john.napiorkowski@takkle.com>
1101
1102 Based on code originated by:
1103
1104   Norbert Csongrádi <bert@cpan.org>
1105   Peter Siklósi <einon@einon.hu>
1106
1107 =head1 LICENSE
1108
1109 You may distribute this code under the same terms as Perl itself.
1110
1111 =cut
1112
1113 __PACKAGE__->meta->make_immutable;
1114
1115 1;