46ad46286b98971e17ffb29e4d1d7a741f8c33e3
[dbsrgits/DBIx-Class.git] / lib / DBIx / Class / Storage / DBI / Replicated.pm
1 package DBIx::Class::Storage::DBI::Replicated;
2
3 BEGIN {
4   use Carp::Clan qw/^DBIx::Class/;
5   use DBIx::Class;
6   croak('The following modules are required for Replication ' . DBIx::Class::Optional::Dependencies->req_missing_for ('replicated') )
7     unless DBIx::Class::Optional::Dependencies->req_ok_for ('replicated');
8 }
9
10 use Moose;
11 use DBIx::Class::Storage::DBI;
12 use DBIx::Class::Storage::DBI::Replicated::Pool;
13 use DBIx::Class::Storage::DBI::Replicated::Balancer;
14 use DBIx::Class::Storage::DBI::Replicated::Types qw/BalancerClassNamePart DBICSchema DBICStorageDBI/;
15 use MooseX::Types::Moose qw/ClassName HashRef Object/;
16 use Scalar::Util 'reftype';
17 use Hash::Merge;
18 use List::Util qw/min max reduce/;
19 use Try::Tiny;
20 use namespace::clean;
21
22 use namespace::clean -except => 'meta';
23
24 =head1 NAME
25
26 DBIx::Class::Storage::DBI::Replicated - BETA Replicated database support
27
28 =head1 SYNOPSIS
29
30 The Following example shows how to change an existing $schema to a replicated
31 storage type, add some replicated (read-only) databases, and perform reporting
32 tasks.
33
34 You should set the 'storage_type attribute to a replicated type.  You should
35 also define your arguments, such as which balancer you want and any arguments
36 that the Pool object should get.
37
38   my $schema = Schema::Class->clone;
39   $schema->storage_type( ['::DBI::Replicated', {balancer=>'::Random'}] );
40   $schema->connection(...);
41
42 Next, you need to add in the Replicants.  Basically this is an array of
43 arrayrefs, where each arrayref is database connect information.  Think of these
44 arguments as what you'd pass to the 'normal' $schema->connect method.
45
46   $schema->storage->connect_replicants(
47     [$dsn1, $user, $pass, \%opts],
48     [$dsn2, $user, $pass, \%opts],
49     [$dsn3, $user, $pass, \%opts],
50   );
51
52 Now, just use the $schema as you normally would.  Automatically all reads will
53 be delegated to the replicants, while writes to the master.
54
55   $schema->resultset('Source')->search({name=>'etc'});
56
57 You can force a given query to use a particular storage using the search
58 attribute 'force_pool'.  For example:
59
60   my $RS = $schema->resultset('Source')->search(undef, {force_pool=>'master'});
61
62 Now $RS will force everything (both reads and writes) to use whatever was setup
63 as the master storage.  'master' is hardcoded to always point to the Master,
64 but you can also use any Replicant name.  Please see:
65 L<DBIx::Class::Storage::DBI::Replicated::Pool> and the replicants attribute for more.
66
67 Also see transactions and L</execute_reliably> for alternative ways to
68 force read traffic to the master.  In general, you should wrap your statements
69 in a transaction when you are reading and writing to the same tables at the
70 same time, since your replicants will often lag a bit behind the master.
71
72 See L<DBIx::Class::Storage::DBI::Replicated::Instructions> for more help and
73 walkthroughs.
74
75 =head1 DESCRIPTION
76
77 Warning: This class is marked BETA.  This has been running a production
78 website using MySQL native replication as its backend and we have some decent
79 test coverage but the code hasn't yet been stressed by a variety of databases.
80 Individual DBs may have quirks we are not aware of.  Please use this in first
81 development and pass along your experiences/bug fixes.
82
83 This class implements replicated data store for DBI. Currently you can define
84 one master and numerous slave database connections. All write-type queries
85 (INSERT, UPDATE, DELETE and even LAST_INSERT_ID) are routed to master
86 database, all read-type queries (SELECTs) go to the slave database.
87
88 Basically, any method request that L<DBIx::Class::Storage::DBI> would normally
89 handle gets delegated to one of the two attributes: L</read_handler> or to
90 L</write_handler>.  Additionally, some methods need to be distributed
91 to all existing storages.  This way our storage class is a drop in replacement
92 for L<DBIx::Class::Storage::DBI>.
93
94 Read traffic is spread across the replicants (slaves) occurring to a user
95 selected algorithm.  The default algorithm is random weighted.
96
97 =head1 NOTES
98
99 The consistency between master and replicants is database specific.  The Pool
100 gives you a method to validate its replicants, removing and replacing them
101 when they fail/pass predefined criteria.  Please make careful use of the ways
102 to force a query to run against Master when needed.
103
104 =head1 REQUIREMENTS
105
106 Replicated Storage has additional requirements not currently part of
107 L<DBIx::Class>. See L<DBIx::Class::Optional::Dependencies> for more details.
108
109 =head1 ATTRIBUTES
110
111 This class defines the following attributes.
112
113 =head2 schema
114
115 The underlying L<DBIx::Class::Schema> object this storage is attaching
116
117 =cut
118
119 has 'schema' => (
120     is=>'rw',
121     isa=>DBICSchema,
122     weak_ref=>1,
123     required=>1,
124 );
125
126 =head2 pool_type
127
128 Contains the classname which will instantiate the L</pool> object.  Defaults
129 to: L<DBIx::Class::Storage::DBI::Replicated::Pool>.
130
131 =cut
132
133 has 'pool_type' => (
134   is=>'rw',
135   isa=>ClassName,
136   default=>'DBIx::Class::Storage::DBI::Replicated::Pool',
137   handles=>{
138     'create_pool' => 'new',
139   },
140 );
141
142 =head2 pool_args
143
144 Contains a hashref of initialized information to pass to the Balancer object.
145 See L<DBIx::Class::Storage::DBI::Replicated::Pool> for available arguments.
146
147 =cut
148
149 has 'pool_args' => (
150   is=>'rw',
151   isa=>HashRef,
152   lazy=>1,
153   default=>sub { {} },
154 );
155
156
157 =head2 balancer_type
158
159 The replication pool requires a balance class to provider the methods for
160 choose how to spread the query load across each replicant in the pool.
161
162 =cut
163
164 has 'balancer_type' => (
165   is=>'rw',
166   isa=>BalancerClassNamePart,
167   coerce=>1,
168   required=>1,
169   default=> 'DBIx::Class::Storage::DBI::Replicated::Balancer::First',
170   handles=>{
171     'create_balancer' => 'new',
172   },
173 );
174
175 =head2 balancer_args
176
177 Contains a hashref of initialized information to pass to the Balancer object.
178 See L<DBIx::Class::Storage::DBI::Replicated::Balancer> for available arguments.
179
180 =cut
181
182 has 'balancer_args' => (
183   is=>'rw',
184   isa=>HashRef,
185   lazy=>1,
186   required=>1,
187   default=>sub { {} },
188 );
189
190 =head2 pool
191
192 Is a L<DBIx::Class::Storage::DBI::Replicated::Pool> or derived class.  This is a
193 container class for one or more replicated databases.
194
195 =cut
196
197 has 'pool' => (
198   is=>'ro',
199   isa=>'DBIx::Class::Storage::DBI::Replicated::Pool',
200   lazy_build=>1,
201   handles=>[qw/
202     connect_replicants
203     replicants
204     has_replicants
205   /],
206 );
207
208 =head2 balancer
209
210 Is a L<DBIx::Class::Storage::DBI::Replicated::Balancer> or derived class.  This
211 is a class that takes a pool (L<DBIx::Class::Storage::DBI::Replicated::Pool>)
212
213 =cut
214
215 has 'balancer' => (
216   is=>'rw',
217   isa=>'DBIx::Class::Storage::DBI::Replicated::Balancer',
218   lazy_build=>1,
219   handles=>[qw/auto_validate_every/],
220 );
221
222 =head2 master
223
224 The master defines the canonical state for a pool of connected databases.  All
225 the replicants are expected to match this databases state.  Thus, in a classic
226 Master / Slaves distributed system, all the slaves are expected to replicate
227 the Master's state as quick as possible.  This is the only database in the
228 pool of databases that is allowed to handle write traffic.
229
230 =cut
231
232 has 'master' => (
233   is=> 'ro',
234   isa=>DBICStorageDBI,
235   lazy_build=>1,
236 );
237
238 =head1 ATTRIBUTES IMPLEMENTING THE DBIx::Storage::DBI INTERFACE
239
240 The following methods are delegated all the methods required for the
241 L<DBIx::Class::Storage::DBI> interface.
242
243 =head2 read_handler
244
245 Defines an object that implements the read side of L<BIx::Class::Storage::DBI>.
246
247 =cut
248
249 has 'read_handler' => (
250   is=>'rw',
251   isa=>Object,
252   lazy_build=>1,
253   handles=>[qw/
254     select
255     select_single
256     columns_info_for
257     _dbh_columns_info_for
258     _select
259   /],
260 );
261
262 =head2 write_handler
263
264 Defines an object that implements the write side of L<BIx::Class::Storage::DBI>,
265 as well as methods that don't write or read that can be called on only one
266 storage, methods that return a C<$dbh>, and any methods that don't make sense to
267 run on a replicant.
268
269 =cut
270
271 has 'write_handler' => (
272   is=>'ro',
273   isa=>Object,
274   lazy_build=>1,
275   handles=>[qw/
276     on_connect_do
277     on_disconnect_do
278     on_connect_call
279     on_disconnect_call
280     connect_info
281     _connect_info
282     throw_exception
283     sql_maker
284     sqlt_type
285     create_ddl_dir
286     deployment_statements
287     datetime_parser
288     datetime_parser_type
289     build_datetime_parser
290     last_insert_id
291     insert
292     insert_bulk
293     update
294     delete
295     dbh
296     txn_begin
297     txn_do
298     txn_commit
299     txn_rollback
300     txn_scope_guard
301     sth
302     deploy
303     with_deferred_fk_checks
304     dbh_do
305     reload_row
306     with_deferred_fk_checks
307     _prep_for_execute
308
309     backup
310     is_datatype_numeric
311     _count_select
312     _subq_update_delete
313     svp_rollback
314     svp_begin
315     svp_release
316     relname_to_table_alias
317     _straight_join_to_node
318     _dbh_last_insert_id
319     _fix_bind_params
320     _default_dbi_connect_attributes
321     _dbi_connect_info
322     _dbic_connect_attributes
323     auto_savepoint
324     _sqlt_version_ok
325     _query_end
326     bind_attribute_by_data_type
327     transaction_depth
328     _dbh
329     _select_args
330     _dbh_execute_array
331     _sql_maker
332     _query_start
333     _sqlt_version_error
334     _per_row_update_delete
335     _dbh_begin_work
336     _dbh_execute_inserts_with_no_binds
337     _select_args_to_query
338     _svp_generate_name
339     _multipk_update_delete
340     source_bind_attributes
341     _normalize_connect_info
342     _parse_connect_do
343     _dbh_commit
344     _execute_array
345     savepoints
346     _sqlt_minimum_version
347     _sql_maker_opts
348     _conn_pid
349     _conn_tid
350     _dbh_autocommit
351     _native_data_type
352     _get_dbh
353     sql_maker_class
354     _dbh_rollback
355     _adjust_select_args_for_complex_prefetch
356     _resolve_ident_sources
357     _resolve_column_info
358     _prune_unused_joins
359     _strip_cond_qualifiers
360     _parse_order_by
361     _resolve_aliastypes_from_select_args
362     _execute
363     _do_query
364     _dbh_sth
365     _dbh_execute
366     _prefetch_insert_auto_nextvals
367   /],
368 );
369
370 my @unimplemented = qw(
371   _arm_global_destructor
372   _preserve_foreign_dbh
373   _verify_pid
374   _verify_tid
375
376   get_use_dbms_capability
377   set_use_dbms_capability
378   get_dbms_capability
379   set_dbms_capability
380
381   sql_limit_dialect
382
383   _dbh_details
384
385   _use_insert_returning
386   _supports_insert_returning
387
388   _use_placeholders
389   _supports_placeholders
390   _determine_supports_placeholders
391
392   _use_typeless_placeholders
393   _supports_typeless_placeholders
394   _determine_supports_typeless_placeholders
395 );
396
397 for my $method (@unimplemented) {
398   __PACKAGE__->meta->add_method($method, sub {
399     croak "$method must not be called on ".(blessed shift).' objects';
400   });
401 }
402
403 has _master_connect_info_opts =>
404   (is => 'rw', isa => HashRef, default => sub { {} });
405
406 =head2 around: connect_info
407
408 Preserves master's C<connect_info> options (for merging with replicants.)
409 Also sets any Replicated-related options from connect_info, such as
410 C<pool_type>, C<pool_args>, C<balancer_type> and C<balancer_args>.
411
412 =cut
413
414 around connect_info => sub {
415   my ($next, $self, $info, @extra) = @_;
416
417   my $wantarray = wantarray;
418
419   my $merge = Hash::Merge->new('LEFT_PRECEDENT');
420
421   my %opts;
422   for my $arg (@$info) {
423     next unless (reftype($arg)||'') eq 'HASH';
424     %opts = %{ $merge->merge($arg, \%opts) };
425   }
426   delete $opts{dsn};
427
428   if (@opts{qw/pool_type pool_args/}) {
429     $self->pool_type(delete $opts{pool_type})
430       if $opts{pool_type};
431
432     $self->pool_args(
433       $merge->merge((delete $opts{pool_args} || {}), $self->pool_args)
434     );
435
436     $self->pool($self->_build_pool)
437       if $self->pool;
438   }
439
440   if (@opts{qw/balancer_type balancer_args/}) {
441     $self->balancer_type(delete $opts{balancer_type})
442       if $opts{balancer_type};
443
444     $self->balancer_args(
445       $merge->merge((delete $opts{balancer_args} || {}), $self->balancer_args)
446     );
447
448     $self->balancer($self->_build_balancer)
449       if $self->balancer;
450   }
451
452   $self->_master_connect_info_opts(\%opts);
453
454   my (@res, $res);
455   if ($wantarray) {
456     @res = $self->$next($info, @extra);
457   } else {
458     $res = $self->$next($info, @extra);
459   }
460
461   # Make sure master is blessed into the correct class and apply role to it.
462   my $master = $self->master;
463   $master->_determine_driver;
464   Moose::Meta::Class->initialize(ref $master);
465
466   DBIx::Class::Storage::DBI::Replicated::WithDSN->meta->apply($master);
467
468   # link pool back to master
469   $self->pool->master($master);
470
471   $wantarray ? @res : $res;
472 };
473
474 =head1 METHODS
475
476 This class defines the following methods.
477
478 =head2 BUILDARGS
479
480 L<DBIx::Class::Schema> when instantiating its storage passed itself as the
481 first argument.  So we need to massage the arguments a bit so that all the
482 bits get put into the correct places.
483
484 =cut
485
486 sub BUILDARGS {
487   my ($class, $schema, $storage_type_args, @args) = @_;
488
489   return {
490     schema=>$schema,
491     %$storage_type_args,
492     @args
493   }
494 }
495
496 =head2 _build_master
497
498 Lazy builder for the L</master> attribute.
499
500 =cut
501
502 sub _build_master {
503   my $self = shift @_;
504   my $master = DBIx::Class::Storage::DBI->new($self->schema);
505   $master
506 }
507
508 =head2 _build_pool
509
510 Lazy builder for the L</pool> attribute.
511
512 =cut
513
514 sub _build_pool {
515   my $self = shift @_;
516   $self->create_pool(%{$self->pool_args});
517 }
518
519 =head2 _build_balancer
520
521 Lazy builder for the L</balancer> attribute.  This takes a Pool object so that
522 the balancer knows which pool it's balancing.
523
524 =cut
525
526 sub _build_balancer {
527   my $self = shift @_;
528   $self->create_balancer(
529     pool=>$self->pool,
530     master=>$self->master,
531     %{$self->balancer_args},
532   );
533 }
534
535 =head2 _build_write_handler
536
537 Lazy builder for the L</write_handler> attribute.  The default is to set this to
538 the L</master>.
539
540 =cut
541
542 sub _build_write_handler {
543   return shift->master;
544 }
545
546 =head2 _build_read_handler
547
548 Lazy builder for the L</read_handler> attribute.  The default is to set this to
549 the L</balancer>.
550
551 =cut
552
553 sub _build_read_handler {
554   return shift->balancer;
555 }
556
557 =head2 around: connect_replicants
558
559 All calls to connect_replicants needs to have an existing $schema tacked onto
560 top of the args, since L<DBIx::Storage::DBI> needs it, and any C<connect_info>
561 options merged with the master, with replicant opts having higher priority.
562
563 =cut
564
565 around connect_replicants => sub {
566   my ($next, $self, @args) = @_;
567
568   for my $r (@args) {
569     $r = [ $r ] unless reftype $r eq 'ARRAY';
570
571     $self->throw_exception('coderef replicant connect_info not supported')
572       if ref $r->[0] && reftype $r->[0] eq 'CODE';
573
574 # any connect_info options?
575     my $i = 0;
576     $i++ while $i < @$r && (reftype($r->[$i])||'') ne 'HASH';
577
578 # make one if none
579     $r->[$i] = {} unless $r->[$i];
580
581 # merge if two hashes
582     my @hashes = @$r[$i .. $#{$r}];
583
584     $self->throw_exception('invalid connect_info options')
585       if (grep { reftype($_) eq 'HASH' } @hashes) != @hashes;
586
587     $self->throw_exception('too many hashrefs in connect_info')
588       if @hashes > 2;
589
590     my $merge = Hash::Merge->new('LEFT_PRECEDENT');
591     my %opts = %{ $merge->merge(reverse @hashes) };
592
593 # delete them
594     splice @$r, $i+1, ($#{$r} - $i), ();
595
596 # make sure master/replicants opts don't clash
597     my %master_opts = %{ $self->_master_connect_info_opts };
598     if (exists $opts{dbh_maker}) {
599         delete @master_opts{qw/dsn user password/};
600     }
601     delete $master_opts{dbh_maker};
602
603 # merge with master
604     %opts = %{ $merge->merge(\%opts, \%master_opts) };
605
606 # update
607     $r->[$i] = \%opts;
608   }
609
610   $self->$next($self->schema, @args);
611 };
612
613 =head2 all_storages
614
615 Returns an array of of all the connected storage backends.  The first element
616 in the returned array is the master, and the remainings are each of the
617 replicants.
618
619 =cut
620
621 sub all_storages {
622   my $self = shift @_;
623   return grep {defined $_ && blessed $_} (
624      $self->master,
625      values %{ $self->replicants },
626   );
627 }
628
629 =head2 execute_reliably ($coderef, ?@args)
630
631 Given a coderef, saves the current state of the L</read_handler>, forces it to
632 use reliable storage (e.g. sets it to the master), executes a coderef and then
633 restores the original state.
634
635 Example:
636
637   my $reliably = sub {
638     my $name = shift @_;
639     $schema->resultset('User')->create({name=>$name});
640     my $user_rs = $schema->resultset('User')->find({name=>$name});
641     return $user_rs;
642   };
643
644   my $user_rs = $schema->storage->execute_reliably($reliably, 'John');
645
646 Use this when you must be certain of your database state, such as when you just
647 inserted something and need to get a resultset including it, etc.
648
649 =cut
650
651 sub execute_reliably {
652   my ($self, $coderef, @args) = @_;
653
654   unless( ref $coderef eq 'CODE') {
655     $self->throw_exception('Second argument must be a coderef');
656   }
657
658   ##Get copy of master storage
659   my $master = $self->master;
660
661   ##Get whatever the current read hander is
662   my $current = $self->read_handler;
663
664   ##Set the read handler to master
665   $self->read_handler($master);
666
667   ## do whatever the caller needs
668   my @result;
669   my $want_array = wantarray;
670
671   try {
672     if($want_array) {
673       @result = $coderef->(@args);
674     } elsif(defined $want_array) {
675       ($result[0]) = ($coderef->(@args));
676     } else {
677       $coderef->(@args);
678     }
679   } catch {
680     $self->throw_exception("coderef returned an error: $_");
681   } finally {
682     ##Reset to the original state
683     $self->read_handler($current);
684   };
685
686   return $want_array ? @result : $result[0];
687 }
688
689 =head2 set_reliable_storage
690
691 Sets the current $schema to be 'reliable', that is all queries, both read and
692 write are sent to the master
693
694 =cut
695
696 sub set_reliable_storage {
697   my $self = shift @_;
698   my $schema = $self->schema;
699   my $write_handler = $self->schema->storage->write_handler;
700
701   $schema->storage->read_handler($write_handler);
702 }
703
704 =head2 set_balanced_storage
705
706 Sets the current $schema to be use the </balancer> for all reads, while all
707 writes are sent to the master only
708
709 =cut
710
711 sub set_balanced_storage {
712   my $self = shift @_;
713   my $schema = $self->schema;
714   my $balanced_handler = $self->schema->storage->balancer;
715
716   $schema->storage->read_handler($balanced_handler);
717 }
718
719 =head2 connected
720
721 Check that the master and at least one of the replicants is connected.
722
723 =cut
724
725 sub connected {
726   my $self = shift @_;
727   return
728     $self->master->connected &&
729     $self->pool->connected_replicants;
730 }
731
732 =head2 ensure_connected
733
734 Make sure all the storages are connected.
735
736 =cut
737
738 sub ensure_connected {
739   my $self = shift @_;
740   foreach my $source ($self->all_storages) {
741     $source->ensure_connected(@_);
742   }
743 }
744
745 =head2 limit_dialect
746
747 Set the limit_dialect for all existing storages
748
749 =cut
750
751 sub limit_dialect {
752   my $self = shift @_;
753   foreach my $source ($self->all_storages) {
754     $source->limit_dialect(@_);
755   }
756   return $self->master->quote_char;
757 }
758
759 =head2 quote_char
760
761 Set the quote_char for all existing storages
762
763 =cut
764
765 sub quote_char {
766   my $self = shift @_;
767   foreach my $source ($self->all_storages) {
768     $source->quote_char(@_);
769   }
770   return $self->master->quote_char;
771 }
772
773 =head2 name_sep
774
775 Set the name_sep for all existing storages
776
777 =cut
778
779 sub name_sep {
780   my $self = shift @_;
781   foreach my $source ($self->all_storages) {
782     $source->name_sep(@_);
783   }
784   return $self->master->name_sep;
785 }
786
787 =head2 set_schema
788
789 Set the schema object for all existing storages
790
791 =cut
792
793 sub set_schema {
794   my $self = shift @_;
795   foreach my $source ($self->all_storages) {
796     $source->set_schema(@_);
797   }
798 }
799
800 =head2 debug
801
802 set a debug flag across all storages
803
804 =cut
805
806 sub debug {
807   my $self = shift @_;
808   if(@_) {
809     foreach my $source ($self->all_storages) {
810       $source->debug(@_);
811     }
812   }
813   return $self->master->debug;
814 }
815
816 =head2 debugobj
817
818 set a debug object
819
820 =cut
821
822 sub debugobj {
823   my $self = shift @_;
824   return $self->master->debugobj(@_);
825 }
826
827 =head2 debugfh
828
829 set a debugfh object
830
831 =cut
832
833 sub debugfh {
834   my $self = shift @_;
835   return $self->master->debugfh(@_);
836 }
837
838 =head2 debugcb
839
840 set a debug callback
841
842 =cut
843
844 sub debugcb {
845   my $self = shift @_;
846   return $self->master->debugcb(@_);
847 }
848
849 =head2 disconnect
850
851 disconnect everything
852
853 =cut
854
855 sub disconnect {
856   my $self = shift @_;
857   foreach my $source ($self->all_storages) {
858     $source->disconnect(@_);
859   }
860 }
861
862 =head2 cursor_class
863
864 set cursor class on all storages, or return master's
865
866 =cut
867
868 sub cursor_class {
869   my ($self, $cursor_class) = @_;
870
871   if ($cursor_class) {
872     $_->cursor_class($cursor_class) for $self->all_storages;
873   }
874   $self->master->cursor_class;
875 }
876
877 =head2 cursor
878
879 set cursor class on all storages, or return master's, alias for L</cursor_class>
880 above.
881
882 =cut
883
884 sub cursor {
885   my ($self, $cursor_class) = @_;
886
887   if ($cursor_class) {
888     $_->cursor($cursor_class) for $self->all_storages;
889   }
890   $self->master->cursor;
891 }
892
893 =head2 unsafe
894
895 sets the L<DBIx::Class::Storage::DBI/unsafe> option on all storages or returns
896 master's current setting
897
898 =cut
899
900 sub unsafe {
901   my $self = shift;
902
903   if (@_) {
904     $_->unsafe(@_) for $self->all_storages;
905   }
906
907   return $self->master->unsafe;
908 }
909
910 =head2 disable_sth_caching
911
912 sets the L<DBIx::Class::Storage::DBI/disable_sth_caching> option on all storages
913 or returns master's current setting
914
915 =cut
916
917 sub disable_sth_caching {
918   my $self = shift;
919
920   if (@_) {
921     $_->disable_sth_caching(@_) for $self->all_storages;
922   }
923
924   return $self->master->disable_sth_caching;
925 }
926
927 =head2 lag_behind_master
928
929 returns the highest Replicant L<DBIx::Class::Storage::DBI/lag_behind_master>
930 setting
931
932 =cut
933
934 sub lag_behind_master {
935   my $self = shift;
936
937   return max map $_->lag_behind_master, $self->replicants;
938 }
939
940 =head2 is_replicating
941
942 returns true if all replicants return true for
943 L<DBIx::Class::Storage::DBI/is_replicating>
944
945 =cut
946
947 sub is_replicating {
948   my $self = shift;
949
950   return (grep $_->is_replicating, $self->replicants) == ($self->replicants);
951 }
952
953 =head2 connect_call_datetime_setup
954
955 calls L<DBIx::Class::Storage::DBI/connect_call_datetime_setup> for all storages
956
957 =cut
958
959 sub connect_call_datetime_setup {
960   my $self = shift;
961   $_->connect_call_datetime_setup for $self->all_storages;
962 }
963
964 sub _populate_dbh {
965   my $self = shift;
966   $_->_populate_dbh for $self->all_storages;
967 }
968
969 sub _connect {
970   my $self = shift;
971   $_->_connect for $self->all_storages;
972 }
973
974 sub _rebless {
975   my $self = shift;
976   $_->_rebless for $self->all_storages;
977 }
978
979 sub _determine_driver {
980   my $self = shift;
981   $_->_determine_driver for $self->all_storages;
982 }
983
984 sub _driver_determined {
985   my $self = shift;
986
987   if (@_) {
988     $_->_driver_determined(@_) for $self->all_storages;
989   }
990
991   return $self->master->_driver_determined;
992 }
993
994 sub _init {
995   my $self = shift;
996
997   $_->_init for $self->all_storages;
998 }
999
1000 sub _run_connection_actions {
1001   my $self = shift;
1002
1003   $_->_run_connection_actions for $self->all_storages;
1004 }
1005
1006 sub _do_connection_actions {
1007   my $self = shift;
1008
1009   if (@_) {
1010     $_->_do_connection_actions(@_) for $self->all_storages;
1011   }
1012 }
1013
1014 sub connect_call_do_sql {
1015   my $self = shift;
1016   $_->connect_call_do_sql(@_) for $self->all_storages;
1017 }
1018
1019 sub disconnect_call_do_sql {
1020   my $self = shift;
1021   $_->disconnect_call_do_sql(@_) for $self->all_storages;
1022 }
1023
1024 sub _seems_connected {
1025   my $self = shift;
1026
1027   return min map $_->_seems_connected, $self->all_storages;
1028 }
1029
1030 sub _ping {
1031   my $self = shift;
1032
1033   return min map $_->_ping, $self->all_storages;
1034 }
1035
1036 # not using the normalized_version, because we want to preserve
1037 # version numbers much longer than the conventional xxx.yyyzzz
1038 my $numify_ver = sub {
1039   my $ver = shift;
1040   my @numparts = split /\D+/, $ver;
1041   my $format = '%d.' . (join '', ('%06d') x (@numparts - 1));
1042
1043   return sprintf $format, @numparts;
1044 };
1045 sub _server_info {
1046   my $self = shift;
1047
1048   if (not $self->_dbh_details->{info}) {
1049     $self->_dbh_details->{info} = (
1050       reduce { $a->[0] < $b->[0] ? $a : $b }
1051       map [ $numify_ver->($_->{dbms_version}), $_ ],
1052       map $_->_server_info, $self->all_storages
1053     )->[1];
1054   }
1055
1056   return $self->next::method;
1057 }
1058
1059 sub _get_server_version {
1060   my $self = shift;
1061
1062   return $self->_server_info->{dbms_version};
1063 }
1064
1065 =head1 GOTCHAS
1066
1067 Due to the fact that replicants can lag behind a master, you must take care to
1068 make sure you use one of the methods to force read queries to a master should
1069 you need realtime data integrity.  For example, if you insert a row, and then
1070 immediately re-read it from the database (say, by doing $row->discard_changes)
1071 or you insert a row and then immediately build a query that expects that row
1072 to be an item, you should force the master to handle reads.  Otherwise, due to
1073 the lag, there is no certainty your data will be in the expected state.
1074
1075 For data integrity, all transactions automatically use the master storage for
1076 all read and write queries.  Using a transaction is the preferred and recommended
1077 method to force the master to handle all read queries.
1078
1079 Otherwise, you can force a single query to use the master with the 'force_pool'
1080 attribute:
1081
1082   my $row = $resultset->search(undef, {force_pool=>'master'})->find($pk);
1083
1084 This attribute will safely be ignore by non replicated storages, so you can use
1085 the same code for both types of systems.
1086
1087 Lastly, you can use the L</execute_reliably> method, which works very much like
1088 a transaction.
1089
1090 For debugging, you can turn replication on/off with the methods L</set_reliable_storage>
1091 and L</set_balanced_storage>, however this operates at a global level and is not
1092 suitable if you have a shared Schema object being used by multiple processes,
1093 such as on a web application server.  You can get around this limitation by
1094 using the Schema clone method.
1095
1096   my $new_schema = $schema->clone;
1097   $new_schema->set_reliable_storage;
1098
1099   ## $new_schema will use only the Master storage for all reads/writes while
1100   ## the $schema object will use replicated storage.
1101
1102 =head1 AUTHOR
1103
1104   John Napiorkowski <john.napiorkowski@takkle.com>
1105
1106 Based on code originated by:
1107
1108   Norbert Csongrádi <bert@cpan.org>
1109   Peter Siklósi <einon@einon.hu>
1110
1111 =head1 LICENSE
1112
1113 You may distribute this code under the same terms as Perl itself.
1114
1115 =cut
1116
1117 __PACKAGE__->meta->make_immutable;
1118
1119 1;