That's an embarrasing c/p :(
[dbsrgits/DBIx-Class.git] / lib / DBIx / Class / Storage / DBI / Replicated.pm
1 package DBIx::Class::Storage::DBI::Replicated;
2
3 BEGIN {
4   use Carp::Clan qw/^DBIx::Class/;
5   use DBIx::Class;
6   croak('The following modules are required for Replication ' . DBIx::Class::Optional::Dependencies->req_missing_for ('replicated') )
7     unless DBIx::Class::Optional::Dependencies->req_ok_for ('replicated');
8 }
9
10 use Moose;
11 use DBIx::Class::Storage::DBI;
12 use DBIx::Class::Storage::DBI::Replicated::Pool;
13 use DBIx::Class::Storage::DBI::Replicated::Balancer;
14 use DBIx::Class::Storage::DBI::Replicated::Types qw/BalancerClassNamePart DBICSchema DBICStorageDBI/;
15 use MooseX::Types::Moose qw/ClassName HashRef Object/;
16 use Scalar::Util 'reftype';
17 use Hash::Merge;
18 use List::Util qw/min max reduce/;
19 use Try::Tiny;
20 use namespace::clean;
21
22 use namespace::clean -except => 'meta';
23
24 =head1 NAME
25
26 DBIx::Class::Storage::DBI::Replicated - BETA Replicated database support
27
28 =head1 SYNOPSIS
29
30 The Following example shows how to change an existing $schema to a replicated
31 storage type, add some replicated (read-only) databases, and perform reporting
32 tasks.
33
34 You should set the 'storage_type attribute to a replicated type.  You should
35 also define your arguments, such as which balancer you want and any arguments
36 that the Pool object should get.
37
38   my $schema = Schema::Class->clone;
39   $schema->storage_type( ['::DBI::Replicated', {balancer=>'::Random'}] );
40   $schema->connection(...);
41
42 Next, you need to add in the Replicants.  Basically this is an array of
43 arrayrefs, where each arrayref is database connect information.  Think of these
44 arguments as what you'd pass to the 'normal' $schema->connect method.
45
46   $schema->storage->connect_replicants(
47     [$dsn1, $user, $pass, \%opts],
48     [$dsn2, $user, $pass, \%opts],
49     [$dsn3, $user, $pass, \%opts],
50   );
51
52 Now, just use the $schema as you normally would.  Automatically all reads will
53 be delegated to the replicants, while writes to the master.
54
55   $schema->resultset('Source')->search({name=>'etc'});
56
57 You can force a given query to use a particular storage using the search
58 attribute 'force_pool'.  For example:
59
60   my $RS = $schema->resultset('Source')->search(undef, {force_pool=>'master'});
61
62 Now $RS will force everything (both reads and writes) to use whatever was setup
63 as the master storage.  'master' is hardcoded to always point to the Master,
64 but you can also use any Replicant name.  Please see:
65 L<DBIx::Class::Storage::DBI::Replicated::Pool> and the replicants attribute for more.
66
67 Also see transactions and L</execute_reliably> for alternative ways to
68 force read traffic to the master.  In general, you should wrap your statements
69 in a transaction when you are reading and writing to the same tables at the
70 same time, since your replicants will often lag a bit behind the master.
71
72 See L<DBIx::Class::Storage::DBI::Replicated::Instructions> for more help and
73 walkthroughs.
74
75 =head1 DESCRIPTION
76
77 Warning: This class is marked BETA.  This has been running a production
78 website using MySQL native replication as its backend and we have some decent
79 test coverage but the code hasn't yet been stressed by a variety of databases.
80 Individual DBs may have quirks we are not aware of.  Please use this in first
81 development and pass along your experiences/bug fixes.
82
83 This class implements replicated data store for DBI. Currently you can define
84 one master and numerous slave database connections. All write-type queries
85 (INSERT, UPDATE, DELETE and even LAST_INSERT_ID) are routed to master
86 database, all read-type queries (SELECTs) go to the slave database.
87
88 Basically, any method request that L<DBIx::Class::Storage::DBI> would normally
89 handle gets delegated to one of the two attributes: L</read_handler> or to
90 L</write_handler>.  Additionally, some methods need to be distributed
91 to all existing storages.  This way our storage class is a drop in replacement
92 for L<DBIx::Class::Storage::DBI>.
93
94 Read traffic is spread across the replicants (slaves) occurring to a user
95 selected algorithm.  The default algorithm is random weighted.
96
97 =head1 NOTES
98
99 The consistency between master and replicants is database specific.  The Pool
100 gives you a method to validate its replicants, removing and replacing them
101 when they fail/pass predefined criteria.  Please make careful use of the ways
102 to force a query to run against Master when needed.
103
104 =head1 REQUIREMENTS
105
106 Replicated Storage has additional requirements not currently part of
107 L<DBIx::Class>. See L<DBIx::Class::Optional::Dependencies> for more details.
108
109 =head1 ATTRIBUTES
110
111 This class defines the following attributes.
112
113 =head2 schema
114
115 The underlying L<DBIx::Class::Schema> object this storage is attaching
116
117 =cut
118
119 has 'schema' => (
120     is=>'rw',
121     isa=>DBICSchema,
122     weak_ref=>1,
123     required=>1,
124 );
125
126 =head2 pool_type
127
128 Contains the classname which will instantiate the L</pool> object.  Defaults
129 to: L<DBIx::Class::Storage::DBI::Replicated::Pool>.
130
131 =cut
132
133 has 'pool_type' => (
134   is=>'rw',
135   isa=>ClassName,
136   default=>'DBIx::Class::Storage::DBI::Replicated::Pool',
137   handles=>{
138     'create_pool' => 'new',
139   },
140 );
141
142 =head2 pool_args
143
144 Contains a hashref of initialized information to pass to the Balancer object.
145 See L<DBIx::Class::Storage::DBI::Replicated::Pool> for available arguments.
146
147 =cut
148
149 has 'pool_args' => (
150   is=>'rw',
151   isa=>HashRef,
152   lazy=>1,
153   default=>sub { {} },
154 );
155
156
157 =head2 balancer_type
158
159 The replication pool requires a balance class to provider the methods for
160 choose how to spread the query load across each replicant in the pool.
161
162 =cut
163
164 has 'balancer_type' => (
165   is=>'rw',
166   isa=>BalancerClassNamePart,
167   coerce=>1,
168   required=>1,
169   default=> 'DBIx::Class::Storage::DBI::Replicated::Balancer::First',
170   handles=>{
171     'create_balancer' => 'new',
172   },
173 );
174
175 =head2 balancer_args
176
177 Contains a hashref of initialized information to pass to the Balancer object.
178 See L<DBIx::Class::Storage::DBI::Replicated::Balancer> for available arguments.
179
180 =cut
181
182 has 'balancer_args' => (
183   is=>'rw',
184   isa=>HashRef,
185   lazy=>1,
186   required=>1,
187   default=>sub { {} },
188 );
189
190 =head2 pool
191
192 Is a L<DBIx::Class::Storage::DBI::Replicated::Pool> or derived class.  This is a
193 container class for one or more replicated databases.
194
195 =cut
196
197 has 'pool' => (
198   is=>'ro',
199   isa=>'DBIx::Class::Storage::DBI::Replicated::Pool',
200   lazy_build=>1,
201   handles=>[qw/
202     connect_replicants
203     replicants
204     has_replicants
205   /],
206 );
207
208 =head2 balancer
209
210 Is a L<DBIx::Class::Storage::DBI::Replicated::Balancer> or derived class.  This
211 is a class that takes a pool (L<DBIx::Class::Storage::DBI::Replicated::Pool>)
212
213 =cut
214
215 has 'balancer' => (
216   is=>'rw',
217   isa=>'DBIx::Class::Storage::DBI::Replicated::Balancer',
218   lazy_build=>1,
219   handles=>[qw/auto_validate_every/],
220 );
221
222 =head2 master
223
224 The master defines the canonical state for a pool of connected databases.  All
225 the replicants are expected to match this databases state.  Thus, in a classic
226 Master / Slaves distributed system, all the slaves are expected to replicate
227 the Master's state as quick as possible.  This is the only database in the
228 pool of databases that is allowed to handle write traffic.
229
230 =cut
231
232 has 'master' => (
233   is=> 'ro',
234   isa=>DBICStorageDBI,
235   lazy_build=>1,
236 );
237
238 =head1 ATTRIBUTES IMPLEMENTING THE DBIx::Storage::DBI INTERFACE
239
240 The following methods are delegated all the methods required for the
241 L<DBIx::Class::Storage::DBI> interface.
242
243 =head2 read_handler
244
245 Defines an object that implements the read side of L<BIx::Class::Storage::DBI>.
246
247 =cut
248
249 has 'read_handler' => (
250   is=>'rw',
251   isa=>Object,
252   lazy_build=>1,
253   handles=>[qw/
254     select
255     select_single
256     columns_info_for
257     _dbh_columns_info_for
258     _select
259   /],
260 );
261
262 =head2 write_handler
263
264 Defines an object that implements the write side of L<BIx::Class::Storage::DBI>,
265 as well as methods that don't write or read that can be called on only one
266 storage, methods that return a C<$dbh>, and any methods that don't make sense to
267 run on a replicant.
268
269 =cut
270
271 has 'write_handler' => (
272   is=>'ro',
273   isa=>Object,
274   lazy_build=>1,
275   handles=>[qw/
276     on_connect_do
277     on_disconnect_do
278     on_connect_call
279     on_disconnect_call
280     connect_info
281     _connect_info
282     throw_exception
283     sql_maker
284     sqlt_type
285     create_ddl_dir
286     deployment_statements
287     datetime_parser
288     datetime_parser_type
289     build_datetime_parser
290     last_insert_id
291     insert
292     insert_bulk
293     update
294     delete
295     dbh
296     txn_begin
297     txn_do
298     txn_commit
299     txn_rollback
300     txn_scope_guard
301     sth
302     deploy
303     with_deferred_fk_checks
304     dbh_do
305     reload_row
306     with_deferred_fk_checks
307     _prep_for_execute
308
309     backup
310     is_datatype_numeric
311     _count_select
312     _subq_update_delete
313     svp_rollback
314     svp_begin
315     svp_release
316     relname_to_table_alias
317     _dbh_last_insert_id
318     _fix_bind_params
319     _default_dbi_connect_attributes
320     _dbi_connect_info
321     _dbic_connect_attributes
322     auto_savepoint
323     _sqlt_version_ok
324     _query_end
325     bind_attribute_by_data_type
326     transaction_depth
327     _dbh
328     _select_args
329     _dbh_execute_array
330     _sql_maker
331     _query_start
332     _sqlt_version_error
333     _per_row_update_delete
334     _dbh_begin_work
335     _dbh_execute_inserts_with_no_binds
336     _select_args_to_query
337     _svp_generate_name
338     _multipk_update_delete
339     source_bind_attributes
340     _normalize_connect_info
341     _parse_connect_do
342     _dbh_commit
343     _execute_array
344     savepoints
345     _sqlt_minimum_version
346     _sql_maker_opts
347     _conn_pid
348     _conn_tid
349     _dbh_autocommit
350     _native_data_type
351     _get_dbh
352     sql_maker_class
353     _dbh_rollback
354     _adjust_select_args_for_complex_prefetch
355     _resolve_ident_sources
356     _resolve_column_info
357     _prune_unused_joins
358     _strip_cond_qualifiers
359     _extract_order_columns
360     _resolve_aliastypes_from_select_args
361     _execute
362     _do_query
363     _dbh_sth
364     _dbh_execute
365     _prefetch_insert_auto_nextvals
366   /],
367 );
368
369 my @unimplemented = qw(
370   _arm_global_destructor
371   _preserve_foreign_dbh
372   _verify_pid
373   _verify_tid
374
375   get_use_dbms_capability
376   set_use_dbms_capability
377   get_dbms_capability
378   set_dbms_capability
379
380   sql_limit_dialect
381
382   _dbh_details
383
384   _use_insert_returning
385   _supports_insert_returning
386
387   _use_placeholders
388   _supports_placeholders
389   _determine_supports_placeholders
390
391   _use_typeless_placeholders
392   _supports_typeless_placeholders
393   _determine_supports_typeless_placeholders
394
395   _inner_join_to_node
396 );
397
398 for my $method (@unimplemented) {
399   __PACKAGE__->meta->add_method($method, sub {
400     croak "$method must not be called on ".(blessed shift).' objects';
401   });
402 }
403
404 has _master_connect_info_opts =>
405   (is => 'rw', isa => HashRef, default => sub { {} });
406
407 =head2 around: connect_info
408
409 Preserves master's C<connect_info> options (for merging with replicants.)
410 Also sets any Replicated-related options from connect_info, such as
411 C<pool_type>, C<pool_args>, C<balancer_type> and C<balancer_args>.
412
413 =cut
414
415 around connect_info => sub {
416   my ($next, $self, $info, @extra) = @_;
417
418   my $wantarray = wantarray;
419
420   my $merge = Hash::Merge->new('LEFT_PRECEDENT');
421
422   my %opts;
423   for my $arg (@$info) {
424     next unless (reftype($arg)||'') eq 'HASH';
425     %opts = %{ $merge->merge($arg, \%opts) };
426   }
427   delete $opts{dsn};
428
429   if (@opts{qw/pool_type pool_args/}) {
430     $self->pool_type(delete $opts{pool_type})
431       if $opts{pool_type};
432
433     $self->pool_args(
434       $merge->merge((delete $opts{pool_args} || {}), $self->pool_args)
435     );
436
437     $self->pool($self->_build_pool)
438       if $self->pool;
439   }
440
441   if (@opts{qw/balancer_type balancer_args/}) {
442     $self->balancer_type(delete $opts{balancer_type})
443       if $opts{balancer_type};
444
445     $self->balancer_args(
446       $merge->merge((delete $opts{balancer_args} || {}), $self->balancer_args)
447     );
448
449     $self->balancer($self->_build_balancer)
450       if $self->balancer;
451   }
452
453   $self->_master_connect_info_opts(\%opts);
454
455   my (@res, $res);
456   if ($wantarray) {
457     @res = $self->$next($info, @extra);
458   } else {
459     $res = $self->$next($info, @extra);
460   }
461
462   # Make sure master is blessed into the correct class and apply role to it.
463   my $master = $self->master;
464   $master->_determine_driver;
465   Moose::Meta::Class->initialize(ref $master);
466
467   DBIx::Class::Storage::DBI::Replicated::WithDSN->meta->apply($master);
468
469   # link pool back to master
470   $self->pool->master($master);
471
472   $wantarray ? @res : $res;
473 };
474
475 =head1 METHODS
476
477 This class defines the following methods.
478
479 =head2 BUILDARGS
480
481 L<DBIx::Class::Schema> when instantiating its storage passed itself as the
482 first argument.  So we need to massage the arguments a bit so that all the
483 bits get put into the correct places.
484
485 =cut
486
487 sub BUILDARGS {
488   my ($class, $schema, $storage_type_args, @args) = @_;
489
490   return {
491     schema=>$schema,
492     %$storage_type_args,
493     @args
494   }
495 }
496
497 =head2 _build_master
498
499 Lazy builder for the L</master> attribute.
500
501 =cut
502
503 sub _build_master {
504   my $self = shift @_;
505   my $master = DBIx::Class::Storage::DBI->new($self->schema);
506   $master
507 }
508
509 =head2 _build_pool
510
511 Lazy builder for the L</pool> attribute.
512
513 =cut
514
515 sub _build_pool {
516   my $self = shift @_;
517   $self->create_pool(%{$self->pool_args});
518 }
519
520 =head2 _build_balancer
521
522 Lazy builder for the L</balancer> attribute.  This takes a Pool object so that
523 the balancer knows which pool it's balancing.
524
525 =cut
526
527 sub _build_balancer {
528   my $self = shift @_;
529   $self->create_balancer(
530     pool=>$self->pool,
531     master=>$self->master,
532     %{$self->balancer_args},
533   );
534 }
535
536 =head2 _build_write_handler
537
538 Lazy builder for the L</write_handler> attribute.  The default is to set this to
539 the L</master>.
540
541 =cut
542
543 sub _build_write_handler {
544   return shift->master;
545 }
546
547 =head2 _build_read_handler
548
549 Lazy builder for the L</read_handler> attribute.  The default is to set this to
550 the L</balancer>.
551
552 =cut
553
554 sub _build_read_handler {
555   return shift->balancer;
556 }
557
558 =head2 around: connect_replicants
559
560 All calls to connect_replicants needs to have an existing $schema tacked onto
561 top of the args, since L<DBIx::Storage::DBI> needs it, and any C<connect_info>
562 options merged with the master, with replicant opts having higher priority.
563
564 =cut
565
566 around connect_replicants => sub {
567   my ($next, $self, @args) = @_;
568
569   for my $r (@args) {
570     $r = [ $r ] unless reftype $r eq 'ARRAY';
571
572     $self->throw_exception('coderef replicant connect_info not supported')
573       if ref $r->[0] && reftype $r->[0] eq 'CODE';
574
575 # any connect_info options?
576     my $i = 0;
577     $i++ while $i < @$r && (reftype($r->[$i])||'') ne 'HASH';
578
579 # make one if none
580     $r->[$i] = {} unless $r->[$i];
581
582 # merge if two hashes
583     my @hashes = @$r[$i .. $#{$r}];
584
585     $self->throw_exception('invalid connect_info options')
586       if (grep { reftype($_) eq 'HASH' } @hashes) != @hashes;
587
588     $self->throw_exception('too many hashrefs in connect_info')
589       if @hashes > 2;
590
591     my $merge = Hash::Merge->new('LEFT_PRECEDENT');
592     my %opts = %{ $merge->merge(reverse @hashes) };
593
594 # delete them
595     splice @$r, $i+1, ($#{$r} - $i), ();
596
597 # make sure master/replicants opts don't clash
598     my %master_opts = %{ $self->_master_connect_info_opts };
599     if (exists $opts{dbh_maker}) {
600         delete @master_opts{qw/dsn user password/};
601     }
602     delete $master_opts{dbh_maker};
603
604 # merge with master
605     %opts = %{ $merge->merge(\%opts, \%master_opts) };
606
607 # update
608     $r->[$i] = \%opts;
609   }
610
611   $self->$next($self->schema, @args);
612 };
613
614 =head2 all_storages
615
616 Returns an array of of all the connected storage backends.  The first element
617 in the returned array is the master, and the remainings are each of the
618 replicants.
619
620 =cut
621
622 sub all_storages {
623   my $self = shift @_;
624   return grep {defined $_ && blessed $_} (
625      $self->master,
626      values %{ $self->replicants },
627   );
628 }
629
630 =head2 execute_reliably ($coderef, ?@args)
631
632 Given a coderef, saves the current state of the L</read_handler>, forces it to
633 use reliable storage (e.g. sets it to the master), executes a coderef and then
634 restores the original state.
635
636 Example:
637
638   my $reliably = sub {
639     my $name = shift @_;
640     $schema->resultset('User')->create({name=>$name});
641     my $user_rs = $schema->resultset('User')->find({name=>$name});
642     return $user_rs;
643   };
644
645   my $user_rs = $schema->storage->execute_reliably($reliably, 'John');
646
647 Use this when you must be certain of your database state, such as when you just
648 inserted something and need to get a resultset including it, etc.
649
650 =cut
651
652 sub execute_reliably {
653   my ($self, $coderef, @args) = @_;
654
655   unless( ref $coderef eq 'CODE') {
656     $self->throw_exception('Second argument must be a coderef');
657   }
658
659   ##Get copy of master storage
660   my $master = $self->master;
661
662   ##Get whatever the current read hander is
663   my $current = $self->read_handler;
664
665   ##Set the read handler to master
666   $self->read_handler($master);
667
668   ## do whatever the caller needs
669   my @result;
670   my $want_array = wantarray;
671
672   try {
673     if($want_array) {
674       @result = $coderef->(@args);
675     } elsif(defined $want_array) {
676       ($result[0]) = ($coderef->(@args));
677     } else {
678       $coderef->(@args);
679     }
680   } catch {
681     $self->throw_exception("coderef returned an error: $_");
682   } finally {
683     ##Reset to the original state
684     $self->read_handler($current);
685   };
686
687   return $want_array ? @result : $result[0];
688 }
689
690 =head2 set_reliable_storage
691
692 Sets the current $schema to be 'reliable', that is all queries, both read and
693 write are sent to the master
694
695 =cut
696
697 sub set_reliable_storage {
698   my $self = shift @_;
699   my $schema = $self->schema;
700   my $write_handler = $self->schema->storage->write_handler;
701
702   $schema->storage->read_handler($write_handler);
703 }
704
705 =head2 set_balanced_storage
706
707 Sets the current $schema to be use the </balancer> for all reads, while all
708 writes are sent to the master only
709
710 =cut
711
712 sub set_balanced_storage {
713   my $self = shift @_;
714   my $schema = $self->schema;
715   my $balanced_handler = $self->schema->storage->balancer;
716
717   $schema->storage->read_handler($balanced_handler);
718 }
719
720 =head2 connected
721
722 Check that the master and at least one of the replicants is connected.
723
724 =cut
725
726 sub connected {
727   my $self = shift @_;
728   return
729     $self->master->connected &&
730     $self->pool->connected_replicants;
731 }
732
733 =head2 ensure_connected
734
735 Make sure all the storages are connected.
736
737 =cut
738
739 sub ensure_connected {
740   my $self = shift @_;
741   foreach my $source ($self->all_storages) {
742     $source->ensure_connected(@_);
743   }
744 }
745
746 =head2 limit_dialect
747
748 Set the limit_dialect for all existing storages
749
750 =cut
751
752 sub limit_dialect {
753   my $self = shift @_;
754   foreach my $source ($self->all_storages) {
755     $source->limit_dialect(@_);
756   }
757   return $self->master->limit_dialect;
758 }
759
760 =head2 quote_char
761
762 Set the quote_char for all existing storages
763
764 =cut
765
766 sub quote_char {
767   my $self = shift @_;
768   foreach my $source ($self->all_storages) {
769     $source->quote_char(@_);
770   }
771   return $self->master->quote_char;
772 }
773
774 =head2 name_sep
775
776 Set the name_sep for all existing storages
777
778 =cut
779
780 sub name_sep {
781   my $self = shift @_;
782   foreach my $source ($self->all_storages) {
783     $source->name_sep(@_);
784   }
785   return $self->master->name_sep;
786 }
787
788 =head2 set_schema
789
790 Set the schema object for all existing storages
791
792 =cut
793
794 sub set_schema {
795   my $self = shift @_;
796   foreach my $source ($self->all_storages) {
797     $source->set_schema(@_);
798   }
799 }
800
801 =head2 debug
802
803 set a debug flag across all storages
804
805 =cut
806
807 sub debug {
808   my $self = shift @_;
809   if(@_) {
810     foreach my $source ($self->all_storages) {
811       $source->debug(@_);
812     }
813   }
814   return $self->master->debug;
815 }
816
817 =head2 debugobj
818
819 set a debug object
820
821 =cut
822
823 sub debugobj {
824   my $self = shift @_;
825   return $self->master->debugobj(@_);
826 }
827
828 =head2 debugfh
829
830 set a debugfh object
831
832 =cut
833
834 sub debugfh {
835   my $self = shift @_;
836   return $self->master->debugfh(@_);
837 }
838
839 =head2 debugcb
840
841 set a debug callback
842
843 =cut
844
845 sub debugcb {
846   my $self = shift @_;
847   return $self->master->debugcb(@_);
848 }
849
850 =head2 disconnect
851
852 disconnect everything
853
854 =cut
855
856 sub disconnect {
857   my $self = shift @_;
858   foreach my $source ($self->all_storages) {
859     $source->disconnect(@_);
860   }
861 }
862
863 =head2 cursor_class
864
865 set cursor class on all storages, or return master's
866
867 =cut
868
869 sub cursor_class {
870   my ($self, $cursor_class) = @_;
871
872   if ($cursor_class) {
873     $_->cursor_class($cursor_class) for $self->all_storages;
874   }
875   $self->master->cursor_class;
876 }
877
878 =head2 cursor
879
880 set cursor class on all storages, or return master's, alias for L</cursor_class>
881 above.
882
883 =cut
884
885 sub cursor {
886   my ($self, $cursor_class) = @_;
887
888   if ($cursor_class) {
889     $_->cursor($cursor_class) for $self->all_storages;
890   }
891   $self->master->cursor;
892 }
893
894 =head2 unsafe
895
896 sets the L<DBIx::Class::Storage::DBI/unsafe> option on all storages or returns
897 master's current setting
898
899 =cut
900
901 sub unsafe {
902   my $self = shift;
903
904   if (@_) {
905     $_->unsafe(@_) for $self->all_storages;
906   }
907
908   return $self->master->unsafe;
909 }
910
911 =head2 disable_sth_caching
912
913 sets the L<DBIx::Class::Storage::DBI/disable_sth_caching> option on all storages
914 or returns master's current setting
915
916 =cut
917
918 sub disable_sth_caching {
919   my $self = shift;
920
921   if (@_) {
922     $_->disable_sth_caching(@_) for $self->all_storages;
923   }
924
925   return $self->master->disable_sth_caching;
926 }
927
928 =head2 lag_behind_master
929
930 returns the highest Replicant L<DBIx::Class::Storage::DBI/lag_behind_master>
931 setting
932
933 =cut
934
935 sub lag_behind_master {
936   my $self = shift;
937
938   return max map $_->lag_behind_master, $self->replicants;
939 }
940
941 =head2 is_replicating
942
943 returns true if all replicants return true for
944 L<DBIx::Class::Storage::DBI/is_replicating>
945
946 =cut
947
948 sub is_replicating {
949   my $self = shift;
950
951   return (grep $_->is_replicating, $self->replicants) == ($self->replicants);
952 }
953
954 =head2 connect_call_datetime_setup
955
956 calls L<DBIx::Class::Storage::DBI/connect_call_datetime_setup> for all storages
957
958 =cut
959
960 sub connect_call_datetime_setup {
961   my $self = shift;
962   $_->connect_call_datetime_setup for $self->all_storages;
963 }
964
965 sub _populate_dbh {
966   my $self = shift;
967   $_->_populate_dbh for $self->all_storages;
968 }
969
970 sub _connect {
971   my $self = shift;
972   $_->_connect for $self->all_storages;
973 }
974
975 sub _rebless {
976   my $self = shift;
977   $_->_rebless for $self->all_storages;
978 }
979
980 sub _determine_driver {
981   my $self = shift;
982   $_->_determine_driver for $self->all_storages;
983 }
984
985 sub _driver_determined {
986   my $self = shift;
987
988   if (@_) {
989     $_->_driver_determined(@_) for $self->all_storages;
990   }
991
992   return $self->master->_driver_determined;
993 }
994
995 sub _init {
996   my $self = shift;
997
998   $_->_init for $self->all_storages;
999 }
1000
1001 sub _run_connection_actions {
1002   my $self = shift;
1003
1004   $_->_run_connection_actions for $self->all_storages;
1005 }
1006
1007 sub _do_connection_actions {
1008   my $self = shift;
1009
1010   if (@_) {
1011     $_->_do_connection_actions(@_) for $self->all_storages;
1012   }
1013 }
1014
1015 sub connect_call_do_sql {
1016   my $self = shift;
1017   $_->connect_call_do_sql(@_) for $self->all_storages;
1018 }
1019
1020 sub disconnect_call_do_sql {
1021   my $self = shift;
1022   $_->disconnect_call_do_sql(@_) for $self->all_storages;
1023 }
1024
1025 sub _seems_connected {
1026   my $self = shift;
1027
1028   return min map $_->_seems_connected, $self->all_storages;
1029 }
1030
1031 sub _ping {
1032   my $self = shift;
1033
1034   return min map $_->_ping, $self->all_storages;
1035 }
1036
1037 # not using the normalized_version, because we want to preserve
1038 # version numbers much longer than the conventional xxx.yyyzzz
1039 my $numify_ver = sub {
1040   my $ver = shift;
1041   my @numparts = split /\D+/, $ver;
1042   my $format = '%d.' . (join '', ('%06d') x (@numparts - 1));
1043
1044   return sprintf $format, @numparts;
1045 };
1046 sub _server_info {
1047   my $self = shift;
1048
1049   if (not $self->_dbh_details->{info}) {
1050     $self->_dbh_details->{info} = (
1051       reduce { $a->[0] < $b->[0] ? $a : $b }
1052       map [ $numify_ver->($_->{dbms_version}), $_ ],
1053       map $_->_server_info, $self->all_storages
1054     )->[1];
1055   }
1056
1057   return $self->next::method;
1058 }
1059
1060 sub _get_server_version {
1061   my $self = shift;
1062
1063   return $self->_server_info->{dbms_version};
1064 }
1065
1066 =head1 GOTCHAS
1067
1068 Due to the fact that replicants can lag behind a master, you must take care to
1069 make sure you use one of the methods to force read queries to a master should
1070 you need realtime data integrity.  For example, if you insert a row, and then
1071 immediately re-read it from the database (say, by doing $row->discard_changes)
1072 or you insert a row and then immediately build a query that expects that row
1073 to be an item, you should force the master to handle reads.  Otherwise, due to
1074 the lag, there is no certainty your data will be in the expected state.
1075
1076 For data integrity, all transactions automatically use the master storage for
1077 all read and write queries.  Using a transaction is the preferred and recommended
1078 method to force the master to handle all read queries.
1079
1080 Otherwise, you can force a single query to use the master with the 'force_pool'
1081 attribute:
1082
1083   my $row = $resultset->search(undef, {force_pool=>'master'})->find($pk);
1084
1085 This attribute will safely be ignore by non replicated storages, so you can use
1086 the same code for both types of systems.
1087
1088 Lastly, you can use the L</execute_reliably> method, which works very much like
1089 a transaction.
1090
1091 For debugging, you can turn replication on/off with the methods L</set_reliable_storage>
1092 and L</set_balanced_storage>, however this operates at a global level and is not
1093 suitable if you have a shared Schema object being used by multiple processes,
1094 such as on a web application server.  You can get around this limitation by
1095 using the Schema clone method.
1096
1097   my $new_schema = $schema->clone;
1098   $new_schema->set_reliable_storage;
1099
1100   ## $new_schema will use only the Master storage for all reads/writes while
1101   ## the $schema object will use replicated storage.
1102
1103 =head1 AUTHOR
1104
1105   John Napiorkowski <john.napiorkowski@takkle.com>
1106
1107 Based on code originated by:
1108
1109   Norbert Csongrádi <bert@cpan.org>
1110   Peter Siklósi <einon@einon.hu>
1111
1112 =head1 LICENSE
1113
1114 You may distribute this code under the same terms as Perl itself.
1115
1116 =cut
1117
1118 __PACKAGE__->meta->make_immutable;
1119
1120 1;