84d0c5d3ec8a8de80ca197b4cfa5e1f254765e5c
[dbsrgits/DBIx-Class.git] / lib / DBIx / Class / Storage / DBI / Replicated.pm
1 package DBIx::Class::Storage::DBI::Replicated;
2
3 BEGIN {
4   use DBIx::Class;
5   die('The following modules are required for Replication ' . DBIx::Class::Optional::Dependencies->req_missing_for ('replicated') . "\n" )
6     unless DBIx::Class::Optional::Dependencies->req_ok_for ('replicated');
7 }
8
9 use Moose;
10 use DBIx::Class::Storage::DBI;
11 use DBIx::Class::Storage::DBI::Replicated::Pool;
12 use DBIx::Class::Storage::DBI::Replicated::Balancer;
13 use DBIx::Class::Storage::DBI::Replicated::Types qw/BalancerClassNamePart DBICSchema DBICStorageDBI/;
14 use MooseX::Types::Moose qw/ClassName HashRef Object/;
15 use Scalar::Util 'reftype';
16 use Hash::Merge;
17 use List::Util qw/min max reduce/;
18 use Context::Preserve 'preserve_context';
19 use Try::Tiny;
20
21 use namespace::clean -except => 'meta';
22
23 =encoding utf8
24
25 =head1 NAME
26
27 DBIx::Class::Storage::DBI::Replicated - BETA Replicated database support
28
29 =head1 SYNOPSIS
30
31 The Following example shows how to change an existing $schema to a replicated
32 storage type, add some replicated (read-only) databases, and perform reporting
33 tasks.
34
35 You should set the 'storage_type attribute to a replicated type.  You should
36 also define your arguments, such as which balancer you want and any arguments
37 that the Pool object should get.
38
39   my $schema = Schema::Class->clone;
40   $schema->storage_type( ['::DBI::Replicated', {balancer=>'::Random'}] );
41   $schema->connection(...);
42
43 Next, you need to add in the Replicants.  Basically this is an array of
44 arrayrefs, where each arrayref is database connect information.  Think of these
45 arguments as what you'd pass to the 'normal' $schema->connect method.
46
47   $schema->storage->connect_replicants(
48     [$dsn1, $user, $pass, \%opts],
49     [$dsn2, $user, $pass, \%opts],
50     [$dsn3, $user, $pass, \%opts],
51   );
52
53 Now, just use the $schema as you normally would.  Automatically all reads will
54 be delegated to the replicants, while writes to the master.
55
56   $schema->resultset('Source')->search({name=>'etc'});
57
58 You can force a given query to use a particular storage using the search
59 attribute 'force_pool'.  For example:
60
61   my $rs = $schema->resultset('Source')->search(undef, {force_pool=>'master'});
62
63 Now $rs will force everything (both reads and writes) to use whatever was setup
64 as the master storage.  'master' is hardcoded to always point to the Master,
65 but you can also use any Replicant name.  Please see:
66 L<DBIx::Class::Storage::DBI::Replicated::Pool> and the replicants attribute for more.
67
68 Also see transactions and L</execute_reliably> for alternative ways to
69 force read traffic to the master.  In general, you should wrap your statements
70 in a transaction when you are reading and writing to the same tables at the
71 same time, since your replicants will often lag a bit behind the master.
72
73 If you have a multi-statement read only transaction you can force it to select
74 a random server in the pool by:
75
76   my $rs = $schema->resultset('Source')->search( undef,
77     { force_pool => $db->storage->read_handler->next_storage }
78   );
79
80 =head1 DESCRIPTION
81
82 Warning: This class is marked BETA.  This has been running a production
83 website using MySQL native replication as its backend and we have some decent
84 test coverage but the code hasn't yet been stressed by a variety of databases.
85 Individual DBs may have quirks we are not aware of.  Please use this in first
86 development and pass along your experiences/bug fixes.
87
88 This class implements replicated data store for DBI. Currently you can define
89 one master and numerous slave database connections. All write-type queries
90 (INSERT, UPDATE, DELETE and even LAST_INSERT_ID) are routed to master
91 database, all read-type queries (SELECTs) go to the slave database.
92
93 Basically, any method request that L<DBIx::Class::Storage::DBI> would normally
94 handle gets delegated to one of the two attributes: L</read_handler> or to
95 L</write_handler>.  Additionally, some methods need to be distributed
96 to all existing storages.  This way our storage class is a drop in replacement
97 for L<DBIx::Class::Storage::DBI>.
98
99 Read traffic is spread across the replicants (slaves) occurring to a user
100 selected algorithm.  The default algorithm is random weighted.
101
102 =head1 NOTES
103
104 The consistency between master and replicants is database specific.  The Pool
105 gives you a method to validate its replicants, removing and replacing them
106 when they fail/pass predefined criteria.  Please make careful use of the ways
107 to force a query to run against Master when needed.
108
109 =head1 REQUIREMENTS
110
111 Replicated Storage has additional requirements not currently part of
112 L<DBIx::Class>. See L<DBIx::Class::Optional::Dependencies> for more details.
113
114 =head1 ATTRIBUTES
115
116 This class defines the following attributes.
117
118 =head2 schema
119
120 The underlying L<DBIx::Class::Schema> object this storage is attaching
121
122 =cut
123
124 has 'schema' => (
125     is=>'rw',
126     isa=>DBICSchema,
127     weak_ref=>1,
128     required=>1,
129 );
130
131 =head2 pool_type
132
133 Contains the classname which will instantiate the L</pool> object.  Defaults
134 to: L<DBIx::Class::Storage::DBI::Replicated::Pool>.
135
136 =cut
137
138 has 'pool_type' => (
139   is=>'rw',
140   isa=>ClassName,
141   default=>'DBIx::Class::Storage::DBI::Replicated::Pool',
142   handles=>{
143     'create_pool' => 'new',
144   },
145 );
146
147 =head2 pool_args
148
149 Contains a hashref of initialized information to pass to the Balancer object.
150 See L<DBIx::Class::Storage::DBI::Replicated::Pool> for available arguments.
151
152 =cut
153
154 has 'pool_args' => (
155   is=>'rw',
156   isa=>HashRef,
157   lazy=>1,
158   default=>sub { {} },
159 );
160
161
162 =head2 balancer_type
163
164 The replication pool requires a balance class to provider the methods for
165 choose how to spread the query load across each replicant in the pool.
166
167 =cut
168
169 has 'balancer_type' => (
170   is=>'rw',
171   isa=>BalancerClassNamePart,
172   coerce=>1,
173   required=>1,
174   default=> 'DBIx::Class::Storage::DBI::Replicated::Balancer::First',
175   handles=>{
176     'create_balancer' => 'new',
177   },
178 );
179
180 =head2 balancer_args
181
182 Contains a hashref of initialized information to pass to the Balancer object.
183 See L<DBIx::Class::Storage::DBI::Replicated::Balancer> for available arguments.
184
185 =cut
186
187 has 'balancer_args' => (
188   is=>'rw',
189   isa=>HashRef,
190   lazy=>1,
191   required=>1,
192   default=>sub { {} },
193 );
194
195 =head2 pool
196
197 Is a L<DBIx::Class::Storage::DBI::Replicated::Pool> or derived class.  This is a
198 container class for one or more replicated databases.
199
200 =cut
201
202 has 'pool' => (
203   is=>'ro',
204   isa=>'DBIx::Class::Storage::DBI::Replicated::Pool',
205   lazy_build=>1,
206   handles=>[qw/
207     connect_replicants
208     replicants
209     has_replicants
210   /],
211 );
212
213 =head2 balancer
214
215 Is a L<DBIx::Class::Storage::DBI::Replicated::Balancer> or derived class.  This
216 is a class that takes a pool (L<DBIx::Class::Storage::DBI::Replicated::Pool>)
217
218 =cut
219
220 has 'balancer' => (
221   is=>'rw',
222   isa=>'DBIx::Class::Storage::DBI::Replicated::Balancer',
223   lazy_build=>1,
224   handles=>[qw/auto_validate_every/],
225 );
226
227 =head2 master
228
229 The master defines the canonical state for a pool of connected databases.  All
230 the replicants are expected to match this databases state.  Thus, in a classic
231 Master / Slaves distributed system, all the slaves are expected to replicate
232 the Master's state as quick as possible.  This is the only database in the
233 pool of databases that is allowed to handle write traffic.
234
235 =cut
236
237 has 'master' => (
238   is=> 'ro',
239   isa=>DBICStorageDBI,
240   lazy_build=>1,
241 );
242
243 =head1 ATTRIBUTES IMPLEMENTING THE DBIx::Storage::DBI INTERFACE
244
245 The following methods are delegated all the methods required for the
246 L<DBIx::Class::Storage::DBI> interface.
247
248 =cut
249
250 my $method_dispatch = {
251   writer => [qw/
252     on_connect_do
253     on_disconnect_do
254     on_connect_call
255     on_disconnect_call
256     connect_info
257     _connect_info
258     throw_exception
259     sql_maker
260     sqlt_type
261     create_ddl_dir
262     deployment_statements
263     datetime_parser
264     datetime_parser_type
265     build_datetime_parser
266     last_insert_id
267     insert
268     insert_bulk
269     update
270     delete
271     dbh
272     txn_begin
273     txn_do
274     txn_commit
275     txn_rollback
276     txn_scope_guard
277     _exec_txn_rollback
278     _exec_txn_begin
279     _exec_txn_commit
280     deploy
281     with_deferred_fk_checks
282     dbh_do
283     _prep_for_execute
284     is_datatype_numeric
285     _count_select
286     svp_rollback
287     svp_begin
288     svp_release
289     relname_to_table_alias
290     _dbh_last_insert_id
291     _default_dbi_connect_attributes
292     _dbi_connect_info
293     _dbic_connect_attributes
294     auto_savepoint
295     _query_start
296     _query_end
297     _format_for_trace
298     _dbi_attrs_for_bind
299     bind_attribute_by_data_type
300     transaction_depth
301     _dbh
302     _select_args
303     _dbh_execute_for_fetch
304     _sql_maker
305     _dbh_execute_inserts_with_no_binds
306     _select_args_to_query
307     _gen_sql_bind
308     _svp_generate_name
309     _normalize_connect_info
310     _parse_connect_do
311     savepoints
312     _sql_maker_opts
313     _conn_pid
314     _dbh_autocommit
315     _native_data_type
316     _get_dbh
317     sql_maker_class
318     _execute
319     _do_query
320     _sth
321     _dbh_sth
322     _dbh_execute
323   /, Class::MOP::Class->initialize('DBIx::Class::Storage::DBIHacks')->get_method_list ],
324   reader => [qw/
325     select
326     select_single
327     columns_info_for
328     _dbh_columns_info_for
329     _select
330   /],
331   unimplemented => [qw/
332     _arm_global_destructor
333     _verify_pid
334
335     source_bind_attributes
336
337     get_use_dbms_capability
338     set_use_dbms_capability
339     get_dbms_capability
340     set_dbms_capability
341     _dbh_details
342     _dbh_get_info
343
344     sql_limit_dialect
345     sql_quote_char
346     sql_name_sep
347
348     _prefetch_autovalues
349     _perform_autoinc_retrieval
350     _autoinc_supplied_for_op
351
352     _resolve_bindattrs
353
354     _max_column_bytesize
355     _is_lob_type
356     _is_binary_lob_type
357     _is_binary_type
358     _is_text_lob_type
359
360     sth
361   /,(
362     # the capability framework
363     # not sure if CMOP->initialize does evil things to DBIC::S::DBI, fix if a problem
364     grep
365       { $_ =~ /^ _ (?: use | supports | determine_supports ) _ /x }
366       ( Class::MOP::Class->initialize('DBIx::Class::Storage::DBI')->get_all_method_names )
367   )],
368 };
369
370 if (DBIx::Class::_ENV_::DBICTEST) {
371
372   my $seen;
373   for my $type (keys %$method_dispatch) {
374     for (@{$method_dispatch->{$type}}) {
375       push @{$seen->{$_}}, $type;
376     }
377   }
378
379   if (my @dupes = grep { @{$seen->{$_}} > 1 } keys %$seen) {
380     die(join "\n", '',
381       'The following methods show up multiple times in ::Storage::DBI::Replicated handlers:',
382       (map { "$_: " . (join ', ', @{$seen->{$_}}) } sort @dupes),
383       '',
384     );
385   }
386
387   if (my @cant = grep { ! DBIx::Class::Storage::DBI->can($_) } keys %$seen) {
388     die(join "\n", '',
389       '::Storage::DBI::Replicated specifies handling of the following *NON EXISTING* ::Storage::DBI methods:',
390       @cant,
391       '',
392     );
393   }
394 }
395
396 for my $method (@{$method_dispatch->{unimplemented}}) {
397   __PACKAGE__->meta->add_method($method, sub {
398     my $self = shift;
399     $self->throw_exception("$method must not be called on ".(blessed $self).' objects');
400   });
401 }
402
403 =head2 read_handler
404
405 Defines an object that implements the read side of L<BIx::Class::Storage::DBI>.
406
407 =cut
408
409 has 'read_handler' => (
410   is=>'rw',
411   isa=>Object,
412   lazy_build=>1,
413   handles=>$method_dispatch->{reader},
414 );
415
416 =head2 write_handler
417
418 Defines an object that implements the write side of L<BIx::Class::Storage::DBI>,
419 as well as methods that don't write or read that can be called on only one
420 storage, methods that return a C<$dbh>, and any methods that don't make sense to
421 run on a replicant.
422
423 =cut
424
425 has 'write_handler' => (
426   is=>'ro',
427   isa=>Object,
428   lazy_build=>1,
429   handles=>$method_dispatch->{writer},
430 );
431
432
433
434 has _master_connect_info_opts =>
435   (is => 'rw', isa => HashRef, default => sub { {} });
436
437 =head2 around: connect_info
438
439 Preserves master's C<connect_info> options (for merging with replicants.)
440 Also sets any Replicated-related options from connect_info, such as
441 C<pool_type>, C<pool_args>, C<balancer_type> and C<balancer_args>.
442
443 =cut
444
445 around connect_info => sub {
446   my ($next, $self, $info, @extra) = @_;
447
448   my $merge = Hash::Merge->new('LEFT_PRECEDENT');
449
450   my %opts;
451   for my $arg (@$info) {
452     next unless (reftype($arg)||'') eq 'HASH';
453     %opts = %{ $merge->merge($arg, \%opts) };
454   }
455   delete $opts{dsn};
456
457   if (@opts{qw/pool_type pool_args/}) {
458     $self->pool_type(delete $opts{pool_type})
459       if $opts{pool_type};
460
461     $self->pool_args(
462       $merge->merge((delete $opts{pool_args} || {}), $self->pool_args)
463     );
464
465     ## Since we possibly changed the pool_args, we need to clear the current
466     ## pool object so that next time it is used it will be rebuilt.
467     $self->clear_pool;
468   }
469
470   if (@opts{qw/balancer_type balancer_args/}) {
471     $self->balancer_type(delete $opts{balancer_type})
472       if $opts{balancer_type};
473
474     $self->balancer_args(
475       $merge->merge((delete $opts{balancer_args} || {}), $self->balancer_args)
476     );
477
478     $self->balancer($self->_build_balancer)
479       if $self->balancer;
480   }
481
482   $self->_master_connect_info_opts(\%opts);
483
484   return preserve_context {
485     $self->$next($info, @extra);
486   } after => sub {
487     # Make sure master is blessed into the correct class and apply role to it.
488     my $master = $self->master;
489     $master->_determine_driver;
490     Moose::Meta::Class->initialize(ref $master);
491
492     DBIx::Class::Storage::DBI::Replicated::WithDSN->meta->apply($master);
493
494     # link pool back to master
495     $self->pool->master($master);
496   };
497 };
498
499 =head1 METHODS
500
501 This class defines the following methods.
502
503 =head2 BUILDARGS
504
505 L<DBIx::Class::Schema> when instantiating its storage passed itself as the
506 first argument.  So we need to massage the arguments a bit so that all the
507 bits get put into the correct places.
508
509 =cut
510
511 sub BUILDARGS {
512   my ($class, $schema, $storage_type_args, @args) = @_;
513
514   return {
515     schema=>$schema,
516     %$storage_type_args,
517     @args
518   }
519 }
520
521 =head2 _build_master
522
523 Lazy builder for the L</master> attribute.
524
525 =cut
526
527 sub _build_master {
528   my $self = shift @_;
529   my $master = DBIx::Class::Storage::DBI->new($self->schema);
530   $master
531 }
532
533 =head2 _build_pool
534
535 Lazy builder for the L</pool> attribute.
536
537 =cut
538
539 sub _build_pool {
540   my $self = shift @_;
541   $self->create_pool(%{$self->pool_args});
542 }
543
544 =head2 _build_balancer
545
546 Lazy builder for the L</balancer> attribute.  This takes a Pool object so that
547 the balancer knows which pool it's balancing.
548
549 =cut
550
551 sub _build_balancer {
552   my $self = shift @_;
553   $self->create_balancer(
554     pool=>$self->pool,
555     master=>$self->master,
556     %{$self->balancer_args},
557   );
558 }
559
560 =head2 _build_write_handler
561
562 Lazy builder for the L</write_handler> attribute.  The default is to set this to
563 the L</master>.
564
565 =cut
566
567 sub _build_write_handler {
568   return shift->master;
569 }
570
571 =head2 _build_read_handler
572
573 Lazy builder for the L</read_handler> attribute.  The default is to set this to
574 the L</balancer>.
575
576 =cut
577
578 sub _build_read_handler {
579   return shift->balancer;
580 }
581
582 =head2 around: connect_replicants
583
584 All calls to connect_replicants needs to have an existing $schema tacked onto
585 top of the args, since L<DBIx::Storage::DBI> needs it, and any C<connect_info>
586 options merged with the master, with replicant opts having higher priority.
587
588 =cut
589
590 around connect_replicants => sub {
591   my ($next, $self, @args) = @_;
592
593   for my $r (@args) {
594     $r = [ $r ] unless reftype $r eq 'ARRAY';
595
596     $self->throw_exception('coderef replicant connect_info not supported')
597       if ref $r->[0] && reftype $r->[0] eq 'CODE';
598
599 # any connect_info options?
600     my $i = 0;
601     $i++ while $i < @$r && (reftype($r->[$i])||'') ne 'HASH';
602
603 # make one if none
604     $r->[$i] = {} unless $r->[$i];
605
606 # merge if two hashes
607     my @hashes = @$r[$i .. $#{$r}];
608
609     $self->throw_exception('invalid connect_info options')
610       if (grep { reftype($_) eq 'HASH' } @hashes) != @hashes;
611
612     $self->throw_exception('too many hashrefs in connect_info')
613       if @hashes > 2;
614
615     my $merge = Hash::Merge->new('LEFT_PRECEDENT');
616     my %opts = %{ $merge->merge(reverse @hashes) };
617
618 # delete them
619     splice @$r, $i+1, ($#{$r} - $i), ();
620
621 # make sure master/replicants opts don't clash
622     my %master_opts = %{ $self->_master_connect_info_opts };
623     if (exists $opts{dbh_maker}) {
624         delete @master_opts{qw/dsn user password/};
625     }
626     delete $master_opts{dbh_maker};
627
628 # merge with master
629     %opts = %{ $merge->merge(\%opts, \%master_opts) };
630
631 # update
632     $r->[$i] = \%opts;
633   }
634
635   $self->$next($self->schema, @args);
636 };
637
638 =head2 all_storages
639
640 Returns an array of of all the connected storage backends.  The first element
641 in the returned array is the master, and the remainings are each of the
642 replicants.
643
644 =cut
645
646 sub all_storages {
647   my $self = shift @_;
648   return grep {defined $_ && blessed $_} (
649      $self->master,
650      values %{ $self->replicants },
651   );
652 }
653
654 =head2 execute_reliably ($coderef, ?@args)
655
656 Given a coderef, saves the current state of the L</read_handler>, forces it to
657 use reliable storage (e.g. sets it to the master), executes a coderef and then
658 restores the original state.
659
660 Example:
661
662   my $reliably = sub {
663     my $name = shift @_;
664     $schema->resultset('User')->create({name=>$name});
665     my $user_rs = $schema->resultset('User')->find({name=>$name});
666     return $user_rs;
667   };
668
669   my $user_rs = $schema->storage->execute_reliably($reliably, 'John');
670
671 Use this when you must be certain of your database state, such as when you just
672 inserted something and need to get a resultset including it, etc.
673
674 =cut
675
676 sub execute_reliably {
677   my $self = shift;
678   my $coderef = shift;
679
680   unless( ref $coderef eq 'CODE') {
681     $self->throw_exception('Second argument must be a coderef');
682   }
683
684   ## replace the current read handler for the remainder of the scope
685   local $self->{read_handler} = $self->master;
686
687   my $args = \@_;
688   return try {
689     $coderef->(@$args);
690   } catch {
691     $self->throw_exception("coderef returned an error: $_");
692   };
693 }
694
695 =head2 set_reliable_storage
696
697 Sets the current $schema to be 'reliable', that is all queries, both read and
698 write are sent to the master
699
700 =cut
701
702 sub set_reliable_storage {
703   my $self = shift @_;
704   my $schema = $self->schema;
705   my $write_handler = $self->schema->storage->write_handler;
706
707   $schema->storage->read_handler($write_handler);
708 }
709
710 =head2 set_balanced_storage
711
712 Sets the current $schema to be use the </balancer> for all reads, while all
713 writes are sent to the master only
714
715 =cut
716
717 sub set_balanced_storage {
718   my $self = shift @_;
719   my $schema = $self->schema;
720   my $balanced_handler = $self->schema->storage->balancer;
721
722   $schema->storage->read_handler($balanced_handler);
723 }
724
725 =head2 connected
726
727 Check that the master and at least one of the replicants is connected.
728
729 =cut
730
731 sub connected {
732   my $self = shift @_;
733   return
734     $self->master->connected &&
735     $self->pool->connected_replicants;
736 }
737
738 =head2 ensure_connected
739
740 Make sure all the storages are connected.
741
742 =cut
743
744 sub ensure_connected {
745   my $self = shift @_;
746   foreach my $source ($self->all_storages) {
747     $source->ensure_connected(@_);
748   }
749 }
750
751 =head2 limit_dialect
752
753 Set the limit_dialect for all existing storages
754
755 =cut
756
757 sub limit_dialect {
758   my $self = shift @_;
759   foreach my $source ($self->all_storages) {
760     $source->limit_dialect(@_);
761   }
762   return $self->master->limit_dialect;
763 }
764
765 =head2 quote_char
766
767 Set the quote_char for all existing storages
768
769 =cut
770
771 sub quote_char {
772   my $self = shift @_;
773   foreach my $source ($self->all_storages) {
774     $source->quote_char(@_);
775   }
776   return $self->master->quote_char;
777 }
778
779 =head2 name_sep
780
781 Set the name_sep for all existing storages
782
783 =cut
784
785 sub name_sep {
786   my $self = shift @_;
787   foreach my $source ($self->all_storages) {
788     $source->name_sep(@_);
789   }
790   return $self->master->name_sep;
791 }
792
793 =head2 set_schema
794
795 Set the schema object for all existing storages
796
797 =cut
798
799 sub set_schema {
800   my $self = shift @_;
801   foreach my $source ($self->all_storages) {
802     $source->set_schema(@_);
803   }
804 }
805
806 =head2 debug
807
808 set a debug flag across all storages
809
810 =cut
811
812 sub debug {
813   my $self = shift @_;
814   if(@_) {
815     foreach my $source ($self->all_storages) {
816       $source->debug(@_);
817     }
818   }
819   return $self->master->debug;
820 }
821
822 =head2 debugobj
823
824 set a debug object
825
826 =cut
827
828 sub debugobj {
829   my $self = shift @_;
830   return $self->master->debugobj(@_);
831 }
832
833 =head2 debugfh
834
835 set a debugfh object
836
837 =cut
838
839 sub debugfh {
840   my $self = shift @_;
841   return $self->master->debugfh(@_);
842 }
843
844 =head2 debugcb
845
846 set a debug callback
847
848 =cut
849
850 sub debugcb {
851   my $self = shift @_;
852   return $self->master->debugcb(@_);
853 }
854
855 =head2 disconnect
856
857 disconnect everything
858
859 =cut
860
861 sub disconnect {
862   my $self = shift @_;
863   foreach my $source ($self->all_storages) {
864     $source->disconnect(@_);
865   }
866 }
867
868 =head2 cursor_class
869
870 set cursor class on all storages, or return master's
871
872 =cut
873
874 sub cursor_class {
875   my ($self, $cursor_class) = @_;
876
877   if ($cursor_class) {
878     $_->cursor_class($cursor_class) for $self->all_storages;
879   }
880   $self->master->cursor_class;
881 }
882
883 =head2 cursor
884
885 set cursor class on all storages, or return master's, alias for L</cursor_class>
886 above.
887
888 =cut
889
890 sub cursor {
891   my ($self, $cursor_class) = @_;
892
893   if ($cursor_class) {
894     $_->cursor($cursor_class) for $self->all_storages;
895   }
896   $self->master->cursor;
897 }
898
899 =head2 unsafe
900
901 sets the L<DBIx::Class::Storage::DBI/unsafe> option on all storages or returns
902 master's current setting
903
904 =cut
905
906 sub unsafe {
907   my $self = shift;
908
909   if (@_) {
910     $_->unsafe(@_) for $self->all_storages;
911   }
912
913   return $self->master->unsafe;
914 }
915
916 =head2 disable_sth_caching
917
918 sets the L<DBIx::Class::Storage::DBI/disable_sth_caching> option on all storages
919 or returns master's current setting
920
921 =cut
922
923 sub disable_sth_caching {
924   my $self = shift;
925
926   if (@_) {
927     $_->disable_sth_caching(@_) for $self->all_storages;
928   }
929
930   return $self->master->disable_sth_caching;
931 }
932
933 =head2 lag_behind_master
934
935 returns the highest Replicant L<DBIx::Class::Storage::DBI/lag_behind_master>
936 setting
937
938 =cut
939
940 sub lag_behind_master {
941   my $self = shift;
942
943   return max map $_->lag_behind_master, $self->replicants;
944 }
945
946 =head2 is_replicating
947
948 returns true if all replicants return true for
949 L<DBIx::Class::Storage::DBI/is_replicating>
950
951 =cut
952
953 sub is_replicating {
954   my $self = shift;
955
956   return (grep $_->is_replicating, $self->replicants) == ($self->replicants);
957 }
958
959 =head2 connect_call_datetime_setup
960
961 calls L<DBIx::Class::Storage::DBI/connect_call_datetime_setup> for all storages
962
963 =cut
964
965 sub connect_call_datetime_setup {
966   my $self = shift;
967   $_->connect_call_datetime_setup for $self->all_storages;
968 }
969
970 sub _populate_dbh {
971   my $self = shift;
972   $_->_populate_dbh for $self->all_storages;
973 }
974
975 sub _connect {
976   my $self = shift;
977   $_->_connect for $self->all_storages;
978 }
979
980 sub _rebless {
981   my $self = shift;
982   $_->_rebless for $self->all_storages;
983 }
984
985 sub _determine_driver {
986   my $self = shift;
987   $_->_determine_driver for $self->all_storages;
988 }
989
990 sub _driver_determined {
991   my $self = shift;
992
993   if (@_) {
994     $_->_driver_determined(@_) for $self->all_storages;
995   }
996
997   return $self->master->_driver_determined;
998 }
999
1000 sub _init {
1001   my $self = shift;
1002
1003   $_->_init for $self->all_storages;
1004 }
1005
1006 sub _run_connection_actions {
1007   my $self = shift;
1008
1009   $_->_run_connection_actions for $self->all_storages;
1010 }
1011
1012 sub _do_connection_actions {
1013   my $self = shift;
1014
1015   if (@_) {
1016     $_->_do_connection_actions(@_) for $self->all_storages;
1017   }
1018 }
1019
1020 sub connect_call_do_sql {
1021   my $self = shift;
1022   $_->connect_call_do_sql(@_) for $self->all_storages;
1023 }
1024
1025 sub disconnect_call_do_sql {
1026   my $self = shift;
1027   $_->disconnect_call_do_sql(@_) for $self->all_storages;
1028 }
1029
1030 sub _seems_connected {
1031   my $self = shift;
1032
1033   return min map $_->_seems_connected, $self->all_storages;
1034 }
1035
1036 sub _ping {
1037   my $self = shift;
1038
1039   return min map $_->_ping, $self->all_storages;
1040 }
1041
1042 # not using the normalized_version, because we want to preserve
1043 # version numbers much longer than the conventional xxx.yyyzzz
1044 my $numify_ver = sub {
1045   my $ver = shift;
1046   my @numparts = split /\D+/, $ver;
1047   my $format = '%d.' . (join '', ('%06d') x (@numparts - 1));
1048
1049   return sprintf $format, @numparts;
1050 };
1051 sub _server_info {
1052   my $self = shift;
1053
1054   if (not $self->_dbh_details->{info}) {
1055     $self->_dbh_details->{info} = (
1056       reduce { $a->[0] < $b->[0] ? $a : $b }
1057       map [ $numify_ver->($_->{dbms_version}), $_ ],
1058       map $_->_server_info, $self->all_storages
1059     )->[1];
1060   }
1061
1062   return $self->next::method;
1063 }
1064
1065 sub _get_server_version {
1066   my $self = shift;
1067
1068   return $self->_server_info->{dbms_version};
1069 }
1070
1071 =head1 GOTCHAS
1072
1073 Due to the fact that replicants can lag behind a master, you must take care to
1074 make sure you use one of the methods to force read queries to a master should
1075 you need realtime data integrity.  For example, if you insert a row, and then
1076 immediately re-read it from the database (say, by doing $row->discard_changes)
1077 or you insert a row and then immediately build a query that expects that row
1078 to be an item, you should force the master to handle reads.  Otherwise, due to
1079 the lag, there is no certainty your data will be in the expected state.
1080
1081 For data integrity, all transactions automatically use the master storage for
1082 all read and write queries.  Using a transaction is the preferred and recommended
1083 method to force the master to handle all read queries.
1084
1085 Otherwise, you can force a single query to use the master with the 'force_pool'
1086 attribute:
1087
1088   my $row = $resultset->search(undef, {force_pool=>'master'})->find($pk);
1089
1090 This attribute will safely be ignore by non replicated storages, so you can use
1091 the same code for both types of systems.
1092
1093 Lastly, you can use the L</execute_reliably> method, which works very much like
1094 a transaction.
1095
1096 For debugging, you can turn replication on/off with the methods L</set_reliable_storage>
1097 and L</set_balanced_storage>, however this operates at a global level and is not
1098 suitable if you have a shared Schema object being used by multiple processes,
1099 such as on a web application server.  You can get around this limitation by
1100 using the Schema clone method.
1101
1102   my $new_schema = $schema->clone;
1103   $new_schema->set_reliable_storage;
1104
1105   ## $new_schema will use only the Master storage for all reads/writes while
1106   ## the $schema object will use replicated storage.
1107
1108 =head1 AUTHOR
1109
1110   John Napiorkowski <john.napiorkowski@takkle.com>
1111
1112 Based on code originated by:
1113
1114   Norbert Csongrádi <bert@cpan.org>
1115   Peter Siklósi <einon@einon.hu>
1116
1117 =head1 LICENSE
1118
1119 You may distribute this code under the same terms as Perl itself.
1120
1121 =cut
1122
1123 __PACKAGE__->meta->make_immutable;
1124
1125 1;