fix pod for unicode name
[dbsrgits/DBIx-Class.git] / lib / DBIx / Class / Storage / DBI / Replicated.pm
1 package DBIx::Class::Storage::DBI::Replicated;
2
3 BEGIN {
4   use DBIx::Class;
5   die('The following modules are required for Replication ' . DBIx::Class::Optional::Dependencies->req_missing_for ('replicated') . "\n" )
6     unless DBIx::Class::Optional::Dependencies->req_ok_for ('replicated');
7 }
8
9 use Moose;
10 use DBIx::Class::Storage::DBI;
11 use DBIx::Class::Storage::DBI::Replicated::Pool;
12 use DBIx::Class::Storage::DBI::Replicated::Balancer;
13 use DBIx::Class::Storage::DBI::Replicated::Types qw/BalancerClassNamePart DBICSchema DBICStorageDBI/;
14 use MooseX::Types::Moose qw/ClassName HashRef Object/;
15 use Scalar::Util 'reftype';
16 use Hash::Merge;
17 use List::Util qw/min max reduce/;
18 use Context::Preserve 'preserve_context';
19 use Try::Tiny;
20
21 use namespace::clean -except => 'meta';
22
23 =encoding utf8
24
25 =head1 NAME
26
27 DBIx::Class::Storage::DBI::Replicated - BETA Replicated database support
28
29 =head1 SYNOPSIS
30
31 The Following example shows how to change an existing $schema to a replicated
32 storage type, add some replicated (read-only) databases, and perform reporting
33 tasks.
34
35 You should set the 'storage_type attribute to a replicated type.  You should
36 also define your arguments, such as which balancer you want and any arguments
37 that the Pool object should get.
38
39   my $schema = Schema::Class->clone;
40   $schema->storage_type( ['::DBI::Replicated', {balancer=>'::Random'}] );
41   $schema->connection(...);
42
43 Next, you need to add in the Replicants.  Basically this is an array of
44 arrayrefs, where each arrayref is database connect information.  Think of these
45 arguments as what you'd pass to the 'normal' $schema->connect method.
46
47   $schema->storage->connect_replicants(
48     [$dsn1, $user, $pass, \%opts],
49     [$dsn2, $user, $pass, \%opts],
50     [$dsn3, $user, $pass, \%opts],
51   );
52
53 Now, just use the $schema as you normally would.  Automatically all reads will
54 be delegated to the replicants, while writes to the master.
55
56   $schema->resultset('Source')->search({name=>'etc'});
57
58 You can force a given query to use a particular storage using the search
59 attribute 'force_pool'.  For example:
60
61   my $rs = $schema->resultset('Source')->search(undef, {force_pool=>'master'});
62
63 Now $rs will force everything (both reads and writes) to use whatever was setup
64 as the master storage.  'master' is hardcoded to always point to the Master,
65 but you can also use any Replicant name.  Please see:
66 L<DBIx::Class::Storage::DBI::Replicated::Pool> and the replicants attribute for more.
67
68 Also see transactions and L</execute_reliably> for alternative ways to
69 force read traffic to the master.  In general, you should wrap your statements
70 in a transaction when you are reading and writing to the same tables at the
71 same time, since your replicants will often lag a bit behind the master.
72
73 If you have a multi-statement read only transaction you can force it to select
74 a random server in the pool by:
75
76   my $rs = $schema->resultset('Source')->search( undef,
77     { force_pool => $db->storage->read_handler->next_storage }
78   );
79
80 =head1 DESCRIPTION
81
82 Warning: This class is marked BETA.  This has been running a production
83 website using MySQL native replication as its backend and we have some decent
84 test coverage but the code hasn't yet been stressed by a variety of databases.
85 Individual DBs may have quirks we are not aware of.  Please use this in first
86 development and pass along your experiences/bug fixes.
87
88 This class implements replicated data store for DBI. Currently you can define
89 one master and numerous slave database connections. All write-type queries
90 (INSERT, UPDATE, DELETE and even LAST_INSERT_ID) are routed to master
91 database, all read-type queries (SELECTs) go to the slave database.
92
93 Basically, any method request that L<DBIx::Class::Storage::DBI> would normally
94 handle gets delegated to one of the two attributes: L</read_handler> or to
95 L</write_handler>.  Additionally, some methods need to be distributed
96 to all existing storages.  This way our storage class is a drop in replacement
97 for L<DBIx::Class::Storage::DBI>.
98
99 Read traffic is spread across the replicants (slaves) occurring to a user
100 selected algorithm.  The default algorithm is random weighted.
101
102 =head1 NOTES
103
104 The consistency between master and replicants is database specific.  The Pool
105 gives you a method to validate its replicants, removing and replacing them
106 when they fail/pass predefined criteria.  Please make careful use of the ways
107 to force a query to run against Master when needed.
108
109 =head1 REQUIREMENTS
110
111 Replicated Storage has additional requirements not currently part of
112 L<DBIx::Class>. See L<DBIx::Class::Optional::Dependencies> for more details.
113
114 =head1 ATTRIBUTES
115
116 This class defines the following attributes.
117
118 =head2 schema
119
120 The underlying L<DBIx::Class::Schema> object this storage is attaching
121
122 =cut
123
124 has 'schema' => (
125     is=>'rw',
126     isa=>DBICSchema,
127     weak_ref=>1,
128     required=>1,
129 );
130
131 =head2 pool_type
132
133 Contains the classname which will instantiate the L</pool> object.  Defaults
134 to: L<DBIx::Class::Storage::DBI::Replicated::Pool>.
135
136 =cut
137
138 has 'pool_type' => (
139   is=>'rw',
140   isa=>ClassName,
141   default=>'DBIx::Class::Storage::DBI::Replicated::Pool',
142   handles=>{
143     'create_pool' => 'new',
144   },
145 );
146
147 =head2 pool_args
148
149 Contains a hashref of initialized information to pass to the Balancer object.
150 See L<DBIx::Class::Storage::DBI::Replicated::Pool> for available arguments.
151
152 =cut
153
154 has 'pool_args' => (
155   is=>'rw',
156   isa=>HashRef,
157   lazy=>1,
158   default=>sub { {} },
159 );
160
161
162 =head2 balancer_type
163
164 The replication pool requires a balance class to provider the methods for
165 choose how to spread the query load across each replicant in the pool.
166
167 =cut
168
169 has 'balancer_type' => (
170   is=>'rw',
171   isa=>BalancerClassNamePart,
172   coerce=>1,
173   required=>1,
174   default=> 'DBIx::Class::Storage::DBI::Replicated::Balancer::First',
175   handles=>{
176     'create_balancer' => 'new',
177   },
178 );
179
180 =head2 balancer_args
181
182 Contains a hashref of initialized information to pass to the Balancer object.
183 See L<DBIx::Class::Storage::DBI::Replicated::Balancer> for available arguments.
184
185 =cut
186
187 has 'balancer_args' => (
188   is=>'rw',
189   isa=>HashRef,
190   lazy=>1,
191   required=>1,
192   default=>sub { {} },
193 );
194
195 =head2 pool
196
197 Is a L<DBIx::Class::Storage::DBI::Replicated::Pool> or derived class.  This is a
198 container class for one or more replicated databases.
199
200 =cut
201
202 has 'pool' => (
203   is=>'ro',
204   isa=>'DBIx::Class::Storage::DBI::Replicated::Pool',
205   lazy_build=>1,
206   handles=>[qw/
207     connect_replicants
208     replicants
209     has_replicants
210   /],
211 );
212
213 =head2 balancer
214
215 Is a L<DBIx::Class::Storage::DBI::Replicated::Balancer> or derived class.  This
216 is a class that takes a pool (L<DBIx::Class::Storage::DBI::Replicated::Pool>)
217
218 =cut
219
220 has 'balancer' => (
221   is=>'rw',
222   isa=>'DBIx::Class::Storage::DBI::Replicated::Balancer',
223   lazy_build=>1,
224   handles=>[qw/auto_validate_every/],
225 );
226
227 =head2 master
228
229 The master defines the canonical state for a pool of connected databases.  All
230 the replicants are expected to match this databases state.  Thus, in a classic
231 Master / Slaves distributed system, all the slaves are expected to replicate
232 the Master's state as quick as possible.  This is the only database in the
233 pool of databases that is allowed to handle write traffic.
234
235 =cut
236
237 has 'master' => (
238   is=> 'ro',
239   isa=>DBICStorageDBI,
240   lazy_build=>1,
241 );
242
243 =head1 ATTRIBUTES IMPLEMENTING THE DBIx::Storage::DBI INTERFACE
244
245 The following methods are delegated all the methods required for the
246 L<DBIx::Class::Storage::DBI> interface.
247
248 =cut
249
250 my $method_dispatch = {
251   writer => [qw/
252     on_connect_do
253     on_disconnect_do
254     on_connect_call
255     on_disconnect_call
256     connect_info
257     _connect_info
258     throw_exception
259     sql_maker
260     sqlt_type
261     create_ddl_dir
262     deployment_statements
263     datetime_parser
264     datetime_parser_type
265     build_datetime_parser
266     last_insert_id
267     insert
268     insert_bulk
269     update
270     delete
271     dbh
272     txn_begin
273     txn_do
274     txn_commit
275     txn_rollback
276     txn_scope_guard
277     _exec_txn_rollback
278     _exec_txn_begin
279     _exec_txn_commit
280     deploy
281     with_deferred_fk_checks
282     dbh_do
283     _prep_for_execute
284     is_datatype_numeric
285     _count_select
286     svp_rollback
287     svp_begin
288     svp_release
289     relname_to_table_alias
290     _dbh_last_insert_id
291     _default_dbi_connect_attributes
292     _dbi_connect_info
293     _dbic_connect_attributes
294     auto_savepoint
295     _query_start
296     _query_end
297     _format_for_trace
298     _dbi_attrs_for_bind
299     bind_attribute_by_data_type
300     transaction_depth
301     _dbh
302     _select_args
303     _dbh_execute_for_fetch
304     _sql_maker
305     _dbh_execute_inserts_with_no_binds
306     _select_args_to_query
307     _gen_sql_bind
308     _svp_generate_name
309     _normalize_connect_info
310     _parse_connect_do
311     savepoints
312     _sql_maker_opts
313     _conn_pid
314     _dbh_autocommit
315     _native_data_type
316     _get_dbh
317     sql_maker_class
318     _execute
319     _do_query
320     _sth
321     _dbh_sth
322     _dbh_execute
323   /, Class::MOP::Class->initialize('DBIx::Class::Storage::DBIHacks')->get_method_list ],
324   reader => [qw/
325     select
326     select_single
327     columns_info_for
328     _dbh_columns_info_for
329     _select
330   /],
331   unimplemented => [qw/
332     _arm_global_destructor
333     _verify_pid
334
335     source_bind_attributes
336
337     get_use_dbms_capability
338     set_use_dbms_capability
339     get_dbms_capability
340     set_dbms_capability
341     _dbh_details
342     _dbh_get_info
343
344     sql_limit_dialect
345     sql_quote_char
346     sql_name_sep
347
348     _prefetch_autovalues
349     _perform_autoinc_retrieval
350     _autoinc_supplied_for_op
351
352     _resolve_bindattrs
353
354     _max_column_bytesize
355     _is_lob_type
356     _is_binary_lob_type
357     _is_text_lob_type
358
359     sth
360   /,(
361     # the capability framework
362     # not sure if CMOP->initialize does evil things to DBIC::S::DBI, fix if a problem
363     grep
364       { $_ =~ /^ _ (?: use | supports | determine_supports ) _ /x }
365       ( Class::MOP::Class->initialize('DBIx::Class::Storage::DBI')->get_all_method_names )
366   )],
367 };
368
369 if (DBIx::Class::_ENV_::DBICTEST) {
370
371   my $seen;
372   for my $type (keys %$method_dispatch) {
373     for (@{$method_dispatch->{$type}}) {
374       push @{$seen->{$_}}, $type;
375     }
376   }
377
378   if (my @dupes = grep { @{$seen->{$_}} > 1 } keys %$seen) {
379     die(join "\n", '',
380       'The following methods show up multiple times in ::Storage::DBI::Replicated handlers:',
381       (map { "$_: " . (join ', ', @{$seen->{$_}}) } sort @dupes),
382       '',
383     );
384   }
385
386   if (my @cant = grep { ! DBIx::Class::Storage::DBI->can($_) } keys %$seen) {
387     die(join "\n", '',
388       '::Storage::DBI::Replicated specifies handling of the following *NON EXISTING* ::Storage::DBI methods:',
389       @cant,
390       '',
391     );
392   }
393 }
394
395 for my $method (@{$method_dispatch->{unimplemented}}) {
396   __PACKAGE__->meta->add_method($method, sub {
397     my $self = shift;
398     $self->throw_exception("$method must not be called on ".(blessed $self).' objects');
399   });
400 }
401
402 =head2 read_handler
403
404 Defines an object that implements the read side of L<BIx::Class::Storage::DBI>.
405
406 =cut
407
408 has 'read_handler' => (
409   is=>'rw',
410   isa=>Object,
411   lazy_build=>1,
412   handles=>$method_dispatch->{reader},
413 );
414
415 =head2 write_handler
416
417 Defines an object that implements the write side of L<BIx::Class::Storage::DBI>,
418 as well as methods that don't write or read that can be called on only one
419 storage, methods that return a C<$dbh>, and any methods that don't make sense to
420 run on a replicant.
421
422 =cut
423
424 has 'write_handler' => (
425   is=>'ro',
426   isa=>Object,
427   lazy_build=>1,
428   handles=>$method_dispatch->{writer},
429 );
430
431
432
433 has _master_connect_info_opts =>
434   (is => 'rw', isa => HashRef, default => sub { {} });
435
436 =head2 around: connect_info
437
438 Preserves master's C<connect_info> options (for merging with replicants.)
439 Also sets any Replicated-related options from connect_info, such as
440 C<pool_type>, C<pool_args>, C<balancer_type> and C<balancer_args>.
441
442 =cut
443
444 around connect_info => sub {
445   my ($next, $self, $info, @extra) = @_;
446
447   my $merge = Hash::Merge->new('LEFT_PRECEDENT');
448
449   my %opts;
450   for my $arg (@$info) {
451     next unless (reftype($arg)||'') eq 'HASH';
452     %opts = %{ $merge->merge($arg, \%opts) };
453   }
454   delete $opts{dsn};
455
456   if (@opts{qw/pool_type pool_args/}) {
457     $self->pool_type(delete $opts{pool_type})
458       if $opts{pool_type};
459
460     $self->pool_args(
461       $merge->merge((delete $opts{pool_args} || {}), $self->pool_args)
462     );
463
464     ## Since we possibly changed the pool_args, we need to clear the current
465     ## pool object so that next time it is used it will be rebuilt.
466     $self->clear_pool;
467   }
468
469   if (@opts{qw/balancer_type balancer_args/}) {
470     $self->balancer_type(delete $opts{balancer_type})
471       if $opts{balancer_type};
472
473     $self->balancer_args(
474       $merge->merge((delete $opts{balancer_args} || {}), $self->balancer_args)
475     );
476
477     $self->balancer($self->_build_balancer)
478       if $self->balancer;
479   }
480
481   $self->_master_connect_info_opts(\%opts);
482
483   return preserve_context {
484     $self->$next($info, @extra);
485   } after => sub {
486     # Make sure master is blessed into the correct class and apply role to it.
487     my $master = $self->master;
488     $master->_determine_driver;
489     Moose::Meta::Class->initialize(ref $master);
490
491     DBIx::Class::Storage::DBI::Replicated::WithDSN->meta->apply($master);
492
493     # link pool back to master
494     $self->pool->master($master);
495   };
496 };
497
498 =head1 METHODS
499
500 This class defines the following methods.
501
502 =head2 BUILDARGS
503
504 L<DBIx::Class::Schema> when instantiating its storage passed itself as the
505 first argument.  So we need to massage the arguments a bit so that all the
506 bits get put into the correct places.
507
508 =cut
509
510 sub BUILDARGS {
511   my ($class, $schema, $storage_type_args, @args) = @_;
512
513   return {
514     schema=>$schema,
515     %$storage_type_args,
516     @args
517   }
518 }
519
520 =head2 _build_master
521
522 Lazy builder for the L</master> attribute.
523
524 =cut
525
526 sub _build_master {
527   my $self = shift @_;
528   my $master = DBIx::Class::Storage::DBI->new($self->schema);
529   $master
530 }
531
532 =head2 _build_pool
533
534 Lazy builder for the L</pool> attribute.
535
536 =cut
537
538 sub _build_pool {
539   my $self = shift @_;
540   $self->create_pool(%{$self->pool_args});
541 }
542
543 =head2 _build_balancer
544
545 Lazy builder for the L</balancer> attribute.  This takes a Pool object so that
546 the balancer knows which pool it's balancing.
547
548 =cut
549
550 sub _build_balancer {
551   my $self = shift @_;
552   $self->create_balancer(
553     pool=>$self->pool,
554     master=>$self->master,
555     %{$self->balancer_args},
556   );
557 }
558
559 =head2 _build_write_handler
560
561 Lazy builder for the L</write_handler> attribute.  The default is to set this to
562 the L</master>.
563
564 =cut
565
566 sub _build_write_handler {
567   return shift->master;
568 }
569
570 =head2 _build_read_handler
571
572 Lazy builder for the L</read_handler> attribute.  The default is to set this to
573 the L</balancer>.
574
575 =cut
576
577 sub _build_read_handler {
578   return shift->balancer;
579 }
580
581 =head2 around: connect_replicants
582
583 All calls to connect_replicants needs to have an existing $schema tacked onto
584 top of the args, since L<DBIx::Storage::DBI> needs it, and any C<connect_info>
585 options merged with the master, with replicant opts having higher priority.
586
587 =cut
588
589 around connect_replicants => sub {
590   my ($next, $self, @args) = @_;
591
592   for my $r (@args) {
593     $r = [ $r ] unless reftype $r eq 'ARRAY';
594
595     $self->throw_exception('coderef replicant connect_info not supported')
596       if ref $r->[0] && reftype $r->[0] eq 'CODE';
597
598 # any connect_info options?
599     my $i = 0;
600     $i++ while $i < @$r && (reftype($r->[$i])||'') ne 'HASH';
601
602 # make one if none
603     $r->[$i] = {} unless $r->[$i];
604
605 # merge if two hashes
606     my @hashes = @$r[$i .. $#{$r}];
607
608     $self->throw_exception('invalid connect_info options')
609       if (grep { reftype($_) eq 'HASH' } @hashes) != @hashes;
610
611     $self->throw_exception('too many hashrefs in connect_info')
612       if @hashes > 2;
613
614     my $merge = Hash::Merge->new('LEFT_PRECEDENT');
615     my %opts = %{ $merge->merge(reverse @hashes) };
616
617 # delete them
618     splice @$r, $i+1, ($#{$r} - $i), ();
619
620 # make sure master/replicants opts don't clash
621     my %master_opts = %{ $self->_master_connect_info_opts };
622     if (exists $opts{dbh_maker}) {
623         delete @master_opts{qw/dsn user password/};
624     }
625     delete $master_opts{dbh_maker};
626
627 # merge with master
628     %opts = %{ $merge->merge(\%opts, \%master_opts) };
629
630 # update
631     $r->[$i] = \%opts;
632   }
633
634   $self->$next($self->schema, @args);
635 };
636
637 =head2 all_storages
638
639 Returns an array of of all the connected storage backends.  The first element
640 in the returned array is the master, and the remainings are each of the
641 replicants.
642
643 =cut
644
645 sub all_storages {
646   my $self = shift @_;
647   return grep {defined $_ && blessed $_} (
648      $self->master,
649      values %{ $self->replicants },
650   );
651 }
652
653 =head2 execute_reliably ($coderef, ?@args)
654
655 Given a coderef, saves the current state of the L</read_handler>, forces it to
656 use reliable storage (e.g. sets it to the master), executes a coderef and then
657 restores the original state.
658
659 Example:
660
661   my $reliably = sub {
662     my $name = shift @_;
663     $schema->resultset('User')->create({name=>$name});
664     my $user_rs = $schema->resultset('User')->find({name=>$name});
665     return $user_rs;
666   };
667
668   my $user_rs = $schema->storage->execute_reliably($reliably, 'John');
669
670 Use this when you must be certain of your database state, such as when you just
671 inserted something and need to get a resultset including it, etc.
672
673 =cut
674
675 sub execute_reliably {
676   my $self = shift;
677   my $coderef = shift;
678
679   unless( ref $coderef eq 'CODE') {
680     $self->throw_exception('Second argument must be a coderef');
681   }
682
683   ## replace the current read handler for the remainder of the scope
684   local $self->{read_handler} = $self->master;
685
686   my $args = \@_;
687   return try {
688     $coderef->(@$args);
689   } catch {
690     $self->throw_exception("coderef returned an error: $_");
691   };
692 }
693
694 =head2 set_reliable_storage
695
696 Sets the current $schema to be 'reliable', that is all queries, both read and
697 write are sent to the master
698
699 =cut
700
701 sub set_reliable_storage {
702   my $self = shift @_;
703   my $schema = $self->schema;
704   my $write_handler = $self->schema->storage->write_handler;
705
706   $schema->storage->read_handler($write_handler);
707 }
708
709 =head2 set_balanced_storage
710
711 Sets the current $schema to be use the </balancer> for all reads, while all
712 writes are sent to the master only
713
714 =cut
715
716 sub set_balanced_storage {
717   my $self = shift @_;
718   my $schema = $self->schema;
719   my $balanced_handler = $self->schema->storage->balancer;
720
721   $schema->storage->read_handler($balanced_handler);
722 }
723
724 =head2 connected
725
726 Check that the master and at least one of the replicants is connected.
727
728 =cut
729
730 sub connected {
731   my $self = shift @_;
732   return
733     $self->master->connected &&
734     $self->pool->connected_replicants;
735 }
736
737 =head2 ensure_connected
738
739 Make sure all the storages are connected.
740
741 =cut
742
743 sub ensure_connected {
744   my $self = shift @_;
745   foreach my $source ($self->all_storages) {
746     $source->ensure_connected(@_);
747   }
748 }
749
750 =head2 limit_dialect
751
752 Set the limit_dialect for all existing storages
753
754 =cut
755
756 sub limit_dialect {
757   my $self = shift @_;
758   foreach my $source ($self->all_storages) {
759     $source->limit_dialect(@_);
760   }
761   return $self->master->limit_dialect;
762 }
763
764 =head2 quote_char
765
766 Set the quote_char for all existing storages
767
768 =cut
769
770 sub quote_char {
771   my $self = shift @_;
772   foreach my $source ($self->all_storages) {
773     $source->quote_char(@_);
774   }
775   return $self->master->quote_char;
776 }
777
778 =head2 name_sep
779
780 Set the name_sep for all existing storages
781
782 =cut
783
784 sub name_sep {
785   my $self = shift @_;
786   foreach my $source ($self->all_storages) {
787     $source->name_sep(@_);
788   }
789   return $self->master->name_sep;
790 }
791
792 =head2 set_schema
793
794 Set the schema object for all existing storages
795
796 =cut
797
798 sub set_schema {
799   my $self = shift @_;
800   foreach my $source ($self->all_storages) {
801     $source->set_schema(@_);
802   }
803 }
804
805 =head2 debug
806
807 set a debug flag across all storages
808
809 =cut
810
811 sub debug {
812   my $self = shift @_;
813   if(@_) {
814     foreach my $source ($self->all_storages) {
815       $source->debug(@_);
816     }
817   }
818   return $self->master->debug;
819 }
820
821 =head2 debugobj
822
823 set a debug object
824
825 =cut
826
827 sub debugobj {
828   my $self = shift @_;
829   return $self->master->debugobj(@_);
830 }
831
832 =head2 debugfh
833
834 set a debugfh object
835
836 =cut
837
838 sub debugfh {
839   my $self = shift @_;
840   return $self->master->debugfh(@_);
841 }
842
843 =head2 debugcb
844
845 set a debug callback
846
847 =cut
848
849 sub debugcb {
850   my $self = shift @_;
851   return $self->master->debugcb(@_);
852 }
853
854 =head2 disconnect
855
856 disconnect everything
857
858 =cut
859
860 sub disconnect {
861   my $self = shift @_;
862   foreach my $source ($self->all_storages) {
863     $source->disconnect(@_);
864   }
865 }
866
867 =head2 cursor_class
868
869 set cursor class on all storages, or return master's
870
871 =cut
872
873 sub cursor_class {
874   my ($self, $cursor_class) = @_;
875
876   if ($cursor_class) {
877     $_->cursor_class($cursor_class) for $self->all_storages;
878   }
879   $self->master->cursor_class;
880 }
881
882 =head2 cursor
883
884 set cursor class on all storages, or return master's, alias for L</cursor_class>
885 above.
886
887 =cut
888
889 sub cursor {
890   my ($self, $cursor_class) = @_;
891
892   if ($cursor_class) {
893     $_->cursor($cursor_class) for $self->all_storages;
894   }
895   $self->master->cursor;
896 }
897
898 =head2 unsafe
899
900 sets the L<DBIx::Class::Storage::DBI/unsafe> option on all storages or returns
901 master's current setting
902
903 =cut
904
905 sub unsafe {
906   my $self = shift;
907
908   if (@_) {
909     $_->unsafe(@_) for $self->all_storages;
910   }
911
912   return $self->master->unsafe;
913 }
914
915 =head2 disable_sth_caching
916
917 sets the L<DBIx::Class::Storage::DBI/disable_sth_caching> option on all storages
918 or returns master's current setting
919
920 =cut
921
922 sub disable_sth_caching {
923   my $self = shift;
924
925   if (@_) {
926     $_->disable_sth_caching(@_) for $self->all_storages;
927   }
928
929   return $self->master->disable_sth_caching;
930 }
931
932 =head2 lag_behind_master
933
934 returns the highest Replicant L<DBIx::Class::Storage::DBI/lag_behind_master>
935 setting
936
937 =cut
938
939 sub lag_behind_master {
940   my $self = shift;
941
942   return max map $_->lag_behind_master, $self->replicants;
943 }
944
945 =head2 is_replicating
946
947 returns true if all replicants return true for
948 L<DBIx::Class::Storage::DBI/is_replicating>
949
950 =cut
951
952 sub is_replicating {
953   my $self = shift;
954
955   return (grep $_->is_replicating, $self->replicants) == ($self->replicants);
956 }
957
958 =head2 connect_call_datetime_setup
959
960 calls L<DBIx::Class::Storage::DBI/connect_call_datetime_setup> for all storages
961
962 =cut
963
964 sub connect_call_datetime_setup {
965   my $self = shift;
966   $_->connect_call_datetime_setup for $self->all_storages;
967 }
968
969 sub _populate_dbh {
970   my $self = shift;
971   $_->_populate_dbh for $self->all_storages;
972 }
973
974 sub _connect {
975   my $self = shift;
976   $_->_connect for $self->all_storages;
977 }
978
979 sub _rebless {
980   my $self = shift;
981   $_->_rebless for $self->all_storages;
982 }
983
984 sub _determine_driver {
985   my $self = shift;
986   $_->_determine_driver for $self->all_storages;
987 }
988
989 sub _driver_determined {
990   my $self = shift;
991
992   if (@_) {
993     $_->_driver_determined(@_) for $self->all_storages;
994   }
995
996   return $self->master->_driver_determined;
997 }
998
999 sub _init {
1000   my $self = shift;
1001
1002   $_->_init for $self->all_storages;
1003 }
1004
1005 sub _run_connection_actions {
1006   my $self = shift;
1007
1008   $_->_run_connection_actions for $self->all_storages;
1009 }
1010
1011 sub _do_connection_actions {
1012   my $self = shift;
1013
1014   if (@_) {
1015     $_->_do_connection_actions(@_) for $self->all_storages;
1016   }
1017 }
1018
1019 sub connect_call_do_sql {
1020   my $self = shift;
1021   $_->connect_call_do_sql(@_) for $self->all_storages;
1022 }
1023
1024 sub disconnect_call_do_sql {
1025   my $self = shift;
1026   $_->disconnect_call_do_sql(@_) for $self->all_storages;
1027 }
1028
1029 sub _seems_connected {
1030   my $self = shift;
1031
1032   return min map $_->_seems_connected, $self->all_storages;
1033 }
1034
1035 sub _ping {
1036   my $self = shift;
1037
1038   return min map $_->_ping, $self->all_storages;
1039 }
1040
1041 # not using the normalized_version, because we want to preserve
1042 # version numbers much longer than the conventional xxx.yyyzzz
1043 my $numify_ver = sub {
1044   my $ver = shift;
1045   my @numparts = split /\D+/, $ver;
1046   my $format = '%d.' . (join '', ('%06d') x (@numparts - 1));
1047
1048   return sprintf $format, @numparts;
1049 };
1050 sub _server_info {
1051   my $self = shift;
1052
1053   if (not $self->_dbh_details->{info}) {
1054     $self->_dbh_details->{info} = (
1055       reduce { $a->[0] < $b->[0] ? $a : $b }
1056       map [ $numify_ver->($_->{dbms_version}), $_ ],
1057       map $_->_server_info, $self->all_storages
1058     )->[1];
1059   }
1060
1061   return $self->next::method;
1062 }
1063
1064 sub _get_server_version {
1065   my $self = shift;
1066
1067   return $self->_server_info->{dbms_version};
1068 }
1069
1070 =head1 GOTCHAS
1071
1072 Due to the fact that replicants can lag behind a master, you must take care to
1073 make sure you use one of the methods to force read queries to a master should
1074 you need realtime data integrity.  For example, if you insert a row, and then
1075 immediately re-read it from the database (say, by doing $row->discard_changes)
1076 or you insert a row and then immediately build a query that expects that row
1077 to be an item, you should force the master to handle reads.  Otherwise, due to
1078 the lag, there is no certainty your data will be in the expected state.
1079
1080 For data integrity, all transactions automatically use the master storage for
1081 all read and write queries.  Using a transaction is the preferred and recommended
1082 method to force the master to handle all read queries.
1083
1084 Otherwise, you can force a single query to use the master with the 'force_pool'
1085 attribute:
1086
1087   my $row = $resultset->search(undef, {force_pool=>'master'})->find($pk);
1088
1089 This attribute will safely be ignore by non replicated storages, so you can use
1090 the same code for both types of systems.
1091
1092 Lastly, you can use the L</execute_reliably> method, which works very much like
1093 a transaction.
1094
1095 For debugging, you can turn replication on/off with the methods L</set_reliable_storage>
1096 and L</set_balanced_storage>, however this operates at a global level and is not
1097 suitable if you have a shared Schema object being used by multiple processes,
1098 such as on a web application server.  You can get around this limitation by
1099 using the Schema clone method.
1100
1101   my $new_schema = $schema->clone;
1102   $new_schema->set_reliable_storage;
1103
1104   ## $new_schema will use only the Master storage for all reads/writes while
1105   ## the $schema object will use replicated storage.
1106
1107 =head1 AUTHOR
1108
1109   John Napiorkowski <john.napiorkowski@takkle.com>
1110
1111 Based on code originated by:
1112
1113   Norbert Csongrádi <bert@cpan.org>
1114   Peter Siklósi <einon@einon.hu>
1115
1116 =head1 LICENSE
1117
1118 You may distribute this code under the same terms as Perl itself.
1119
1120 =cut
1121
1122 __PACKAGE__->meta->make_immutable;
1123
1124 1;