Handle NULLS clauses when mangling ordering
[dbsrgits/DBIx-Class.git] / lib / DBIx / Class / Storage / DBIHacks.pm
1 package   #hide from PAUSE
2   DBIx::Class::Storage::DBIHacks;
3
4 #
5 # This module contains code supporting a battery of special cases and tests for
6 # many corner cases pushing the envelope of what DBIC can do. When work on
7 # these utilities began in mid 2009 (51a296b402c) it wasn't immediately obvious
8 # that these pieces, despite their misleading on-first-sighe-flakiness, will
9 # become part of the generic query rewriting machinery of DBIC, allowing it to
10 # both generate and process queries representing incredibly complex sets with
11 # reasonable efficiency.
12 #
13 # Now (end of 2015), more than 6 years later the routines in this class have
14 # stabilized enough, and are meticulously covered with tests, to a point where
15 # an effort to formalize them into user-facing APIs might be worthwhile.
16 #
17 # An implementor working on publicizing and/or replacing the routines with a
18 # more modern SQL generation framework should keep in mind that pretty much all
19 # existing tests are constructed on the basis of real-world code used in
20 # production somewhere.
21 #
22 # Please hack on this responsibly ;)
23 #
24
25 use strict;
26 use warnings;
27
28 use base 'DBIx::Class::Storage';
29 use mro 'c3';
30
31 use Scalar::Util 'blessed';
32 use DBIx::Class::_Util qw(UNRESOLVABLE_CONDITION serialize dump_value);
33 use SQL::Abstract qw(is_plain_value is_literal_value);
34 use DBIx::Class::Carp;
35 use namespace::clean;
36
37 #
38 # This code will remove non-selecting/non-restricting joins from
39 # {from} specs, aiding the RDBMS query optimizer
40 #
41 sub _prune_unused_joins {
42   my ($self, $attrs) = @_;
43
44   # only standard {from} specs are supported, and we could be disabled in general
45   return ($attrs->{from}, {})  unless (
46     ref $attrs->{from} eq 'ARRAY'
47       and
48     @{$attrs->{from}} > 1
49       and
50     ref $attrs->{from}[0] eq 'HASH'
51       and
52     ref $attrs->{from}[1] eq 'ARRAY'
53       and
54     $self->_use_join_optimizer
55   );
56
57   my $orig_aliastypes =
58     $attrs->{_precalculated_aliastypes}
59       ||
60     $self->_resolve_aliastypes_from_select_args($attrs)
61   ;
62
63   my $new_aliastypes = { %$orig_aliastypes };
64
65   # we will be recreating this entirely
66   my @reclassify = 'joining';
67
68   # a grouped set will not be affected by amount of rows. Thus any
69   # purely multiplicator classifications can go
70   # (will be reintroduced below if needed by something else)
71   push @reclassify, qw(multiplying premultiplied)
72     if $attrs->{_force_prune_multiplying_joins} or $attrs->{group_by};
73
74   # nuke what will be recalculated
75   delete @{$new_aliastypes}{@reclassify};
76
77   my @newfrom = $attrs->{from}[0]; # FROM head is always present
78
79   # recalculate what we need once the multipliers are potentially gone
80   # ignore premultiplies, since they do not add any value to anything
81   my %need_joins;
82   for ( @{$new_aliastypes}{grep { $_ ne 'premultiplied' } keys %$new_aliastypes }) {
83     # add all requested aliases
84     $need_joins{$_} = 1 for keys %$_;
85
86     # add all their parents (as per joinpath which is an AoH { table => alias })
87     $need_joins{$_} = 1 for map { values %$_ } map { @{$_->{-parents}} } values %$_;
88   }
89
90   for my $j (@{$attrs->{from}}[1..$#{$attrs->{from}}]) {
91     push @newfrom, $j if (
92       (! defined $j->[0]{-alias}) # legacy crap
93         ||
94       $need_joins{$j->[0]{-alias}}
95     );
96   }
97
98   # we have a new set of joiners - for everything we nuked pull the classification
99   # off the original stack
100   for my $ctype (@reclassify) {
101     $new_aliastypes->{$ctype} = { map
102       { $need_joins{$_} ? ( $_ => $orig_aliastypes->{$ctype}{$_} ) : () }
103       keys %{$orig_aliastypes->{$ctype}}
104     }
105   }
106
107   return ( \@newfrom, $new_aliastypes );
108 }
109
110 #
111 # This is the code producing joined subqueries like:
112 # SELECT me.*, other.* FROM ( SELECT me.* FROM ... ) JOIN other ON ...
113 #
114 sub _adjust_select_args_for_complex_prefetch {
115   my ($self, $attrs) = @_;
116
117   $self->throw_exception ('Complex prefetches are not supported on resultsets with a custom from attribute') unless (
118     ref $attrs->{from} eq 'ARRAY'
119       and
120     @{$attrs->{from}} > 1
121       and
122     ref $attrs->{from}[0] eq 'HASH'
123       and
124     ref $attrs->{from}[1] eq 'ARRAY'
125   );
126
127   my $root_alias = $attrs->{alias};
128
129   # generate inner/outer attribute lists, remove stuff that doesn't apply
130   my $outer_attrs = { %$attrs };
131   delete @{$outer_attrs}{qw(from bind rows offset group_by _grouped_by_distinct having)};
132
133   my $inner_attrs = { %$attrs, _simple_passthrough_construction => 1 };
134   delete @{$inner_attrs}{qw(for collapse select as)};
135
136   # there is no point of ordering the insides if there is no limit
137   delete $inner_attrs->{order_by} if (
138     delete $inner_attrs->{_order_is_artificial}
139       or
140     ! $inner_attrs->{rows}
141   );
142
143   # generate the inner/outer select lists
144   # for inside we consider only stuff *not* brought in by the prefetch
145   # on the outside we substitute any function for its alias
146   $outer_attrs->{select} = [ @{$attrs->{select}} ];
147
148   my ($root_node, $root_node_offset);
149
150   for my $i (0 .. $#{$inner_attrs->{from}}) {
151     my $node = $inner_attrs->{from}[$i];
152     my $h = (ref $node eq 'HASH')                                ? $node
153           : (ref $node  eq 'ARRAY' and ref $node->[0] eq 'HASH') ? $node->[0]
154           : next
155     ;
156
157     if ( ($h->{-alias}||'') eq $root_alias and $h->{-rsrc} ) {
158       $root_node = $h;
159       $root_node_offset = $i;
160       last;
161     }
162   }
163
164   $self->throw_exception ('Complex prefetches are not supported on resultsets with a custom from attribute')
165     unless $root_node;
166
167   # use the heavy duty resolver to take care of aliased/nonaliased naming
168   my $colinfo = $self->_resolve_column_info($inner_attrs->{from});
169   my $selected_root_columns;
170
171   for my $i (0 .. $#{$outer_attrs->{select}}) {
172     my $sel = $outer_attrs->{select}->[$i];
173
174     next if (
175       $colinfo->{$sel} and $colinfo->{$sel}{-source_alias} ne $root_alias
176     );
177
178     if (ref $sel eq 'HASH' ) {
179       $sel->{-as} ||= $attrs->{as}[$i];
180       $outer_attrs->{select}->[$i] = join ('.', $root_alias, ($sel->{-as} || "inner_column_$i") );
181     }
182     elsif (! ref $sel and my $ci = $colinfo->{$sel}) {
183       $selected_root_columns->{$ci->{-colname}} = 1;
184     }
185
186     push @{$inner_attrs->{select}}, $sel;
187
188     push @{$inner_attrs->{as}}, $attrs->{as}[$i];
189   }
190
191   my $inner_aliastypes = $self->_resolve_aliastypes_from_select_args($inner_attrs);
192
193   # In the inner subq we will need to fetch *only* native columns which may
194   # be a part of an *outer* join condition, or an order_by (which needs to be
195   # preserved outside), or wheres. In other words everything but the inner
196   # selector
197   # We can not just fetch everything because a potential has_many restricting
198   # join collapse *will not work* on heavy data types.
199
200   # essentially a map of all non-selecting seen columns
201   # the sort is there for a nicer select list
202   for (
203     sort
204       map
205         { keys %{$_->{-seen_columns}||{}} }
206         map
207           { values %{$inner_aliastypes->{$_}} }
208           grep
209             { $_ ne 'selecting' }
210             keys %$inner_aliastypes
211   ) {
212     my $ci = $colinfo->{$_} or next;
213     if (
214       $ci->{-source_alias} eq $root_alias
215         and
216       ! $selected_root_columns->{$ci->{-colname}}++
217     ) {
218       # adding it to both to keep limits not supporting dark selectors happy
219       push @{$inner_attrs->{select}}, $ci->{-fq_colname};
220       push @{$inner_attrs->{as}}, $ci->{-fq_colname};
221     }
222   }
223
224   # construct the inner {from} and lock it in a subquery
225   # we need to prune first, because this will determine if we need a group_by below
226   # throw away all non-selecting, non-restricting multijoins
227   # (since we def. do not care about multiplication of the contents of the subquery)
228   my $inner_subq = do {
229
230     # must use it here regardless of user requests (vastly gentler on optimizer)
231     local $self->{_use_join_optimizer} = 1;
232
233     # throw away multijoins since we def. do not care about those inside the subquery
234     # $inner_aliastypes *will* be redefined at this point
235     ($inner_attrs->{from}, $inner_aliastypes ) = $self->_prune_unused_joins ({
236       %$inner_attrs,
237       _force_prune_multiplying_joins => 1,
238       _precalculated_aliastypes => $inner_aliastypes,
239     });
240
241     # uh-oh a multiplier (which is not us) left in, this is a problem for limits
242     # we will need to add a group_by to collapse the resultset for proper counts
243     if (
244       grep { $_ ne $root_alias } keys %{ $inner_aliastypes->{multiplying} || {} }
245         and
246       # if there are user-supplied groups - assume user knows wtf they are up to
247       ( ! $inner_aliastypes->{grouping} or $inner_attrs->{_grouped_by_distinct} )
248     ) {
249
250       my $cur_sel = { map { $_ => 1 } @{$inner_attrs->{select}} };
251
252       # *possibly* supplement the main selection with pks if not already
253       # there, as they will have to be a part of the group_by to collapse
254       # things properly
255       my $inner_select_with_extras;
256       my @pks = map { "$root_alias.$_" } $root_node->{-rsrc}->primary_columns
257         or $self->throw_exception( sprintf
258           'Unable to perform complex limited prefetch off %s without declared primary key',
259           $root_node->{-rsrc}->source_name,
260         );
261       for my $col (@pks) {
262         push @{ $inner_select_with_extras ||= [ @{$inner_attrs->{select}} ] }, $col
263           unless $cur_sel->{$col}++;
264       }
265
266       ($inner_attrs->{group_by}, $inner_attrs->{order_by}) = $self->_group_over_selection({
267         %$inner_attrs,
268         $inner_select_with_extras ? ( select => $inner_select_with_extras ) : (),
269         _aliastypes => $inner_aliastypes,
270       });
271     }
272
273     # we already optimized $inner_attrs->{from} above
274     # and already local()ized
275     $self->{_use_join_optimizer} = 0;
276
277     # generate the subquery
278     $self->_select_args_to_query (
279       @{$inner_attrs}{qw(from select where)},
280       $inner_attrs,
281     );
282   };
283
284   # Generate the outer from - this is relatively easy (really just replace
285   # the join slot with the subquery), with a major caveat - we can not
286   # join anything that is non-selecting (not part of the prefetch), but at
287   # the same time is a multi-type relationship, as it will explode the result.
288   #
289   # There are two possibilities here
290   # - either the join is non-restricting, in which case we simply throw it away
291   # - it is part of the restrictions, in which case we need to collapse the outer
292   #   result by tackling yet another group_by to the outside of the query
293
294   # work on a shallow copy
295   my @orig_from = @{$attrs->{from}};
296
297
298   $outer_attrs->{from} = \ my @outer_from;
299
300   # we may not be the head
301   if ($root_node_offset) {
302     # first generate the outer_from, up to the substitution point
303     @outer_from = splice @orig_from, 0, $root_node_offset;
304
305     # substitute the subq at the right spot
306     push @outer_from, [
307       {
308         -alias => $root_alias,
309         -rsrc => $root_node->{-rsrc},
310         $root_alias => $inner_subq,
311       },
312       # preserve attrs from what is now the head of the from after the splice
313       @{$orig_from[0]}[1 .. $#{$orig_from[0]}],
314     ];
315   }
316   else {
317     @outer_from = {
318       -alias => $root_alias,
319       -rsrc => $root_node->{-rsrc},
320       $root_alias => $inner_subq,
321     };
322   }
323
324   shift @orig_from; # what we just replaced above
325
326   # scan the *remaining* from spec against different attributes, and see which joins are needed
327   # in what role
328   my $outer_aliastypes = $outer_attrs->{_aliastypes} =
329     $self->_resolve_aliastypes_from_select_args({ %$outer_attrs, from => \@orig_from });
330
331   # unroll parents
332   my ($outer_select_chain, @outer_nonselecting_chains) = map { +{
333     map { $_ => 1 } map { values %$_} map { @{$_->{-parents}} } values %{ $outer_aliastypes->{$_} || {} }
334   } } qw/selecting restricting grouping ordering/;
335
336   # see what's left - throw away if not selecting/restricting
337   my $may_need_outer_group_by;
338   while (my $j = shift @orig_from) {
339     my $alias = $j->[0]{-alias};
340
341     if (
342       $outer_select_chain->{$alias}
343     ) {
344       push @outer_from, $j
345     }
346     elsif (grep { $_->{$alias} } @outer_nonselecting_chains ) {
347       push @outer_from, $j;
348       $may_need_outer_group_by ||= $outer_aliastypes->{multiplying}{$alias} ? 1 : 0;
349     }
350   }
351
352   # also throw in a synthetic group_by if a non-selecting multiplier,
353   # to guard against cross-join explosions
354   # the logic is somewhat fragile, but relies on the idea that if a user supplied
355   # a group by on their own - they know what they were doing
356   if ( $may_need_outer_group_by and $attrs->{_grouped_by_distinct} ) {
357     ($outer_attrs->{group_by}, $outer_attrs->{order_by}) = $self->_group_over_selection ({
358       %$outer_attrs,
359       from => \@outer_from,
360     });
361   }
362
363   # FIXME: The {where} ends up in both the inner and outer query, i.e. *twice*
364   #
365   # This is rather horrific, and while we currently *do* have enough
366   # introspection tooling available to attempt a stab at properly deciding
367   # whether or not to include the where condition on the outside, the
368   # machinery is still too slow to apply it here.
369   # Thus for the time being we do not attempt any sanitation of the where
370   # clause and just pass it through on both sides of the subquery. This *will*
371   # be addressed at a later stage, most likely after folding the SQL generator
372   # into SQLMaker proper
373   #
374   # OTOH it can be seen as a plus: <ash> (notes that this query would make a DBA cry ;)
375   #
376   return $outer_attrs;
377 }
378
379 # This is probably the ickiest, yet most relied upon part of the codebase:
380 # this is the place where we take arbitrary SQL input and break it into its
381 # constituent parts, making sure we know which *sources* are used in what
382 # *capacity* ( selecting / restricting / grouping / ordering / joining, etc )
383 # Although the method is pretty horrific, the worst thing that can happen is
384 # for a classification failure, which in turn will result in a vocal exception,
385 # and will lead to a relatively prompt fix.
386 # The code has been slowly improving and is covered with a formiddable battery
387 # of tests, so can be considered "reliably stable" at this point (Oct 2015).
388 #
389 # A note to implementors attempting to "replace" this - keep in mind that while
390 # there are multiple optimization avenues, the actual "scan literal elements"
391 # part *MAY NEVER BE REMOVED*, even if it is limited only ot the (future) AST
392 # nodes that are deemed opaque (i.e. contain literal expressions). The use of
393 # blackbox literals is at this point firmly a user-facing API, and is one of
394 # *the* reasons DBIC remains as flexible as it is. In other words, when working
395 # on this keep in mind that the following is widespread and *encouraged* way
396 # of using DBIC in the wild when push comes to shove:
397 #
398 # $rs->search( {}, {
399 #   select => \[ $random, @stuff],
400 #   from => \[ $random, @stuff ],
401 #   where => \[ $random, @stuff ],
402 #   group_by => \[ $random, @stuff ],
403 #   order_by => \[ $random, @stuff ],
404 # } )
405 #
406 # Various incarnations of the above are reflected in many of the tests. If one
407 # gets to fail, you get to fix it. A "this is crazy, nobody does that" is not
408 # acceptable going forward.
409 #
410 sub _resolve_aliastypes_from_select_args {
411   my ( $self, $attrs ) = @_;
412
413   $self->throw_exception ('Unable to analyze custom {from}')
414     if ref $attrs->{from} ne 'ARRAY';
415
416   # what we will return
417   my $aliases_by_type;
418
419   # see what aliases are there to work with
420   # and record who is a multiplier and who is premultiplied
421   my $alias_list;
422   for my $node (@{$attrs->{from}}) {
423
424     my $j = $node;
425     $j = $j->[0] if ref $j eq 'ARRAY';
426     my $al = $j->{-alias}
427       or next;
428
429     $alias_list->{$al} = $j;
430
431     $aliases_by_type->{multiplying}{$al} ||= { -parents => $j->{-join_path}||[] }
432       # not array == {from} head == can't be multiplying
433       if ref($node) eq 'ARRAY' and ! $j->{-is_single};
434
435     $aliases_by_type->{premultiplied}{$al} ||= { -parents => $j->{-join_path}||[] }
436       # parts of the path that are not us but are multiplying
437       if grep { $aliases_by_type->{multiplying}{$_} }
438           grep { $_ ne $al }
439            map { values %$_ }
440             @{ $j->{-join_path}||[] }
441   }
442
443   # get a column to source/alias map (including unambiguous unqualified ones)
444   my $colinfo = $self->_resolve_column_info ($attrs->{from});
445
446   # set up a botched SQLA
447   my $sql_maker = $self->sql_maker;
448
449   # these are throw away results, do not pollute the bind stack
450   local $sql_maker->{where_bind};
451   local $sql_maker->{group_bind};
452   local $sql_maker->{having_bind};
453   local $sql_maker->{from_bind};
454
455   # we can't scan properly without any quoting (\b doesn't cut it
456   # everywhere), so unless there is proper quoting set - use our
457   # own weird impossible character.
458   # Also in the case of no quoting, we need to explicitly disable
459   # name_sep, otherwise sorry nasty legacy syntax like
460   # { 'count(foo.id)' => { '>' => 3 } } will stop working >:(
461   local $sql_maker->{quote_char} = $sql_maker->{quote_char};
462   local $sql_maker->{name_sep} = $sql_maker->{name_sep};
463
464   unless (defined $sql_maker->{quote_char} and length $sql_maker->{quote_char}) {
465     $sql_maker->{quote_char} = ["\x00", "\xFF"];
466     # if we don't unset it we screw up retarded but unfortunately working
467     # 'MAX(foo.bar)' => { '>', 3 }
468     $sql_maker->{name_sep} = '';
469   }
470
471   my ($lquote, $rquote, $sep) = map { quotemeta $_ } ($sql_maker->_quote_chars, $sql_maker->name_sep);
472
473   # generate sql chunks
474   my $to_scan = {
475     restricting => [
476       ($sql_maker->_recurse_where ($attrs->{where}))[0],
477       $sql_maker->_parse_rs_attrs ({ having => $attrs->{having} }),
478     ],
479     grouping => [
480       $sql_maker->_parse_rs_attrs ({ group_by => $attrs->{group_by} }),
481     ],
482     joining => [
483       $sql_maker->_recurse_from (
484         ref $attrs->{from}[0] eq 'ARRAY' ? $attrs->{from}[0][0] : $attrs->{from}[0],
485         @{$attrs->{from}}[1 .. $#{$attrs->{from}}],
486       ),
487     ],
488     selecting => [
489       # kill all selectors which look like a proper subquery
490       # this is a sucky heuristic *BUT* - if we get it wrong the query will simply
491       # fail to run, so we are relatively safe
492       grep
493         { $_ !~ / \A \s* \( \s* SELECT \s+ .+? \s+ FROM \s+ .+? \) \s* \z /xsi }
494         map
495           { ($sql_maker->_recurse_fields($_))[0] }
496           @{$attrs->{select}}
497     ],
498     ordering => [ map
499       {
500         ( my $sql = (ref $_ ? $_->[0] : $_) ) =~ s/ \s+ (?: ASC | DESC ) \s* \z //xi;
501         $sql;
502       }
503       $sql_maker->_order_by_chunks( $attrs->{order_by} ),
504     ],
505   };
506
507   # we will be bulk-scanning anyway - pieces will not matter in that case,
508   # thus join everything up
509   # throw away empty-string chunks, and make sure no binds snuck in
510   # note that we operate over @{$to_scan->{$type}}, hence the
511   # semi-mindbending ... map ... for values ...
512   ( $_ = join ' ', map {
513
514     ( ! defined $_ )  ? ()
515   : ( length ref $_ ) ? $self->throw_exception(
516                           "Unexpected ref in scan-plan: " . dump_value $_
517                         )
518   : ( $_ =~ /^\s*$/ ) ? ()
519                       : $_
520
521   } @$_ ) for values %$to_scan;
522
523   # throw away empty to-scan's
524   (
525     length $to_scan->{$_}
526       or
527     delete $to_scan->{$_}
528   ) for keys %$to_scan;
529
530
531
532   # these will be used for matching in the loop below
533   my $all_aliases = join ' | ', map { quotemeta $_ } keys %$alias_list;
534   my $fq_col_re = qr/
535     $lquote ( $all_aliases ) $rquote $sep (?: $lquote ([^$rquote]+) $rquote )?
536          |
537     \b ( $all_aliases ) \. ( [^\s\)\($rquote]+ )?
538   /x;
539
540
541   my $all_unq_columns = join ' | ',
542     map
543       { quotemeta $_ }
544       grep
545         # using a regex here shows up on profiles, boggle
546         { index( $_, '.') < 0 }
547         keys %$colinfo
548   ;
549   my $unq_col_re = $all_unq_columns
550     ? qr/
551       $lquote ( $all_unq_columns ) $rquote
552         |
553       (?: \A | \s ) ( $all_unq_columns ) (?: \s | \z )
554     /x
555     : undef
556   ;
557
558
559   # the actual scan, per type
560   for my $type (keys %$to_scan) {
561
562
563     # now loop through all fully qualified columns and get the corresponding
564     # alias (should work even if they are in scalarrefs)
565     #
566     # The regex captures in multiples of 4, with one of the two pairs being
567     # undef. There may be a *lot* of matches, hence the convoluted loop
568     my @matches = $to_scan->{$type} =~ /$fq_col_re/g;
569     my $i = 0;
570     while( $i < $#matches ) {
571
572       if (
573         defined $matches[$i]
574       ) {
575         $aliases_by_type->{$type}{$matches[$i]} ||= { -parents => $alias_list->{$matches[$i]}{-join_path}||[] };
576
577         $aliases_by_type->{$type}{$matches[$i]}{-seen_columns}{"$matches[$i].$matches[$i+1]"} = "$matches[$i].$matches[$i+1]"
578           if defined $matches[$i+1];
579
580         $i += 2;
581       }
582
583       $i += 2;
584     }
585
586
587     # now loop through unqualified column names, and try to locate them within
588     # the chunks, if there are any unqualified columns in the 1st place
589     next unless $unq_col_re;
590
591     # The regex captures in multiples of 2, one of the two being undef
592     for ( $to_scan->{$type} =~ /$unq_col_re/g ) {
593       defined $_ or next;
594       my $alias = $colinfo->{$_}{-source_alias} or next;
595       $aliases_by_type->{$type}{$alias} ||= { -parents => $alias_list->{$alias}{-join_path}||[] };
596       $aliases_by_type->{$type}{$alias}{-seen_columns}{"$alias.$_"} = $_
597     }
598   }
599
600
601   # Add any non-left joins to the restriction list (such joins are indeed restrictions)
602   (
603     $_->{-alias}
604       and
605     ! $aliases_by_type->{restricting}{ $_->{-alias} }
606       and
607     (
608       not $_->{-join_type}
609         or
610       $_->{-join_type} !~ /^left (?: \s+ outer)? $/xi
611     )
612       and
613     $aliases_by_type->{restricting}{ $_->{-alias} } = { -parents => $_->{-join_path}||[] }
614   ) for values %$alias_list;
615
616
617   # final cleanup
618   (
619     keys %{$aliases_by_type->{$_}}
620       or
621     delete $aliases_by_type->{$_}
622   ) for keys %$aliases_by_type;
623
624
625   $aliases_by_type;
626 }
627
628 # This is the engine behind { distinct => 1 } and the general
629 # complex prefetch grouper
630 sub _group_over_selection {
631   my ($self, $attrs) = @_;
632
633   my $colinfos = $self->_resolve_column_info ($attrs->{from});
634
635   my (@group_by, %group_index);
636
637   # the logic is: if it is a { func => val } we assume an aggregate,
638   # otherwise if \'...' or \[...] we assume the user knows what is
639   # going on thus group over it
640   for (@{$attrs->{select}}) {
641     if (! ref($_) or ref ($_) ne 'HASH' ) {
642       push @group_by, $_;
643       $group_index{$_}++;
644       if ($colinfos->{$_} and $_ !~ /\./ ) {
645         # add a fully qualified version as well
646         $group_index{"$colinfos->{$_}{-source_alias}.$_"}++;
647       }
648     }
649   }
650
651   my @order_by = $self->_extract_order_criteria($attrs->{order_by})
652     or return (\@group_by, $attrs->{order_by});
653
654   # add any order_by parts that are not already present in the group_by
655   # to maintain SQL cross-compatibility and general sanity
656   #
657   # also in case the original selection is *not* unique, or in case part
658   # of the ORDER BY refers to a multiplier - we will need to replace the
659   # skipped order_by elements with their MIN/MAX equivalents as to maintain
660   # the proper overall order without polluting the group criteria (and
661   # possibly changing the outcome entirely)
662
663   my ($leftovers, $sql_maker, @new_order_by, $order_chunks, $aliastypes);
664
665   my $group_already_unique = $self->_columns_comprise_identifying_set($colinfos, \@group_by);
666
667   for my $o_idx (0 .. $#order_by) {
668
669     # if the chunk is already a min/max function - there is nothing left to touch
670     next if $order_by[$o_idx][0] =~ /^ (?: min | max ) \s* \( .+ \) $/ix;
671
672     # only consider real columns (for functions the user got to do an explicit group_by)
673     my $chunk_ci;
674     if (
675       @{$order_by[$o_idx]} != 1
676         or
677       # only declare an unknown *plain* identifier as "leftover" if we are called with
678       # aliastypes to examine. If there are none - we are still in _resolve_attrs, and
679       # can just assume the user knows what they want
680       ( ! ( $chunk_ci = $colinfos->{$order_by[$o_idx][0]} ) and $attrs->{_aliastypes} )
681     ) {
682       push @$leftovers, $order_by[$o_idx][0];
683     }
684
685     next unless $chunk_ci;
686
687     # no duplication of group criteria
688     next if $group_index{$chunk_ci->{-fq_colname}};
689
690     $aliastypes ||= (
691       $attrs->{_aliastypes}
692         or
693       $self->_resolve_aliastypes_from_select_args({
694         from => $attrs->{from},
695         order_by => $attrs->{order_by},
696       })
697     ) if $group_already_unique;
698
699     # check that we are not ordering by a multiplier (if a check is requested at all)
700     if (
701       $group_already_unique
702         and
703       ! $aliastypes->{multiplying}{$chunk_ci->{-source_alias}}
704         and
705       ! $aliastypes->{premultiplied}{$chunk_ci->{-source_alias}}
706     ) {
707       push @group_by, $chunk_ci->{-fq_colname};
708       $group_index{$chunk_ci->{-fq_colname}}++
709     }
710     else {
711       # We need to order by external columns without adding them to the group
712       # (eiehter a non-unique selection, or a multi-external)
713       #
714       # This doesn't really make sense in SQL, however from DBICs point
715       # of view is rather valid (e.g. order the leftmost objects by whatever
716       # criteria and get the offset/rows many). There is a way around
717       # this however in SQL - we simply tae the direction of each piece
718       # of the external order and convert them to MIN(X) for ASC or MAX(X)
719       # for DESC, and group_by the root columns. The end result should be
720       # exactly what we expect
721       #
722
723       # both populated on the first loop over $o_idx
724       $sql_maker ||= $self->sql_maker;
725       $order_chunks ||= [
726         map { ref $_ eq 'ARRAY' ? $_ : [ $_ ] } $sql_maker->_order_by_chunks($attrs->{order_by})
727       ];
728
729       # FIXME: MIN/MAX can't handle NULLS FIRST/LAST
730       my ($chunk, $is_desc) = $sql_maker->_split_order_chunk($order_chunks->[$o_idx][0]);
731
732       # we reached that far - wrap any part of the order_by that "responded"
733       # to an ordering alias into a MIN/MAX
734       $new_order_by[$o_idx] = \[
735         sprintf( '%s( %s )%s',
736           $self->_minmax_operator_for_datatype($chunk_ci->{data_type}, $is_desc),
737           $chunk,
738           ($is_desc ? ' DESC' : ''),
739         ),
740         @ {$order_chunks->[$o_idx]} [ 1 .. $#{$order_chunks->[$o_idx]} ]
741       ];
742     }
743   }
744
745   $self->throw_exception ( sprintf
746     'Unable to programatically derive a required group_by from the supplied '
747   . 'order_by criteria. To proceed either add an explicit group_by, or '
748   . 'simplify your order_by to only include plain columns '
749   . '(supplied order_by: %s)',
750     join ', ', map { "'$_'" } @$leftovers,
751   ) if $leftovers;
752
753   # recreate the untouched order parts
754   if (@new_order_by) {
755     $new_order_by[$_] ||= \ $order_chunks->[$_] for ( 0 .. $#$order_chunks );
756   }
757
758   return (
759     \@group_by,
760     (@new_order_by ? \@new_order_by : $attrs->{order_by} ),  # same ref as original == unchanged
761   );
762 }
763
764 sub _minmax_operator_for_datatype {
765   #my ($self, $datatype, $want_max) = @_;
766
767   $_[2] ? 'MAX' : 'MIN';
768 }
769
770 sub _resolve_ident_sources {
771   my ($self, $ident) = @_;
772
773   my $alias2source = {};
774
775   # the reason this is so contrived is that $ident may be a {from}
776   # structure, specifying multiple tables to join
777   if ( blessed $ident && $ident->isa("DBIx::Class::ResultSource") ) {
778     # this is compat mode for insert/update/delete which do not deal with aliases
779     $alias2source->{me} = $ident;
780   }
781   elsif (ref $ident eq 'ARRAY') {
782
783     for (@$ident) {
784       my $tabinfo;
785       if (ref $_ eq 'HASH') {
786         $tabinfo = $_;
787       }
788       if (ref $_ eq 'ARRAY' and ref $_->[0] eq 'HASH') {
789         $tabinfo = $_->[0];
790       }
791
792       $alias2source->{$tabinfo->{-alias}} = $tabinfo->{-rsrc}
793         if ($tabinfo->{-rsrc});
794     }
795   }
796
797   return $alias2source;
798 }
799
800 # Takes $ident, \@column_names
801 #
802 # returns { $column_name => \%column_info, ... }
803 # also note: this adds -result_source => $rsrc to the column info
804 #
805 # If no columns_names are supplied returns info about *all* columns
806 # for all sources
807 sub _resolve_column_info {
808   my ($self, $ident, $colnames) = @_;
809
810   return {} if $colnames and ! @$colnames;
811
812   my $sources = $self->_resolve_ident_sources($ident);
813
814   $_ = { rsrc => $_, colinfos => $_->columns_info }
815     for values %$sources;
816
817   my (%seen_cols, @auto_colnames);
818
819   # compile a global list of column names, to be able to properly
820   # disambiguate unqualified column names (if at all possible)
821   for my $alias (keys %$sources) {
822     (
823       ++$seen_cols{$_}{$alias}
824         and
825       ! $colnames
826         and
827       push @auto_colnames, "$alias.$_"
828     ) for keys %{ $sources->{$alias}{colinfos} };
829   }
830
831   $colnames ||= [
832     @auto_colnames,
833     ( grep { keys %{$seen_cols{$_}} == 1 } keys %seen_cols ),
834   ];
835
836   my %return;
837   for (@$colnames) {
838     my ($colname, $source_alias) = reverse split /\./, $_;
839
840     my $assumed_alias =
841       $source_alias
842         ||
843       # if the column was seen exactly once - we know which rsrc it came from
844       (
845         $seen_cols{$colname}
846           and
847         keys %{$seen_cols{$colname}} == 1
848           and
849         ( %{$seen_cols{$colname}} )[0]
850       )
851         ||
852       next
853     ;
854
855     $self->throw_exception(
856       "No such column '$colname' on source " . $sources->{$assumed_alias}{rsrc}->source_name
857     ) unless $seen_cols{$colname}{$assumed_alias};
858
859     $return{$_} = {
860       %{ $sources->{$assumed_alias}{colinfos}{$colname} },
861       -result_source => $sources->{$assumed_alias}{rsrc},
862       -source_alias => $assumed_alias,
863       -fq_colname => "$assumed_alias.$colname",
864       -colname => $colname,
865     };
866
867     $return{"$assumed_alias.$colname"} = $return{$_}
868       unless $source_alias;
869   }
870
871   return \%return;
872 }
873
874 # The DBIC relationship chaining implementation is pretty simple - every
875 # new related_relationship is pushed onto the {from} stack, and the {select}
876 # window simply slides further in. This means that when we count somewhere
877 # in the middle, we got to make sure that everything in the join chain is an
878 # actual inner join, otherwise the count will come back with unpredictable
879 # results (a resultset may be generated with _some_ rows regardless of if
880 # the relation which the $rs currently selects has rows or not). E.g.
881 # $artist_rs->cds->count - normally generates:
882 # SELECT COUNT( * ) FROM artist me LEFT JOIN cd cds ON cds.artist = me.artistid
883 # which actually returns the number of artists * (number of cds || 1)
884 #
885 # So what we do here is crawl {from}, determine if the current alias is at
886 # the top of the stack, and if not - make sure the chain is inner-joined down
887 # to the root.
888 #
889 sub _inner_join_to_node {
890   my ($self, $from, $alias) = @_;
891
892   my $switch_branch = $self->_find_join_path_to_node($from, $alias);
893
894   return $from unless @{$switch_branch||[]};
895
896   # So it looks like we will have to switch some stuff around.
897   # local() is useless here as we will be leaving the scope
898   # anyway, and deep cloning is just too fucking expensive
899   # So replace the first hashref in the node arrayref manually
900   my @new_from = ($from->[0]);
901   my $sw_idx = { map { (values %$_), 1 } @$switch_branch }; #there's one k/v per join-path
902
903   for my $j (@{$from}[1 .. $#$from]) {
904     my $jalias = $j->[0]{-alias};
905
906     if ($sw_idx->{$jalias}) {
907       my %attrs = %{$j->[0]};
908       delete $attrs{-join_type};
909       push @new_from, [
910         \%attrs,
911         @{$j}[ 1 .. $#$j ],
912       ];
913     }
914     else {
915       push @new_from, $j;
916     }
917   }
918
919   return \@new_from;
920 }
921
922 sub _find_join_path_to_node {
923   my ($self, $from, $target_alias) = @_;
924
925   # subqueries and other oddness are naturally not supported
926   return undef if (
927     ref $from ne 'ARRAY'
928       ||
929     ref $from->[0] ne 'HASH'
930       ||
931     ! defined $from->[0]{-alias}
932   );
933
934   # no path - the head is the alias
935   return [] if $from->[0]{-alias} eq $target_alias;
936
937   for my $i (1 .. $#$from) {
938     return $from->[$i][0]{-join_path} if ( ($from->[$i][0]{-alias}||'') eq $target_alias );
939   }
940
941   # something else went quite wrong
942   return undef;
943 }
944
945 sub _extract_order_criteria {
946   my ($self, $order_by, $sql_maker) = @_;
947
948   my $parser = sub {
949     my ($sql_maker, $order_by, $orig_quote_chars) = @_;
950
951     return scalar $sql_maker->_order_by_chunks ($order_by)
952       unless wantarray;
953
954     my ($lq, $rq, $sep) = map { quotemeta($_) } (
955       ($orig_quote_chars ? @$orig_quote_chars : $sql_maker->_quote_chars),
956       $sql_maker->name_sep
957     );
958
959     my @chunks;
960     for ($sql_maker->_order_by_chunks ($order_by) ) {
961       my $chunk = ref $_ ? [ @$_ ] : [ $_ ];
962       ($chunk->[0]) = $sql_maker->_split_order_chunk($chunk->[0]);
963
964       # order criteria may have come back pre-quoted (literals and whatnot)
965       # this is fragile, but the best we can currently do
966       $chunk->[0] =~ s/^ $lq (.+?) $rq $sep $lq (.+?) $rq $/"$1.$2"/xe
967         or $chunk->[0] =~ s/^ $lq (.+) $rq $/$1/x;
968
969       push @chunks, $chunk;
970     }
971
972     return @chunks;
973   };
974
975   if ($sql_maker) {
976     return $parser->($sql_maker, $order_by);
977   }
978   else {
979     $sql_maker = $self->sql_maker;
980
981     # pass these in to deal with literals coming from
982     # the user or the deep guts of prefetch
983     my $orig_quote_chars = [$sql_maker->_quote_chars];
984
985     local $sql_maker->{quote_char};
986     return $parser->($sql_maker, $order_by, $orig_quote_chars);
987   }
988 }
989
990 sub _order_by_is_stable {
991   my ($self, $ident, $order_by, $where) = @_;
992
993   my @cols = (
994     ( map { $_->[0] } $self->_extract_order_criteria($order_by) ),
995     ( $where ? keys %{ $self->_extract_fixed_condition_columns($where) } : () ),
996   ) or return 0;
997
998   my $colinfo = $self->_resolve_column_info($ident, \@cols);
999
1000   return keys %$colinfo
1001     ? $self->_columns_comprise_identifying_set( $colinfo,  \@cols )
1002     : 0
1003   ;
1004 }
1005
1006 sub _columns_comprise_identifying_set {
1007   my ($self, $colinfo, $columns) = @_;
1008
1009   my $cols_per_src;
1010   $cols_per_src -> {$_->{-source_alias}} -> {$_->{-colname}} = $_
1011     for grep { defined $_ } @{$colinfo}{@$columns};
1012
1013   for (values %$cols_per_src) {
1014     my $src = (values %$_)[0]->{-result_source};
1015     return 1 if $src->_identifying_column_set($_);
1016   }
1017
1018   return 0;
1019 }
1020
1021 # this is almost similar to _order_by_is_stable, except it takes
1022 # a single rsrc, and will succeed only if the first portion of the order
1023 # by is stable.
1024 # returns that portion as a colinfo hashref on success
1025 sub _extract_colinfo_of_stable_main_source_order_by_portion {
1026   my ($self, $attrs) = @_;
1027
1028   my $nodes = $self->_find_join_path_to_node($attrs->{from}, $attrs->{alias});
1029
1030   return unless defined $nodes;
1031
1032   my @ord_cols = map
1033     { $_->[0] }
1034     ( $self->_extract_order_criteria($attrs->{order_by}) )
1035   ;
1036   return unless @ord_cols;
1037
1038   my $valid_aliases = { map { $_ => 1 } (
1039     $attrs->{from}[0]{-alias},
1040     map { values %$_ } @$nodes,
1041   ) };
1042
1043   my $colinfos = $self->_resolve_column_info($attrs->{from});
1044
1045   my ($colinfos_to_return, $seen_main_src_cols);
1046
1047   for my $col (@ord_cols) {
1048     # if order criteria is unresolvable - there is nothing we can do
1049     my $colinfo = $colinfos->{$col} or last;
1050
1051     # if we reached the end of the allowed aliases - also nothing we can do
1052     last unless $valid_aliases->{$colinfo->{-source_alias}};
1053
1054     $colinfos_to_return->{$col} = $colinfo;
1055
1056     $seen_main_src_cols->{$colinfo->{-colname}} = 1
1057       if $colinfo->{-source_alias} eq $attrs->{alias};
1058   }
1059
1060   # FIXME the condition may be singling out things on its own, so we
1061   # conceivable could come back wi "stable-ordered by nothing"
1062   # not confient enough in the parser yet, so punt for the time being
1063   return unless $seen_main_src_cols;
1064
1065   my $main_src_fixed_cols_from_cond = [ $attrs->{where}
1066     ? (
1067       map
1068       {
1069         ( $colinfos->{$_} and $colinfos->{$_}{-source_alias} eq $attrs->{alias} )
1070           ? $colinfos->{$_}{-colname}
1071           : ()
1072       }
1073       keys %{ $self->_extract_fixed_condition_columns($attrs->{where}) }
1074     )
1075     : ()
1076   ];
1077
1078   return $attrs->{result_source}->_identifying_column_set([
1079     keys %$seen_main_src_cols,
1080     @$main_src_fixed_cols_from_cond,
1081   ]) ? $colinfos_to_return : ();
1082 }
1083
1084 # Attempts to flatten a passed in SQLA condition as much as possible towards
1085 # a plain hashref, *without* altering its semantics. Required by
1086 # create/populate being able to extract definitive conditions from preexisting
1087 # resultset {where} stacks
1088 #
1089 # FIXME - while relatively robust, this is still imperfect, one of the first
1090 # things to tackle when we get access to a formalized AST. Note that this code
1091 # is covered by a *ridiculous* amount of tests, so starting with porting this
1092 # code would be a rather good exercise
1093 sub _collapse_cond {
1094   my ($self, $where, $where_is_anded_array) = @_;
1095
1096   my $fin;
1097
1098   if (! $where) {
1099     return;
1100   }
1101   elsif ($where_is_anded_array or ref $where eq 'HASH') {
1102
1103     my @pairs;
1104
1105     my @pieces = $where_is_anded_array ? @$where : $where;
1106     while (@pieces) {
1107       my $chunk = shift @pieces;
1108
1109       if (ref $chunk eq 'HASH') {
1110         for (sort keys %$chunk) {
1111
1112           # Match SQLA 1.79 behavior
1113           unless( length $_ ) {
1114             is_literal_value($chunk->{$_})
1115               ? carp 'Hash-pairs consisting of an empty string with a literal are deprecated, use -and => [ $literal ] instead'
1116               : $self->throw_exception("Supplying an empty left hand side argument is not supported in hash-pairs")
1117             ;
1118           }
1119
1120           push @pairs, $_ => $chunk->{$_};
1121         }
1122       }
1123       elsif (ref $chunk eq 'ARRAY') {
1124         push @pairs, -or => $chunk
1125           if @$chunk;
1126       }
1127       elsif ( ! length ref $chunk) {
1128
1129         # Match SQLA 1.79 behavior
1130         $self->throw_exception("Supplying an empty left hand side argument is not supported in array-pairs")
1131           if $where_is_anded_array and (! defined $chunk or ! length $chunk);
1132
1133         push @pairs, $chunk, shift @pieces;
1134       }
1135       else {
1136         push @pairs, '', $chunk;
1137       }
1138     }
1139
1140     return unless @pairs;
1141
1142     my @conds = $self->_collapse_cond_unroll_pairs(\@pairs)
1143       or return;
1144
1145     # Consolidate various @conds back into something more compact
1146     for my $c (@conds) {
1147       if (ref $c ne 'HASH') {
1148         push @{$fin->{-and}}, $c;
1149       }
1150       else {
1151         for my $col (sort keys %$c) {
1152
1153           # consolidate all -and nodes
1154           if ($col =~ /^\-and$/i) {
1155             push @{$fin->{-and}},
1156               ref $c->{$col} eq 'ARRAY' ? @{$c->{$col}}
1157             : ref $c->{$col} eq 'HASH' ? %{$c->{$col}}
1158             : { $col => $c->{$col} }
1159             ;
1160           }
1161           elsif ($col =~ /^\-/) {
1162             push @{$fin->{-and}}, { $col => $c->{$col} };
1163           }
1164           elsif (exists $fin->{$col}) {
1165             $fin->{$col} = [ -and => map {
1166               (ref $_ eq 'ARRAY' and ($_->[0]||'') =~ /^\-and$/i )
1167                 ? @{$_}[1..$#$_]
1168                 : $_
1169               ;
1170             } ($fin->{$col}, $c->{$col}) ];
1171           }
1172           else {
1173             $fin->{$col} = $c->{$col};
1174           }
1175         }
1176       }
1177     }
1178   }
1179   elsif (ref $where eq 'ARRAY') {
1180     # we are always at top-level here, it is safe to dump empty *standalone* pieces
1181     my $fin_idx;
1182
1183     for (my $i = 0; $i <= $#$where; $i++ ) {
1184
1185       # Match SQLA 1.79 behavior
1186       $self->throw_exception(
1187         "Supplying an empty left hand side argument is not supported in array-pairs"
1188       ) if (! defined $where->[$i] or ! length $where->[$i]);
1189
1190       my $logic_mod = lc ( ($where->[$i] =~ /^(\-(?:and|or))$/i)[0] || '' );
1191
1192       if ($logic_mod) {
1193         $i++;
1194         $self->throw_exception("Unsupported top-level op/arg pair: [ $logic_mod => $where->[$i] ]")
1195           unless ref $where->[$i] eq 'HASH' or ref $where->[$i] eq 'ARRAY';
1196
1197         my $sub_elt = $self->_collapse_cond({ $logic_mod => $where->[$i] })
1198           or next;
1199
1200         my @keys = keys %$sub_elt;
1201         if ( @keys == 1 and $keys[0] !~ /^\-/ ) {
1202           $fin_idx->{ "COL_$keys[0]_" . serialize $sub_elt } = $sub_elt;
1203         }
1204         else {
1205           $fin_idx->{ "SER_" . serialize $sub_elt } = $sub_elt;
1206         }
1207       }
1208       elsif (! length ref $where->[$i] ) {
1209         my $sub_elt = $self->_collapse_cond({ @{$where}[$i, $i+1] })
1210           or next;
1211
1212         $fin_idx->{ "COL_$where->[$i]_" . serialize $sub_elt } = $sub_elt;
1213         $i++;
1214       }
1215       else {
1216         $fin_idx->{ "SER_" . serialize $where->[$i] } = $self->_collapse_cond( $where->[$i] ) || next;
1217       }
1218     }
1219
1220     if (! $fin_idx) {
1221       return;
1222     }
1223     elsif ( keys %$fin_idx == 1 ) {
1224       $fin = (values %$fin_idx)[0];
1225     }
1226     else {
1227       my @or;
1228
1229       # at this point everything is at most one level deep - unroll if needed
1230       for (sort keys %$fin_idx) {
1231         if ( ref $fin_idx->{$_} eq 'HASH' and keys %{$fin_idx->{$_}} == 1 ) {
1232           my ($l, $r) = %{$fin_idx->{$_}};
1233
1234           if (
1235             ref $r eq 'ARRAY'
1236               and
1237             (
1238               ( @$r == 1 and $l =~ /^\-and$/i )
1239                 or
1240               $l =~ /^\-or$/i
1241             )
1242           ) {
1243             push @or, @$r
1244           }
1245
1246           elsif (
1247             ref $r eq 'HASH'
1248               and
1249             keys %$r == 1
1250               and
1251             $l =~ /^\-(?:and|or)$/i
1252           ) {
1253             push @or, %$r;
1254           }
1255
1256           else {
1257             push @or, $l, $r;
1258           }
1259         }
1260         else {
1261           push @or, $fin_idx->{$_};
1262         }
1263       }
1264
1265       $fin->{-or} = \@or;
1266     }
1267   }
1268   else {
1269     # not a hash not an array
1270     $fin = { -and => [ $where ] };
1271   }
1272
1273   # unroll single-element -and's
1274   while (
1275     $fin->{-and}
1276       and
1277     @{$fin->{-and}} < 2
1278   ) {
1279     my $and = delete $fin->{-and};
1280     last if @$and == 0;
1281
1282     # at this point we have @$and == 1
1283     if (
1284       ref $and->[0] eq 'HASH'
1285         and
1286       ! grep { exists $fin->{$_} } keys %{$and->[0]}
1287     ) {
1288       $fin = {
1289         %$fin, %{$and->[0]}
1290       };
1291     }
1292     else {
1293       $fin->{-and} = $and;
1294       last;
1295     }
1296   }
1297
1298   # compress same-column conds found in $fin
1299   for my $col ( grep { $_ !~ /^\-/ } keys %$fin ) {
1300     next unless ref $fin->{$col} eq 'ARRAY' and ($fin->{$col}[0]||'') =~ /^\-and$/i;
1301     my $val_bag = { map {
1302       (! defined $_ )                          ? ( UNDEF => undef )
1303     : ( ! length ref $_ or is_plain_value $_ ) ? ( "VAL_$_" => $_ )
1304     : ( ( 'SER_' . serialize $_ ) => $_ )
1305     } @{$fin->{$col}}[1 .. $#{$fin->{$col}}] };
1306
1307     if (keys %$val_bag == 1 ) {
1308       ($fin->{$col}) = values %$val_bag;
1309     }
1310     else {
1311       $fin->{$col} = [ -and => map { $val_bag->{$_} } sort keys %$val_bag ];
1312     }
1313   }
1314
1315   return keys %$fin ? $fin : ();
1316 }
1317
1318 sub _collapse_cond_unroll_pairs {
1319   my ($self, $pairs) = @_;
1320
1321   my @conds;
1322
1323   while (@$pairs) {
1324     my ($lhs, $rhs) = splice @$pairs, 0, 2;
1325
1326     if (! length $lhs) {
1327       push @conds, $self->_collapse_cond($rhs);
1328     }
1329     elsif ( $lhs =~ /^\-and$/i ) {
1330       push @conds, $self->_collapse_cond($rhs, (ref $rhs eq 'ARRAY'));
1331     }
1332     elsif ( $lhs =~ /^\-or$/i ) {
1333       push @conds, $self->_collapse_cond(
1334         (ref $rhs eq 'HASH') ? [ map { $_ => $rhs->{$_} } sort keys %$rhs ] : $rhs
1335       );
1336     }
1337     else {
1338       if (ref $rhs eq 'HASH' and ! keys %$rhs) {
1339         # FIXME - SQLA seems to be doing... nothing...?
1340       }
1341       # normalize top level -ident, for saner extract_fixed_condition_columns code
1342       elsif (ref $rhs eq 'HASH' and keys %$rhs == 1 and exists $rhs->{-ident}) {
1343         push @conds, { $lhs => { '=', $rhs } };
1344       }
1345       elsif (ref $rhs eq 'HASH' and keys %$rhs == 1 and exists $rhs->{-value} and is_plain_value $rhs->{-value}) {
1346         push @conds, { $lhs => $rhs->{-value} };
1347       }
1348       elsif (ref $rhs eq 'HASH' and keys %$rhs == 1 and exists $rhs->{'='}) {
1349         if ( length ref $rhs->{'='} and is_literal_value $rhs->{'='} ) {
1350           push @conds, { $lhs => $rhs };
1351         }
1352         else {
1353           for my $p ($self->_collapse_cond_unroll_pairs([ $lhs => $rhs->{'='} ])) {
1354
1355             # extra sanity check
1356             if (keys %$p > 1) {
1357               local $Data::Dumper::Deepcopy = 1;
1358               $self->throw_exception(
1359                 "Internal error: unexpected collapse unroll:"
1360               . dump_value { in => { $lhs => $rhs }, out => $p }
1361               );
1362             }
1363
1364             my ($l, $r) = %$p;
1365
1366             push @conds, (
1367               ! length ref $r
1368                 or
1369               # the unroller recursion may return a '=' prepended value already
1370               ref $r eq 'HASH' and keys %$rhs == 1 and exists $rhs->{'='}
1371                 or
1372               is_plain_value($r)
1373             )
1374               ? { $l => $r }
1375               : { $l => { '=' => $r } }
1376             ;
1377           }
1378         }
1379       }
1380       elsif (ref $rhs eq 'ARRAY') {
1381         # some of these conditionals encounter multi-values - roll them out using
1382         # an unshift, which will cause extra looping in the while{} above
1383         if (! @$rhs ) {
1384           push @conds, { $lhs => [] };
1385         }
1386         elsif ( ($rhs->[0]||'') =~ /^\-(?:and|or)$/i ) {
1387           $self->throw_exception("Value modifier not followed by any values: $lhs => [ $rhs->[0] ] ")
1388             if  @$rhs == 1;
1389
1390           if( $rhs->[0] =~ /^\-and$/i ) {
1391             unshift @$pairs, map { $lhs => $_ } @{$rhs}[1..$#$rhs];
1392           }
1393           # if not an AND then it's an OR
1394           elsif(@$rhs == 2) {
1395             unshift @$pairs, $lhs => $rhs->[1];
1396           }
1397           else {
1398             push @conds, { $lhs => [ @{$rhs}[1..$#$rhs] ] };
1399           }
1400         }
1401         elsif (@$rhs == 1) {
1402           unshift @$pairs, $lhs => $rhs->[0];
1403         }
1404         else {
1405           push @conds, { $lhs => $rhs };
1406         }
1407       }
1408       # unroll func + { -value => ... }
1409       elsif (
1410         ref $rhs eq 'HASH'
1411           and
1412         ( my ($subop) = keys %$rhs ) == 1
1413           and
1414         length ref ((values %$rhs)[0])
1415           and
1416         my $vref = is_plain_value( (values %$rhs)[0] )
1417       ) {
1418         push @conds, { $lhs => { $subop => $$vref } }
1419       }
1420       else {
1421         push @conds, { $lhs => $rhs };
1422       }
1423     }
1424   }
1425
1426   return @conds;
1427 }
1428
1429 # Analyzes a given condition and attempts to extract all columns
1430 # with a definitive fixed-condition criteria. Returns a hashref
1431 # of k/v pairs suitable to be passed to set_columns(), with a
1432 # MAJOR CAVEAT - multi-value (contradictory) equalities are still
1433 # represented as a reference to the UNRESOVABLE_CONDITION constant
1434 # The reason we do this is that some codepaths only care about the
1435 # codition being stable, as opposed to actually making sense
1436 #
1437 # The normal mode is used to figure out if a resultset is constrained
1438 # to a column which is part of a unique constraint, which in turn
1439 # allows us to better predict how ordering will behave etc.
1440 #
1441 # With the optional "consider_nulls" boolean argument, the function
1442 # is instead used to infer inambiguous values from conditions
1443 # (e.g. the inheritance of resultset conditions on new_result)
1444 #
1445 sub _extract_fixed_condition_columns {
1446   my ($self, $where, $consider_nulls) = @_;
1447   my $where_hash = $self->_collapse_cond($_[1]);
1448
1449   my $res = {};
1450   my ($c, $v);
1451   for $c (keys %$where_hash) {
1452     my $vals;
1453
1454     if (!defined ($v = $where_hash->{$c}) ) {
1455       $vals->{UNDEF} = $v if $consider_nulls
1456     }
1457     elsif (
1458       ref $v eq 'HASH'
1459         and
1460       keys %$v == 1
1461     ) {
1462       if (exists $v->{-value}) {
1463         if (defined $v->{-value}) {
1464           $vals->{"VAL_$v->{-value}"} = $v->{-value}
1465         }
1466         elsif( $consider_nulls ) {
1467           $vals->{UNDEF} = $v->{-value};
1468         }
1469       }
1470       # do not need to check for plain values - _collapse_cond did it for us
1471       elsif(
1472         length ref $v->{'='}
1473           and
1474         (
1475           ( ref $v->{'='} eq 'HASH' and keys %{$v->{'='}} == 1 and exists $v->{'='}{-ident} )
1476             or
1477           is_literal_value($v->{'='})
1478         )
1479        ) {
1480         $vals->{ 'SER_' . serialize $v->{'='} } = $v->{'='};
1481       }
1482     }
1483     elsif (
1484       ! length ref $v
1485         or
1486       is_plain_value ($v)
1487     ) {
1488       $vals->{"VAL_$v"} = $v;
1489     }
1490     elsif (ref $v eq 'ARRAY' and ($v->[0]||'') eq '-and') {
1491       for ( @{$v}[1..$#$v] ) {
1492         my $subval = $self->_extract_fixed_condition_columns({ $c => $_ }, 'consider nulls');  # always fish nulls out on recursion
1493         next unless exists $subval->{$c};  # didn't find anything
1494         $vals->{
1495           ! defined $subval->{$c}                                        ? 'UNDEF'
1496         : ( ! length ref $subval->{$c} or is_plain_value $subval->{$c} ) ? "VAL_$subval->{$c}"
1497         : ( 'SER_' . serialize $subval->{$c} )
1498         } = $subval->{$c};
1499       }
1500     }
1501
1502     if (keys %$vals == 1) {
1503       ($res->{$c}) = (values %$vals)
1504         unless !$consider_nulls and exists $vals->{UNDEF};
1505     }
1506     elsif (keys %$vals > 1) {
1507       $res->{$c} = UNRESOLVABLE_CONDITION;
1508     }
1509   }
1510
1511   $res;
1512 }
1513
1514 1;