Some cosmetic fixes in ANFANG
[dbsrgits/DBIx-Class.git] / lib / DBIx / Class / Storage / DBIHacks.pm
1 package   #hide from PAUSE
2   DBIx::Class::Storage::DBIHacks;
3
4 #
5 # This module contains code supporting a battery of special cases and tests for
6 # many corner cases pushing the envelope of what DBIC can do. When work on
7 # these utilities began in mid 2009 (51a296b402c) it wasn't immediately obvious
8 # that these pieces, despite their misleading on-first-sighe-flakiness, will
9 # become part of the generic query rewriting machinery of DBIC, allowing it to
10 # both generate and process queries representing incredibly complex sets with
11 # reasonable efficiency.
12 #
13 # Now (end of 2015), more than 6 years later the routines in this class have
14 # stabilized enough, and are meticulously covered with tests, to a point where
15 # an effort to formalize them into user-facing APIs might be worthwhile.
16 #
17 # An implementor working on publicizing and/or replacing the routines with a
18 # more modern SQL generation framework should keep in mind that pretty much all
19 # existing tests are constructed on the basis of real-world code used in
20 # production somewhere.
21 #
22 # Please hack on this responsibly ;)
23 #
24
25 use strict;
26 use warnings;
27
28 use base 'DBIx::Class::Storage';
29 use mro 'c3';
30
31 use Scalar::Util 'blessed';
32 use DBIx::Class::_Util qw(UNRESOLVABLE_CONDITION serialize dump_value);
33 use SQL::Abstract qw(is_plain_value is_literal_value);
34 use DBIx::Class::Carp;
35 use namespace::clean;
36
37 #
38 # This code will remove non-selecting/non-restricting joins from
39 # {from} specs, aiding the RDBMS query optimizer
40 #
41 sub _prune_unused_joins {
42   my ($self, $attrs) = @_;
43
44   # only standard {from} specs are supported, and we could be disabled in general
45   return ($attrs->{from}, {})  unless (
46     ref $attrs->{from} eq 'ARRAY'
47       and
48     @{$attrs->{from}} > 1
49       and
50     ref $attrs->{from}[0] eq 'HASH'
51       and
52     ref $attrs->{from}[1] eq 'ARRAY'
53       and
54     $self->_use_join_optimizer
55   );
56
57   my $orig_aliastypes =
58     $attrs->{_precalculated_aliastypes}
59       ||
60     $self->_resolve_aliastypes_from_select_args($attrs)
61   ;
62
63   my $new_aliastypes = { %$orig_aliastypes };
64
65   # we will be recreating this entirely
66   my @reclassify = 'joining';
67
68   # a grouped set will not be affected by amount of rows. Thus any
69   # purely multiplicator classifications can go
70   # (will be reintroduced below if needed by something else)
71   push @reclassify, qw(multiplying premultiplied)
72     if $attrs->{_force_prune_multiplying_joins} or $attrs->{group_by};
73
74   # nuke what will be recalculated
75   delete @{$new_aliastypes}{@reclassify};
76
77   my @newfrom = $attrs->{from}[0]; # FROM head is always present
78
79   # recalculate what we need once the multipliers are potentially gone
80   # ignore premultiplies, since they do not add any value to anything
81   my %need_joins;
82   for ( @{$new_aliastypes}{grep { $_ ne 'premultiplied' } keys %$new_aliastypes }) {
83     # add all requested aliases
84     $need_joins{$_} = 1 for keys %$_;
85
86     # add all their parents (as per joinpath which is an AoH { table => alias })
87     $need_joins{$_} = 1 for map { values %$_ } map { @{$_->{-parents}} } values %$_;
88   }
89
90   for my $j (@{$attrs->{from}}[1..$#{$attrs->{from}}]) {
91     push @newfrom, $j if (
92       (! defined $j->[0]{-alias}) # legacy crap
93         ||
94       $need_joins{$j->[0]{-alias}}
95     );
96   }
97
98   # we have a new set of joiners - for everything we nuked pull the classification
99   # off the original stack
100   for my $ctype (@reclassify) {
101     $new_aliastypes->{$ctype} = { map
102       { $need_joins{$_} ? ( $_ => $orig_aliastypes->{$ctype}{$_} ) : () }
103       keys %{$orig_aliastypes->{$ctype}}
104     }
105   }
106
107   return ( \@newfrom, $new_aliastypes );
108 }
109
110 #
111 # This is the code producing joined subqueries like:
112 # SELECT me.*, other.* FROM ( SELECT me.* FROM ... ) JOIN other ON ...
113 #
114 sub _adjust_select_args_for_complex_prefetch {
115   my ($self, $attrs) = @_;
116
117   $self->throw_exception ('Complex prefetches are not supported on resultsets with a custom from attribute') unless (
118     ref $attrs->{from} eq 'ARRAY'
119       and
120     @{$attrs->{from}} > 1
121       and
122     ref $attrs->{from}[0] eq 'HASH'
123       and
124     ref $attrs->{from}[1] eq 'ARRAY'
125   );
126
127   my $root_alias = $attrs->{alias};
128
129   # generate inner/outer attribute lists, remove stuff that doesn't apply
130   my $outer_attrs = { %$attrs };
131   delete @{$outer_attrs}{qw(from bind rows offset group_by _grouped_by_distinct having)};
132
133   my $inner_attrs = { %$attrs, _simple_passthrough_construction => 1 };
134   delete @{$inner_attrs}{qw(for collapse select as)};
135
136   # there is no point of ordering the insides if there is no limit
137   delete $inner_attrs->{order_by} if (
138     delete $inner_attrs->{_order_is_artificial}
139       or
140     ! $inner_attrs->{rows}
141   );
142
143   # generate the inner/outer select lists
144   # for inside we consider only stuff *not* brought in by the prefetch
145   # on the outside we substitute any function for its alias
146   $outer_attrs->{select} = [ @{$attrs->{select}} ];
147
148   my ($root_node, $root_node_offset);
149
150   for my $i (0 .. $#{$inner_attrs->{from}}) {
151     my $node = $inner_attrs->{from}[$i];
152     my $h = (ref $node eq 'HASH')                                ? $node
153           : (ref $node  eq 'ARRAY' and ref $node->[0] eq 'HASH') ? $node->[0]
154           : next
155     ;
156
157     if ( ($h->{-alias}||'') eq $root_alias and $h->{-rsrc} ) {
158       $root_node = $h;
159       $root_node_offset = $i;
160       last;
161     }
162   }
163
164   $self->throw_exception ('Complex prefetches are not supported on resultsets with a custom from attribute')
165     unless $root_node;
166
167   # use the heavy duty resolver to take care of aliased/nonaliased naming
168   my $colinfo = $self->_resolve_column_info($inner_attrs->{from});
169   my $selected_root_columns;
170
171   for my $i (0 .. $#{$outer_attrs->{select}}) {
172     my $sel = $outer_attrs->{select}->[$i];
173
174     next if (
175       $colinfo->{$sel} and $colinfo->{$sel}{-source_alias} ne $root_alias
176     );
177
178     if (ref $sel eq 'HASH' ) {
179       $sel->{-as} ||= $attrs->{as}[$i];
180       $outer_attrs->{select}->[$i] = join ('.', $root_alias, ($sel->{-as} || "inner_column_$i") );
181     }
182     elsif (! ref $sel and my $ci = $colinfo->{$sel}) {
183       $selected_root_columns->{$ci->{-colname}} = 1;
184     }
185
186     push @{$inner_attrs->{select}}, $sel;
187
188     push @{$inner_attrs->{as}}, $attrs->{as}[$i];
189   }
190
191   my $inner_aliastypes = $self->_resolve_aliastypes_from_select_args($inner_attrs);
192
193   # In the inner subq we will need to fetch *only* native columns which may
194   # be a part of an *outer* join condition, or an order_by (which needs to be
195   # preserved outside), or wheres. In other words everything but the inner
196   # selector
197   # We can not just fetch everything because a potential has_many restricting
198   # join collapse *will not work* on heavy data types.
199
200   # essentially a map of all non-selecting seen columns
201   # the sort is there for a nicer select list
202   for (
203     sort
204       map
205         { keys %{$_->{-seen_columns}||{}} }
206         map
207           { values %{$inner_aliastypes->{$_}} }
208           grep
209             { $_ ne 'selecting' }
210             keys %$inner_aliastypes
211   ) {
212     my $ci = $colinfo->{$_} or next;
213     if (
214       $ci->{-source_alias} eq $root_alias
215         and
216       ! $selected_root_columns->{$ci->{-colname}}++
217     ) {
218       # adding it to both to keep limits not supporting dark selectors happy
219       push @{$inner_attrs->{select}}, $ci->{-fq_colname};
220       push @{$inner_attrs->{as}}, $ci->{-fq_colname};
221     }
222   }
223
224   # construct the inner {from} and lock it in a subquery
225   # we need to prune first, because this will determine if we need a group_by below
226   # throw away all non-selecting, non-restricting multijoins
227   # (since we def. do not care about multiplication of the contents of the subquery)
228   my $inner_subq = do {
229
230     # must use it here regardless of user requests (vastly gentler on optimizer)
231     local $self->{_use_join_optimizer} = 1
232       unless $self->{_use_join_optimizer};
233
234     # throw away multijoins since we def. do not care about those inside the subquery
235     # $inner_aliastypes *will* be redefined at this point
236     ($inner_attrs->{from}, $inner_aliastypes ) = $self->_prune_unused_joins ({
237       %$inner_attrs,
238       _force_prune_multiplying_joins => 1,
239       _precalculated_aliastypes => $inner_aliastypes,
240     });
241
242     # uh-oh a multiplier (which is not us) left in, this is a problem for limits
243     # we will need to add a group_by to collapse the resultset for proper counts
244     if (
245       grep { $_ ne $root_alias } keys %{ $inner_aliastypes->{multiplying} || {} }
246         and
247       # if there are user-supplied groups - assume user knows wtf they are up to
248       ( ! $inner_aliastypes->{grouping} or $inner_attrs->{_grouped_by_distinct} )
249     ) {
250
251       my $cur_sel = { map { $_ => 1 } @{$inner_attrs->{select}} };
252
253       # *possibly* supplement the main selection with pks if not already
254       # there, as they will have to be a part of the group_by to collapse
255       # things properly
256       my $inner_select_with_extras;
257       my @pks = map { "$root_alias.$_" } $root_node->{-rsrc}->primary_columns
258         or $self->throw_exception( sprintf
259           'Unable to perform complex limited prefetch off %s without declared primary key',
260           $root_node->{-rsrc}->source_name,
261         );
262       for my $col (@pks) {
263         push @{ $inner_select_with_extras ||= [ @{$inner_attrs->{select}} ] }, $col
264           unless $cur_sel->{$col}++;
265       }
266
267       ($inner_attrs->{group_by}, $inner_attrs->{order_by}) = $self->_group_over_selection({
268         %$inner_attrs,
269         $inner_select_with_extras ? ( select => $inner_select_with_extras ) : (),
270         _aliastypes => $inner_aliastypes,
271       });
272     }
273
274     # we already optimized $inner_attrs->{from} above
275     # and already local()ized
276     $self->{_use_join_optimizer} = 0;
277
278     # generate the subquery
279     $self->_select_args_to_query (
280       @{$inner_attrs}{qw(from select where)},
281       $inner_attrs,
282     );
283   };
284
285   # Generate the outer from - this is relatively easy (really just replace
286   # the join slot with the subquery), with a major caveat - we can not
287   # join anything that is non-selecting (not part of the prefetch), but at
288   # the same time is a multi-type relationship, as it will explode the result.
289   #
290   # There are two possibilities here
291   # - either the join is non-restricting, in which case we simply throw it away
292   # - it is part of the restrictions, in which case we need to collapse the outer
293   #   result by tackling yet another group_by to the outside of the query
294
295   # work on a shallow copy
296   my @orig_from = @{$attrs->{from}};
297
298
299   $outer_attrs->{from} = \ my @outer_from;
300
301   # we may not be the head
302   if ($root_node_offset) {
303     # first generate the outer_from, up to the substitution point
304     @outer_from = splice @orig_from, 0, $root_node_offset;
305
306     # substitute the subq at the right spot
307     push @outer_from, [
308       {
309         -alias => $root_alias,
310         -rsrc => $root_node->{-rsrc},
311         $root_alias => $inner_subq,
312       },
313       # preserve attrs from what is now the head of the from after the splice
314       @{$orig_from[0]}[1 .. $#{$orig_from[0]}],
315     ];
316   }
317   else {
318     @outer_from = {
319       -alias => $root_alias,
320       -rsrc => $root_node->{-rsrc},
321       $root_alias => $inner_subq,
322     };
323   }
324
325   shift @orig_from; # what we just replaced above
326
327   # scan the *remaining* from spec against different attributes, and see which joins are needed
328   # in what role
329   my $outer_aliastypes = $outer_attrs->{_aliastypes} =
330     $self->_resolve_aliastypes_from_select_args({ %$outer_attrs, from => \@orig_from });
331
332   # unroll parents
333   my ($outer_select_chain, @outer_nonselecting_chains) = map { +{
334     map { $_ => 1 } map { values %$_} map { @{$_->{-parents}} } values %{ $outer_aliastypes->{$_} || {} }
335   } } qw/selecting restricting grouping ordering/;
336
337   # see what's left - throw away if not selecting/restricting
338   my $may_need_outer_group_by;
339   while (my $j = shift @orig_from) {
340     my $alias = $j->[0]{-alias};
341
342     if (
343       $outer_select_chain->{$alias}
344     ) {
345       push @outer_from, $j
346     }
347     elsif (grep { $_->{$alias} } @outer_nonselecting_chains ) {
348       push @outer_from, $j;
349       $may_need_outer_group_by ||= $outer_aliastypes->{multiplying}{$alias} ? 1 : 0;
350     }
351   }
352
353   # also throw in a synthetic group_by if a non-selecting multiplier,
354   # to guard against cross-join explosions
355   # the logic is somewhat fragile, but relies on the idea that if a user supplied
356   # a group by on their own - they know what they were doing
357   if ( $may_need_outer_group_by and $attrs->{_grouped_by_distinct} ) {
358     ($outer_attrs->{group_by}, $outer_attrs->{order_by}) = $self->_group_over_selection ({
359       %$outer_attrs,
360       from => \@outer_from,
361     });
362   }
363
364   # FIXME: The {where} ends up in both the inner and outer query, i.e. *twice*
365   #
366   # This is rather horrific, and while we currently *do* have enough
367   # introspection tooling available to attempt a stab at properly deciding
368   # whether or not to include the where condition on the outside, the
369   # machinery is still too slow to apply it here.
370   # Thus for the time being we do not attempt any sanitation of the where
371   # clause and just pass it through on both sides of the subquery. This *will*
372   # be addressed at a later stage, most likely after folding the SQL generator
373   # into SQLMaker proper
374   #
375   # OTOH it can be seen as a plus: <ash> (notes that this query would make a DBA cry ;)
376   #
377   return $outer_attrs;
378 }
379
380 # This is probably the ickiest, yet most relied upon part of the codebase:
381 # this is the place where we take arbitrary SQL input and break it into its
382 # constituent parts, making sure we know which *sources* are used in what
383 # *capacity* ( selecting / restricting / grouping / ordering / joining, etc )
384 # Although the method is pretty horrific, the worst thing that can happen is
385 # for a classification failure, which in turn will result in a vocal exception,
386 # and will lead to a relatively prompt fix.
387 # The code has been slowly improving and is covered with a formiddable battery
388 # of tests, so can be considered "reliably stable" at this point (Oct 2015).
389 #
390 # A note to implementors attempting to "replace" this - keep in mind that while
391 # there are multiple optimization avenues, the actual "scan literal elements"
392 # part *MAY NEVER BE REMOVED*, even if it is limited only ot the (future) AST
393 # nodes that are deemed opaque (i.e. contain literal expressions). The use of
394 # blackbox literals is at this point firmly a user-facing API, and is one of
395 # *the* reasons DBIC remains as flexible as it is. In other words, when working
396 # on this keep in mind that the following is widespread and *encouraged* way
397 # of using DBIC in the wild when push comes to shove:
398 #
399 # $rs->search( {}, {
400 #   select => \[ $random, @stuff],
401 #   from => \[ $random, @stuff ],
402 #   where => \[ $random, @stuff ],
403 #   group_by => \[ $random, @stuff ],
404 #   order_by => \[ $random, @stuff ],
405 # } )
406 #
407 # Various incarnations of the above are reflected in many of the tests. If one
408 # gets to fail, you get to fix it. A "this is crazy, nobody does that" is not
409 # acceptable going forward.
410 #
411 sub _resolve_aliastypes_from_select_args {
412   my ( $self, $attrs ) = @_;
413
414   $self->throw_exception ('Unable to analyze custom {from}')
415     if ref $attrs->{from} ne 'ARRAY';
416
417   # what we will return
418   my $aliases_by_type;
419
420   # see what aliases are there to work with
421   # and record who is a multiplier and who is premultiplied
422   my $alias_list;
423   for my $node (@{$attrs->{from}}) {
424
425     my $j = $node;
426     $j = $j->[0] if ref $j eq 'ARRAY';
427     my $al = $j->{-alias}
428       or next;
429
430     $alias_list->{$al} = $j;
431
432     $aliases_by_type->{multiplying}{$al} ||= { -parents => $j->{-join_path}||[] }
433       # not array == {from} head == can't be multiplying
434       if ref($node) eq 'ARRAY' and ! $j->{-is_single};
435
436     $aliases_by_type->{premultiplied}{$al} ||= { -parents => $j->{-join_path}||[] }
437       # parts of the path that are not us but are multiplying
438       if grep { $aliases_by_type->{multiplying}{$_} }
439           grep { $_ ne $al }
440            map { values %$_ }
441             @{ $j->{-join_path}||[] }
442   }
443
444   # get a column to source/alias map (including unambiguous unqualified ones)
445   my $colinfo = $self->_resolve_column_info ($attrs->{from});
446
447   # set up a botched SQLA
448   my $sql_maker = $self->sql_maker;
449
450   # these are throw away results, do not pollute the bind stack
451   local $sql_maker->{where_bind};
452   local $sql_maker->{group_bind};
453   local $sql_maker->{having_bind};
454   local $sql_maker->{from_bind};
455
456   # we can't scan properly without any quoting (\b doesn't cut it
457   # everywhere), so unless there is proper quoting set - use our
458   # own weird impossible character.
459   # Also in the case of no quoting, we need to explicitly disable
460   # name_sep, otherwise sorry nasty legacy syntax like
461   # { 'count(foo.id)' => { '>' => 3 } } will stop working >:(
462   local $sql_maker->{quote_char} = $sql_maker->{quote_char};
463   local $sql_maker->{name_sep} = $sql_maker->{name_sep};
464
465   unless (defined $sql_maker->{quote_char} and length $sql_maker->{quote_char}) {
466     $sql_maker->{quote_char} = ["\x00", "\xFF"];
467     # if we don't unset it we screw up retarded but unfortunately working
468     # 'MAX(foo.bar)' => { '>', 3 }
469     $sql_maker->{name_sep} = '';
470   }
471
472   my ($lquote, $rquote, $sep) = map { quotemeta $_ } ($sql_maker->_quote_chars, $sql_maker->name_sep);
473
474   # generate sql chunks
475   my $to_scan = {
476     restricting => [
477       ($sql_maker->_recurse_where ($attrs->{where}))[0],
478       $sql_maker->_parse_rs_attrs ({ having => $attrs->{having} }),
479     ],
480     grouping => [
481       $sql_maker->_parse_rs_attrs ({ group_by => $attrs->{group_by} }),
482     ],
483     joining => [
484       $sql_maker->_recurse_from (
485         ref $attrs->{from}[0] eq 'ARRAY' ? $attrs->{from}[0][0] : $attrs->{from}[0],
486         @{$attrs->{from}}[1 .. $#{$attrs->{from}}],
487       ),
488     ],
489     selecting => [
490       # kill all selectors which look like a proper subquery
491       # this is a sucky heuristic *BUT* - if we get it wrong the query will simply
492       # fail to run, so we are relatively safe
493       grep
494         { $_ !~ / \A \s* \( \s* SELECT \s+ .+? \s+ FROM \s+ .+? \) \s* \z /xsi }
495         map
496           { ($sql_maker->_recurse_fields($_))[0] }
497           @{$attrs->{select}}
498     ],
499     ordering => [ map
500       {
501         ( my $sql = (ref $_ ? $_->[0] : $_) ) =~ s/ \s+ (?: ASC | DESC ) \s* \z //xi;
502         $sql;
503       }
504       $sql_maker->_order_by_chunks( $attrs->{order_by} ),
505     ],
506   };
507
508   # we will be bulk-scanning anyway - pieces will not matter in that case,
509   # thus join everything up
510   # throw away empty-string chunks, and make sure no binds snuck in
511   # note that we operate over @{$to_scan->{$type}}, hence the
512   # semi-mindbending ... map ... for values ...
513   ( $_ = join ' ', map {
514
515     ( ! defined $_ )  ? ()
516   : ( length ref $_ ) ? $self->throw_exception(
517                           "Unexpected ref in scan-plan: " . dump_value $_
518                         )
519   : ( $_ =~ /^\s*$/ ) ? ()
520                       : $_
521
522   } @$_ ) for values %$to_scan;
523
524   # throw away empty to-scan's
525   (
526     length $to_scan->{$_}
527       or
528     delete $to_scan->{$_}
529   ) for keys %$to_scan;
530
531
532
533   # these will be used for matching in the loop below
534   my $all_aliases = join ' | ', map { quotemeta $_ } keys %$alias_list;
535   my $fq_col_re = qr/
536     $lquote ( $all_aliases ) $rquote $sep (?: $lquote ([^$rquote]+) $rquote )?
537          |
538     \b ( $all_aliases ) \. ( [^\s\)\($rquote]+ )?
539   /x;
540
541
542   my $all_unq_columns = join ' | ',
543     map
544       { quotemeta $_ }
545       grep
546         # using a regex here shows up on profiles, boggle
547         { index( $_, '.') < 0 }
548         keys %$colinfo
549   ;
550   my $unq_col_re = $all_unq_columns
551     ? qr/
552       $lquote ( $all_unq_columns ) $rquote
553         |
554       (?: \A | \s ) ( $all_unq_columns ) (?: \s | \z )
555     /x
556     : undef
557   ;
558
559
560   # the actual scan, per type
561   for my $type (keys %$to_scan) {
562
563
564     # now loop through all fully qualified columns and get the corresponding
565     # alias (should work even if they are in scalarrefs)
566     #
567     # The regex captures in multiples of 4, with one of the two pairs being
568     # undef. There may be a *lot* of matches, hence the convoluted loop
569     my @matches = $to_scan->{$type} =~ /$fq_col_re/g;
570     my $i = 0;
571     while( $i < $#matches ) {
572
573       if (
574         defined $matches[$i]
575       ) {
576         $aliases_by_type->{$type}{$matches[$i]} ||= { -parents => $alias_list->{$matches[$i]}{-join_path}||[] };
577
578         $aliases_by_type->{$type}{$matches[$i]}{-seen_columns}{"$matches[$i].$matches[$i+1]"} = "$matches[$i].$matches[$i+1]"
579           if defined $matches[$i+1];
580
581         $i += 2;
582       }
583
584       $i += 2;
585     }
586
587
588     # now loop through unqualified column names, and try to locate them within
589     # the chunks, if there are any unqualified columns in the 1st place
590     next unless $unq_col_re;
591
592     # The regex captures in multiples of 2, one of the two being undef
593     for ( $to_scan->{$type} =~ /$unq_col_re/g ) {
594       defined $_ or next;
595       my $alias = $colinfo->{$_}{-source_alias} or next;
596       $aliases_by_type->{$type}{$alias} ||= { -parents => $alias_list->{$alias}{-join_path}||[] };
597       $aliases_by_type->{$type}{$alias}{-seen_columns}{"$alias.$_"} = $_
598     }
599   }
600
601
602   # Add any non-left joins to the restriction list (such joins are indeed restrictions)
603   (
604     $_->{-alias}
605       and
606     ! $aliases_by_type->{restricting}{ $_->{-alias} }
607       and
608     (
609       not $_->{-join_type}
610         or
611       $_->{-join_type} !~ /^left (?: \s+ outer)? $/xi
612     )
613       and
614     $aliases_by_type->{restricting}{ $_->{-alias} } = { -parents => $_->{-join_path}||[] }
615   ) for values %$alias_list;
616
617
618   # final cleanup
619   (
620     keys %{$aliases_by_type->{$_}}
621       or
622     delete $aliases_by_type->{$_}
623   ) for keys %$aliases_by_type;
624
625
626   $aliases_by_type;
627 }
628
629 # This is the engine behind { distinct => 1 } and the general
630 # complex prefetch grouper
631 sub _group_over_selection {
632   my ($self, $attrs) = @_;
633
634   my $colinfos = $self->_resolve_column_info ($attrs->{from});
635
636   my (@group_by, %group_index);
637
638   # the logic is: if it is a { func => val } we assume an aggregate,
639   # otherwise if \'...' or \[...] we assume the user knows what is
640   # going on thus group over it
641   for (@{$attrs->{select}}) {
642     if (! ref($_) or ref ($_) ne 'HASH' ) {
643       push @group_by, $_;
644       $group_index{$_}++;
645       if ($colinfos->{$_} and $_ !~ /\./ ) {
646         # add a fully qualified version as well
647         $group_index{"$colinfos->{$_}{-source_alias}.$_"}++;
648       }
649     }
650   }
651
652   my @order_by = $self->_extract_order_criteria($attrs->{order_by})
653     or return (\@group_by, $attrs->{order_by});
654
655   # add any order_by parts that are not already present in the group_by
656   # to maintain SQL cross-compatibility and general sanity
657   #
658   # also in case the original selection is *not* unique, or in case part
659   # of the ORDER BY refers to a multiplier - we will need to replace the
660   # skipped order_by elements with their MIN/MAX equivalents as to maintain
661   # the proper overall order without polluting the group criteria (and
662   # possibly changing the outcome entirely)
663
664   my ($leftovers, $sql_maker, @new_order_by, $order_chunks, $aliastypes);
665
666   my $group_already_unique = $self->_columns_comprise_identifying_set($colinfos, \@group_by);
667
668   for my $o_idx (0 .. $#order_by) {
669
670     # if the chunk is already a min/max function - there is nothing left to touch
671     next if $order_by[$o_idx][0] =~ /^ (?: min | max ) \s* \( .+ \) $/ix;
672
673     # only consider real columns (for functions the user got to do an explicit group_by)
674     my $chunk_ci;
675     if (
676       @{$order_by[$o_idx]} != 1
677         or
678       # only declare an unknown *plain* identifier as "leftover" if we are called with
679       # aliastypes to examine. If there are none - we are still in _resolve_attrs, and
680       # can just assume the user knows what they want
681       ( ! ( $chunk_ci = $colinfos->{$order_by[$o_idx][0]} ) and $attrs->{_aliastypes} )
682     ) {
683       push @$leftovers, $order_by[$o_idx][0];
684     }
685
686     next unless $chunk_ci;
687
688     # no duplication of group criteria
689     next if $group_index{$chunk_ci->{-fq_colname}};
690
691     $aliastypes ||= (
692       $attrs->{_aliastypes}
693         or
694       $self->_resolve_aliastypes_from_select_args({
695         from => $attrs->{from},
696         order_by => $attrs->{order_by},
697       })
698     ) if $group_already_unique;
699
700     # check that we are not ordering by a multiplier (if a check is requested at all)
701     if (
702       $group_already_unique
703         and
704       ! $aliastypes->{multiplying}{$chunk_ci->{-source_alias}}
705         and
706       ! $aliastypes->{premultiplied}{$chunk_ci->{-source_alias}}
707     ) {
708       push @group_by, $chunk_ci->{-fq_colname};
709       $group_index{$chunk_ci->{-fq_colname}}++
710     }
711     else {
712       # We need to order by external columns without adding them to the group
713       # (eiehter a non-unique selection, or a multi-external)
714       #
715       # This doesn't really make sense in SQL, however from DBICs point
716       # of view is rather valid (e.g. order the leftmost objects by whatever
717       # criteria and get the offset/rows many). There is a way around
718       # this however in SQL - we simply tae the direction of each piece
719       # of the external order and convert them to MIN(X) for ASC or MAX(X)
720       # for DESC, and group_by the root columns. The end result should be
721       # exactly what we expect
722       #
723
724       # both populated on the first loop over $o_idx
725       $sql_maker ||= $self->sql_maker;
726       $order_chunks ||= [
727         map { ref $_ eq 'ARRAY' ? $_ : [ $_ ] } $sql_maker->_order_by_chunks($attrs->{order_by})
728       ];
729
730       my ($chunk, $is_desc) = $sql_maker->_split_order_chunk($order_chunks->[$o_idx][0]);
731
732       # we reached that far - wrap any part of the order_by that "responded"
733       # to an ordering alias into a MIN/MAX
734       $new_order_by[$o_idx] = \[
735         sprintf( '%s( %s )%s',
736           $self->_minmax_operator_for_datatype($chunk_ci->{data_type}, $is_desc),
737           $chunk,
738           ($is_desc ? ' DESC' : ''),
739         ),
740         @ {$order_chunks->[$o_idx]} [ 1 .. $#{$order_chunks->[$o_idx]} ]
741       ];
742     }
743   }
744
745   $self->throw_exception ( sprintf
746     'Unable to programatically derive a required group_by from the supplied '
747   . 'order_by criteria. To proceed either add an explicit group_by, or '
748   . 'simplify your order_by to only include plain columns '
749   . '(supplied order_by: %s)',
750     join ', ', map { "'$_'" } @$leftovers,
751   ) if $leftovers;
752
753   # recreate the untouched order parts
754   if (@new_order_by) {
755     $new_order_by[$_] ||= \ $order_chunks->[$_] for ( 0 .. $#$order_chunks );
756   }
757
758   return (
759     \@group_by,
760     (@new_order_by ? \@new_order_by : $attrs->{order_by} ),  # same ref as original == unchanged
761   );
762 }
763
764 sub _minmax_operator_for_datatype {
765   #my ($self, $datatype, $want_max) = @_;
766
767   $_[2] ? 'MAX' : 'MIN';
768 }
769
770 sub _resolve_ident_sources {
771   my ($self, $ident) = @_;
772
773   my $alias2source = {};
774
775   # the reason this is so contrived is that $ident may be a {from}
776   # structure, specifying multiple tables to join
777   if ( blessed $ident && $ident->isa("DBIx::Class::ResultSource") ) {
778     # this is compat mode for insert/update/delete which do not deal with aliases
779     $alias2source->{me} = $ident;
780   }
781   elsif (ref $ident eq 'ARRAY') {
782
783     for (@$ident) {
784       my $tabinfo;
785       if (ref $_ eq 'HASH') {
786         $tabinfo = $_;
787       }
788       if (ref $_ eq 'ARRAY' and ref $_->[0] eq 'HASH') {
789         $tabinfo = $_->[0];
790       }
791
792       $alias2source->{$tabinfo->{-alias}} = $tabinfo->{-rsrc}
793         if ($tabinfo->{-rsrc});
794     }
795   }
796
797   return $alias2source;
798 }
799
800 # Takes $ident, \@column_names
801 #
802 # returns { $column_name => \%column_info, ... }
803 # also note: this adds -result_source => $rsrc to the column info
804 #
805 # If no columns_names are supplied returns info about *all* columns
806 # for all sources
807 sub _resolve_column_info {
808   my ($self, $ident, $colnames) = @_;
809
810   return {} if $colnames and ! @$colnames;
811
812   my $sources = $self->_resolve_ident_sources($ident);
813
814   $_ = { rsrc => $_, colinfos => $_->columns_info }
815     for values %$sources;
816
817   my (%seen_cols, @auto_colnames);
818
819   # compile a global list of column names, to be able to properly
820   # disambiguate unqualified column names (if at all possible)
821   for my $alias (keys %$sources) {
822     (
823       ++$seen_cols{$_}{$alias}
824         and
825       ! $colnames
826         and
827       push @auto_colnames, "$alias.$_"
828     ) for keys %{ $sources->{$alias}{colinfos} };
829   }
830
831   $colnames ||= [
832     @auto_colnames,
833     ( grep { keys %{$seen_cols{$_}} == 1 } keys %seen_cols ),
834   ];
835
836   my %return;
837   for (@$colnames) {
838     my ($colname, $source_alias) = reverse split /\./, $_;
839
840     my $assumed_alias =
841       $source_alias
842         ||
843       # if the column was seen exactly once - we know which rsrc it came from
844       (
845         $seen_cols{$colname}
846           and
847         keys %{$seen_cols{$colname}} == 1
848           and
849         ( %{$seen_cols{$colname}} )[0]
850       )
851         ||
852       next
853     ;
854
855     $self->throw_exception(
856       "No such column '$colname' on source " . $sources->{$assumed_alias}{rsrc}->source_name
857     ) unless $seen_cols{$colname}{$assumed_alias};
858
859     $return{$_} = {
860       %{ $sources->{$assumed_alias}{colinfos}{$colname} },
861       -result_source => $sources->{$assumed_alias}{rsrc},
862       -source_alias => $assumed_alias,
863       -fq_colname => "$assumed_alias.$colname",
864       -colname => $colname,
865     };
866
867     $return{"$assumed_alias.$colname"} = $return{$_}
868       unless $source_alias;
869   }
870
871   return \%return;
872 }
873
874 # The DBIC relationship chaining implementation is pretty simple - every
875 # new related_relationship is pushed onto the {from} stack, and the {select}
876 # window simply slides further in. This means that when we count somewhere
877 # in the middle, we got to make sure that everything in the join chain is an
878 # actual inner join, otherwise the count will come back with unpredictable
879 # results (a resultset may be generated with _some_ rows regardless of if
880 # the relation which the $rs currently selects has rows or not). E.g.
881 # $artist_rs->cds->count - normally generates:
882 # SELECT COUNT( * ) FROM artist me LEFT JOIN cd cds ON cds.artist = me.artistid
883 # which actually returns the number of artists * (number of cds || 1)
884 #
885 # So what we do here is crawl {from}, determine if the current alias is at
886 # the top of the stack, and if not - make sure the chain is inner-joined down
887 # to the root.
888 #
889 sub _inner_join_to_node {
890   my ($self, $from, $alias) = @_;
891
892   my $switch_branch = $self->_find_join_path_to_node($from, $alias);
893
894   return $from unless @{$switch_branch||[]};
895
896   # So it looks like we will have to switch some stuff around.
897   # local() is useless here as we will be leaving the scope
898   # anyway, and deep cloning is just too fucking expensive
899   # So replace the first hashref in the node arrayref manually
900   my @new_from = ($from->[0]);
901   my $sw_idx = { map { (values %$_), 1 } @$switch_branch }; #there's one k/v per join-path
902
903   for my $j (@{$from}[1 .. $#$from]) {
904     my $jalias = $j->[0]{-alias};
905
906     if ($sw_idx->{$jalias}) {
907       my %attrs = %{$j->[0]};
908       delete $attrs{-join_type};
909       push @new_from, [
910         \%attrs,
911         @{$j}[ 1 .. $#$j ],
912       ];
913     }
914     else {
915       push @new_from, $j;
916     }
917   }
918
919   return \@new_from;
920 }
921
922 sub _find_join_path_to_node {
923   my ($self, $from, $target_alias) = @_;
924
925   # subqueries and other oddness are naturally not supported
926   return undef if (
927     ref $from ne 'ARRAY'
928       ||
929     ref $from->[0] ne 'HASH'
930       ||
931     ! defined $from->[0]{-alias}
932   );
933
934   # no path - the head is the alias
935   return [] if $from->[0]{-alias} eq $target_alias;
936
937   for my $i (1 .. $#$from) {
938     return $from->[$i][0]{-join_path} if ( ($from->[$i][0]{-alias}||'') eq $target_alias );
939   }
940
941   # something else went quite wrong
942   return undef;
943 }
944
945 sub _extract_order_criteria {
946   my ($self, $order_by, $sql_maker) = @_;
947
948   my $parser = sub {
949     my ($sql_maker, $order_by, $orig_quote_chars) = @_;
950
951     return scalar $sql_maker->_order_by_chunks ($order_by)
952       unless wantarray;
953
954     my ($lq, $rq, $sep) = map { quotemeta($_) } (
955       ($orig_quote_chars ? @$orig_quote_chars : $sql_maker->_quote_chars),
956       $sql_maker->name_sep
957     );
958
959     my @chunks;
960     for ($sql_maker->_order_by_chunks ($order_by) ) {
961       my $chunk = ref $_ ? [ @$_ ] : [ $_ ];
962       ($chunk->[0]) = $sql_maker->_split_order_chunk($chunk->[0]);
963
964       # order criteria may have come back pre-quoted (literals and whatnot)
965       # this is fragile, but the best we can currently do
966       $chunk->[0] =~ s/^ $lq (.+?) $rq $sep $lq (.+?) $rq $/"$1.$2"/xe
967         or $chunk->[0] =~ s/^ $lq (.+) $rq $/$1/x;
968
969       push @chunks, $chunk;
970     }
971
972     return @chunks;
973   };
974
975   if ($sql_maker) {
976     return $parser->($sql_maker, $order_by);
977   }
978   else {
979     $sql_maker = $self->sql_maker;
980
981     # pass these in to deal with literals coming from
982     # the user or the deep guts of prefetch
983     my $orig_quote_chars = [$sql_maker->_quote_chars];
984
985     local $sql_maker->{quote_char};
986     return $parser->($sql_maker, $order_by, $orig_quote_chars);
987   }
988 }
989
990 sub _order_by_is_stable {
991   my ($self, $ident, $order_by, $where) = @_;
992
993   my @cols = (
994     ( map { $_->[0] } $self->_extract_order_criteria($order_by) ),
995     ( $where ? keys %{ $self->_extract_fixed_condition_columns($where) } : () ),
996   ) or return 0;
997
998   my $colinfo = $self->_resolve_column_info($ident, \@cols);
999
1000   return keys %$colinfo
1001     ? $self->_columns_comprise_identifying_set( $colinfo,  \@cols )
1002     : 0
1003   ;
1004 }
1005
1006 sub _columns_comprise_identifying_set {
1007   my ($self, $colinfo, $columns) = @_;
1008
1009   my $cols_per_src;
1010   $cols_per_src -> {$_->{-source_alias}} -> {$_->{-colname}} = $_
1011     for grep { defined $_ } @{$colinfo}{@$columns};
1012
1013   for (values %$cols_per_src) {
1014     my $src = (values %$_)[0]->{-result_source};
1015     return 1 if $src->_identifying_column_set($_);
1016   }
1017
1018   return 0;
1019 }
1020
1021 # this is almost similar to _order_by_is_stable, except it takes
1022 # a single rsrc, and will succeed only if the first portion of the order
1023 # by is stable.
1024 # returns that portion as a colinfo hashref on success
1025 sub _extract_colinfo_of_stable_main_source_order_by_portion {
1026   my ($self, $attrs) = @_;
1027
1028   my $nodes = $self->_find_join_path_to_node($attrs->{from}, $attrs->{alias});
1029
1030   return unless defined $nodes;
1031
1032   my @ord_cols = map
1033     { $_->[0] }
1034     ( $self->_extract_order_criteria($attrs->{order_by}) )
1035   ;
1036   return unless @ord_cols;
1037
1038   my $valid_aliases = { map { $_ => 1 } (
1039     $attrs->{from}[0]{-alias},
1040     map { values %$_ } @$nodes,
1041   ) };
1042
1043   my $colinfos = $self->_resolve_column_info($attrs->{from});
1044
1045   my ($colinfos_to_return, $seen_main_src_cols);
1046
1047   for my $col (@ord_cols) {
1048     # if order criteria is unresolvable - there is nothing we can do
1049     my $colinfo = $colinfos->{$col} or last;
1050
1051     # if we reached the end of the allowed aliases - also nothing we can do
1052     last unless $valid_aliases->{$colinfo->{-source_alias}};
1053
1054     $colinfos_to_return->{$col} = $colinfo;
1055
1056     $seen_main_src_cols->{$colinfo->{-colname}} = 1
1057       if $colinfo->{-source_alias} eq $attrs->{alias};
1058   }
1059
1060   # FIXME the condition may be singling out things on its own, so we
1061   # conceivable could come back wi "stable-ordered by nothing"
1062   # not confient enough in the parser yet, so punt for the time being
1063   return unless $seen_main_src_cols;
1064
1065   my $main_src_fixed_cols_from_cond = [ $attrs->{where}
1066     ? (
1067       map
1068       {
1069         ( $colinfos->{$_} and $colinfos->{$_}{-source_alias} eq $attrs->{alias} )
1070           ? $colinfos->{$_}{-colname}
1071           : ()
1072       }
1073       keys %{ $self->_extract_fixed_condition_columns($attrs->{where}) }
1074     )
1075     : ()
1076   ];
1077
1078   return $attrs->{result_source}->_identifying_column_set([
1079     keys %$seen_main_src_cols,
1080     @$main_src_fixed_cols_from_cond,
1081   ]) ? $colinfos_to_return : ();
1082 }
1083
1084 # Attempts to flatten a passed in SQLA condition as much as possible towards
1085 # a plain hashref, *without* altering its semantics. Required by
1086 # create/populate being able to extract definitive conditions from preexisting
1087 # resultset {where} stacks
1088 #
1089 # FIXME - while relatively robust, this is still imperfect, one of the first
1090 # things to tackle when we get access to a formalized AST. Note that this code
1091 # is covered by a *ridiculous* amount of tests, so starting with porting this
1092 # code would be a rather good exercise
1093 sub _collapse_cond {
1094   my ($self, $where, $where_is_anded_array) = @_;
1095
1096   my $fin;
1097
1098   if (! $where) {
1099     return;
1100   }
1101   elsif ($where_is_anded_array or ref $where eq 'HASH') {
1102
1103     my @pairs;
1104
1105     my @pieces = $where_is_anded_array ? @$where : $where;
1106     while (@pieces) {
1107       my $chunk = shift @pieces;
1108
1109       if (ref $chunk eq 'HASH') {
1110         for (sort keys %$chunk) {
1111
1112           # Match SQLA 1.79 behavior
1113           unless( length $_ ) {
1114             is_literal_value($chunk->{$_})
1115               ? carp 'Hash-pairs consisting of an empty string with a literal are deprecated, use -and => [ $literal ] instead'
1116               : $self->throw_exception("Supplying an empty left hand side argument is not supported in hash-pairs")
1117             ;
1118           }
1119
1120           push @pairs, $_ => $chunk->{$_};
1121         }
1122       }
1123       elsif (ref $chunk eq 'ARRAY') {
1124         push @pairs, -or => $chunk
1125           if @$chunk;
1126       }
1127       elsif ( ! length ref $chunk) {
1128
1129         # Match SQLA 1.79 behavior
1130         $self->throw_exception("Supplying an empty left hand side argument is not supported in array-pairs")
1131           if $where_is_anded_array and (! defined $chunk or ! length $chunk);
1132
1133         push @pairs, $chunk, shift @pieces;
1134       }
1135       else {
1136         push @pairs, '', $chunk;
1137       }
1138     }
1139
1140     return unless @pairs;
1141
1142     my @conds = $self->_collapse_cond_unroll_pairs(\@pairs)
1143       or return;
1144
1145     # Consolidate various @conds back into something more compact
1146     for my $c (@conds) {
1147       if (ref $c ne 'HASH') {
1148         push @{$fin->{-and}}, $c;
1149       }
1150       else {
1151         for my $col (sort keys %$c) {
1152
1153           # consolidate all -and nodes
1154           if ($col =~ /^\-and$/i) {
1155             push @{$fin->{-and}},
1156               ref $c->{$col} eq 'ARRAY' ? @{$c->{$col}}
1157             : ref $c->{$col} eq 'HASH' ? %{$c->{$col}}
1158             : { $col => $c->{$col} }
1159             ;
1160           }
1161           elsif ($col =~ /^\-/) {
1162             push @{$fin->{-and}}, { $col => $c->{$col} };
1163           }
1164           elsif (exists $fin->{$col}) {
1165             $fin->{$col} = [ -and => map {
1166               (ref $_ eq 'ARRAY' and ($_->[0]||'') =~ /^\-and$/i )
1167                 ? @{$_}[1..$#$_]
1168                 : $_
1169               ;
1170             } ($fin->{$col}, $c->{$col}) ];
1171           }
1172           else {
1173             $fin->{$col} = $c->{$col};
1174           }
1175         }
1176       }
1177     }
1178   }
1179   elsif (ref $where eq 'ARRAY') {
1180     # we are always at top-level here, it is safe to dump empty *standalone* pieces
1181     my $fin_idx;
1182
1183     for (my $i = 0; $i <= $#$where; $i++ ) {
1184
1185       # Match SQLA 1.79 behavior
1186       $self->throw_exception(
1187         "Supplying an empty left hand side argument is not supported in array-pairs"
1188       ) if (! defined $where->[$i] or ! length $where->[$i]);
1189
1190       my $logic_mod = lc ( ($where->[$i] =~ /^(\-(?:and|or))$/i)[0] || '' );
1191
1192       if ($logic_mod) {
1193         $i++;
1194         $self->throw_exception("Unsupported top-level op/arg pair: [ $logic_mod => $where->[$i] ]")
1195           unless ref $where->[$i] eq 'HASH' or ref $where->[$i] eq 'ARRAY';
1196
1197         my $sub_elt = $self->_collapse_cond({ $logic_mod => $where->[$i] })
1198           or next;
1199
1200         my @keys = keys %$sub_elt;
1201         if ( @keys == 1 and $keys[0] !~ /^\-/ ) {
1202           $fin_idx->{ "COL_$keys[0]_" . serialize $sub_elt } = $sub_elt;
1203         }
1204         else {
1205           $fin_idx->{ "SER_" . serialize $sub_elt } = $sub_elt;
1206         }
1207       }
1208       elsif (! length ref $where->[$i] ) {
1209         my $sub_elt = $self->_collapse_cond({ @{$where}[$i, $i+1] })
1210           or next;
1211
1212         $fin_idx->{ "COL_$where->[$i]_" . serialize $sub_elt } = $sub_elt;
1213         $i++;
1214       }
1215       else {
1216         $fin_idx->{ "SER_" . serialize $where->[$i] } = $self->_collapse_cond( $where->[$i] ) || next;
1217       }
1218     }
1219
1220     if (! $fin_idx) {
1221       return;
1222     }
1223     elsif ( keys %$fin_idx == 1 ) {
1224       $fin = (values %$fin_idx)[0];
1225     }
1226     else {
1227       my @or;
1228
1229       # at this point everything is at most one level deep - unroll if needed
1230       for (sort keys %$fin_idx) {
1231         if ( ref $fin_idx->{$_} eq 'HASH' and keys %{$fin_idx->{$_}} == 1 ) {
1232           my ($l, $r) = %{$fin_idx->{$_}};
1233
1234           if (
1235             ref $r eq 'ARRAY'
1236               and
1237             (
1238               ( @$r == 1 and $l =~ /^\-and$/i )
1239                 or
1240               $l =~ /^\-or$/i
1241             )
1242           ) {
1243             push @or, @$r
1244           }
1245
1246           elsif (
1247             ref $r eq 'HASH'
1248               and
1249             keys %$r == 1
1250               and
1251             $l =~ /^\-(?:and|or)$/i
1252           ) {
1253             push @or, %$r;
1254           }
1255
1256           else {
1257             push @or, $l, $r;
1258           }
1259         }
1260         else {
1261           push @or, $fin_idx->{$_};
1262         }
1263       }
1264
1265       $fin->{-or} = \@or;
1266     }
1267   }
1268   else {
1269     # not a hash not an array
1270     $fin = { -and => [ $where ] };
1271   }
1272
1273   # unroll single-element -and's
1274   while (
1275     $fin->{-and}
1276       and
1277     @{$fin->{-and}} < 2
1278   ) {
1279     my $and = delete $fin->{-and};
1280     last if @$and == 0;
1281
1282     # at this point we have @$and == 1
1283     if (
1284       ref $and->[0] eq 'HASH'
1285         and
1286       ! grep { exists $fin->{$_} } keys %{$and->[0]}
1287     ) {
1288       $fin = {
1289         %$fin, %{$and->[0]}
1290       };
1291     }
1292     else {
1293       $fin->{-and} = $and;
1294       last;
1295     }
1296   }
1297
1298   # compress same-column conds found in $fin
1299   for my $col ( grep { $_ !~ /^\-/ } keys %$fin ) {
1300     next unless ref $fin->{$col} eq 'ARRAY' and ($fin->{$col}[0]||'') =~ /^\-and$/i;
1301     my $val_bag = { map {
1302       (! defined $_ )                          ? ( UNDEF => undef )
1303     : ( ! length ref $_ or is_plain_value $_ ) ? ( "VAL_$_" => $_ )
1304     : ( ( 'SER_' . serialize $_ ) => $_ )
1305     } @{$fin->{$col}}[1 .. $#{$fin->{$col}}] };
1306
1307     if (keys %$val_bag == 1 ) {
1308       ($fin->{$col}) = values %$val_bag;
1309     }
1310     else {
1311       $fin->{$col} = [ -and => map { $val_bag->{$_} } sort keys %$val_bag ];
1312     }
1313   }
1314
1315   return keys %$fin ? $fin : ();
1316 }
1317
1318 sub _collapse_cond_unroll_pairs {
1319   my ($self, $pairs) = @_;
1320
1321   my @conds;
1322
1323   while (@$pairs) {
1324     my ($lhs, $rhs) = splice @$pairs, 0, 2;
1325
1326     if (! length $lhs) {
1327       push @conds, $self->_collapse_cond($rhs);
1328     }
1329     elsif ( $lhs =~ /^\-and$/i ) {
1330       push @conds, $self->_collapse_cond($rhs, (ref $rhs eq 'ARRAY'));
1331     }
1332     elsif ( $lhs =~ /^\-or$/i ) {
1333       push @conds, $self->_collapse_cond(
1334         (ref $rhs eq 'HASH') ? [ map { $_ => $rhs->{$_} } sort keys %$rhs ] : $rhs
1335       );
1336     }
1337     else {
1338       if (ref $rhs eq 'HASH' and ! keys %$rhs) {
1339         # FIXME - SQLA seems to be doing... nothing...?
1340       }
1341       # normalize top level -ident, for saner extract_fixed_condition_columns code
1342       elsif (ref $rhs eq 'HASH' and keys %$rhs == 1 and exists $rhs->{-ident}) {
1343         push @conds, { $lhs => { '=', $rhs } };
1344       }
1345       elsif (ref $rhs eq 'HASH' and keys %$rhs == 1 and exists $rhs->{-value} and is_plain_value $rhs->{-value}) {
1346         push @conds, { $lhs => $rhs->{-value} };
1347       }
1348       elsif (ref $rhs eq 'HASH' and keys %$rhs == 1 and exists $rhs->{'='}) {
1349         if ( length ref $rhs->{'='} and is_literal_value $rhs->{'='} ) {
1350           push @conds, { $lhs => $rhs };
1351         }
1352         else {
1353           for my $p ($self->_collapse_cond_unroll_pairs([ $lhs => $rhs->{'='} ])) {
1354
1355             # extra sanity check
1356             if (keys %$p > 1) {
1357               local $Data::Dumper::Deepcopy = 1;
1358               $self->throw_exception(
1359                 "Internal error: unexpected collapse unroll:"
1360               . dump_value { in => { $lhs => $rhs }, out => $p }
1361               );
1362             }
1363
1364             my ($l, $r) = %$p;
1365
1366             push @conds, (
1367               ! length ref $r
1368                 or
1369               # the unroller recursion may return a '=' prepended value already
1370               ref $r eq 'HASH' and keys %$rhs == 1 and exists $rhs->{'='}
1371                 or
1372               is_plain_value($r)
1373             )
1374               ? { $l => $r }
1375               : { $l => { '=' => $r } }
1376             ;
1377           }
1378         }
1379       }
1380       elsif (ref $rhs eq 'ARRAY') {
1381         # some of these conditionals encounter multi-values - roll them out using
1382         # an unshift, which will cause extra looping in the while{} above
1383         if (! @$rhs ) {
1384           push @conds, { $lhs => [] };
1385         }
1386         elsif ( ($rhs->[0]||'') =~ /^\-(?:and|or)$/i ) {
1387           $self->throw_exception("Value modifier not followed by any values: $lhs => [ $rhs->[0] ] ")
1388             if  @$rhs == 1;
1389
1390           if( $rhs->[0] =~ /^\-and$/i ) {
1391             unshift @$pairs, map { $lhs => $_ } @{$rhs}[1..$#$rhs];
1392           }
1393           # if not an AND then it's an OR
1394           elsif(@$rhs == 2) {
1395             unshift @$pairs, $lhs => $rhs->[1];
1396           }
1397           else {
1398             push @conds, { $lhs => [ @{$rhs}[1..$#$rhs] ] };
1399           }
1400         }
1401         elsif (@$rhs == 1) {
1402           unshift @$pairs, $lhs => $rhs->[0];
1403         }
1404         else {
1405           push @conds, { $lhs => $rhs };
1406         }
1407       }
1408       # unroll func + { -value => ... }
1409       elsif (
1410         ref $rhs eq 'HASH'
1411           and
1412         ( my ($subop) = keys %$rhs ) == 1
1413           and
1414         length ref ((values %$rhs)[0])
1415           and
1416         my $vref = is_plain_value( (values %$rhs)[0] )
1417       ) {
1418         push @conds, { $lhs => { $subop => $$vref } }
1419       }
1420       else {
1421         push @conds, { $lhs => $rhs };
1422       }
1423     }
1424   }
1425
1426   return @conds;
1427 }
1428
1429 # Analyzes a given condition and attempts to extract all columns
1430 # with a definitive fixed-condition criteria. Returns a hashref
1431 # of k/v pairs suitable to be passed to set_columns(), with a
1432 # MAJOR CAVEAT - multi-value (contradictory) equalities are still
1433 # represented as a reference to the UNRESOVABLE_CONDITION constant
1434 # The reason we do this is that some codepaths only care about the
1435 # codition being stable, as opposed to actually making sense
1436 #
1437 # The normal mode is used to figure out if a resultset is constrained
1438 # to a column which is part of a unique constraint, which in turn
1439 # allows us to better predict how ordering will behave etc.
1440 #
1441 # With the optional "consider_nulls" boolean argument, the function
1442 # is instead used to infer inambiguous values from conditions
1443 # (e.g. the inheritance of resultset conditions on new_result)
1444 #
1445 sub _extract_fixed_condition_columns {
1446   my ($self, $where, $consider_nulls) = @_;
1447   my $where_hash = $self->_collapse_cond($_[1]);
1448
1449   my $res = {};
1450   my ($c, $v);
1451   for $c (keys %$where_hash) {
1452     my $vals;
1453
1454     if (!defined ($v = $where_hash->{$c}) ) {
1455       $vals->{UNDEF} = $v if $consider_nulls
1456     }
1457     elsif (
1458       ref $v eq 'HASH'
1459         and
1460       keys %$v == 1
1461     ) {
1462       if (exists $v->{-value}) {
1463         if (defined $v->{-value}) {
1464           $vals->{"VAL_$v->{-value}"} = $v->{-value}
1465         }
1466         elsif( $consider_nulls ) {
1467           $vals->{UNDEF} = $v->{-value};
1468         }
1469       }
1470       # do not need to check for plain values - _collapse_cond did it for us
1471       elsif(
1472         length ref $v->{'='}
1473           and
1474         (
1475           ( ref $v->{'='} eq 'HASH' and keys %{$v->{'='}} == 1 and exists $v->{'='}{-ident} )
1476             or
1477           is_literal_value($v->{'='})
1478         )
1479        ) {
1480         $vals->{ 'SER_' . serialize $v->{'='} } = $v->{'='};
1481       }
1482     }
1483     elsif (
1484       ! length ref $v
1485         or
1486       is_plain_value ($v)
1487     ) {
1488       $vals->{"VAL_$v"} = $v;
1489     }
1490     elsif (ref $v eq 'ARRAY' and ($v->[0]||'') eq '-and') {
1491       for ( @{$v}[1..$#$v] ) {
1492         my $subval = $self->_extract_fixed_condition_columns({ $c => $_ }, 'consider nulls');  # always fish nulls out on recursion
1493         next unless exists $subval->{$c};  # didn't find anything
1494         $vals->{
1495           ! defined $subval->{$c}                                        ? 'UNDEF'
1496         : ( ! length ref $subval->{$c} or is_plain_value $subval->{$c} ) ? "VAL_$subval->{$c}"
1497         : ( 'SER_' . serialize $subval->{$c} )
1498         } = $subval->{$c};
1499       }
1500     }
1501
1502     if (keys %$vals == 1) {
1503       ($res->{$c}) = (values %$vals)
1504         unless !$consider_nulls and exists $vals->{UNDEF};
1505     }
1506     elsif (keys %$vals > 1) {
1507       $res->{$c} = UNRESOLVABLE_CONDITION;
1508     }
1509   }
1510
1511   $res;
1512 }
1513
1514 1;