Merge branch 'master' into dq2eb
Peter Rabbitson [Tue, 5 Nov 2013 08:51:56 +0000 (09:51 +0100)]
12 files changed:
1  2 
Makefile.PL
lib/DBIx/Class/ResultSet.pm
lib/DBIx/Class/ResultSetColumn.pm
lib/DBIx/Class/Storage/DBIHacks.pm
maint/travis-ci_scripts/30_before_script.bash
t/53lean_startup.t
t/lib/DBICTest.pm
t/prefetch/o2m_o2m_order_by_with_limit.t
t/resultset/update_delete.t
t/sqlmaker/quotes/quotes.t
t/sqlmaker/quotes/quotes_newstyle.t
xt/standalone_testschema_resultclasses.t

diff --combined Makefile.PL
@@@ -5,33 -5,6 +5,33 @@@ use 5.008001
  use inc::Module::Install 1.06;
  
  ##
 +## TEMPORARY (and non-portable)
 +## Get the dq stuff
 +##
 +`rm -rf t/dqlib`;
 +`mkdir t/dqlib`;
 +for (
 +  [ 'Data-Query' => 'master' ],
 +  [ 'SQL-Abstract' => 'dq' ],
 +) {
 +  my $tdir = '/tmp/dqlib_tmp_clone';
 +
 +  `rm -rf $tdir`;
 +
 +  `GIT_SSH=maint/careless_ssh.bash git clone --quiet git://git.shadowcat.co.uk/dbsrgits/$_->[0] $tdir`;
 +  printf "\nIncluding %s git rev %s\n",
 +    $_->[0],
 +    scalar `GIT_DIR=$tdir/.git git rev-parse origin/$_->[1]`,
 +  ;
 +  `git archive --format=tar --remote=file://$tdir origin/$_->[1] lib/ | tar --strip-components=1 -xC t/dqlib`;
 +
 +  `rm -rf $tdir`;
 +}
 +`cpanm SQL::ReservedWords 2>&1`;
 +use lib 't/dqlib';
 +
 +
 +##
  ## DO NOT USE THIS HACK IN YOUR DISTS!!! (it makes #toolchain sad)
  ##
  # get cpanX --installdeps . to behave in a checkout (most users do not expect
@@@ -73,6 -46,12 +73,12 @@@ my $runtime_requires = 
    # DBI itself should be capable of installation and execution in pure-perl
    # mode. However it has never been tested yet, so consider XS for the time
    # being
+ ###
+ ### IMPORTANT - do not raise this dependency
+ ### even though many bugfixes are present in newer versions, the general DBIC
+ ### rule is to bend over backwards for available DBI versions (given upgrading
+ ### them is often *not* easy or even possible)
+ ###
    'DBI'                      => '1.57',
  
    # on older versions first() leaks
  my $build_requires = {
    # needed for testing only, not for operation
    # we will move away from this dep eventually, perhaps to DBD::CSV or something
+ ###
+ ### IMPORTANT - do not raise this dependency
+ ### even though many bugfixes are present in newer versions, the general DBIC
+ ### rule is to bend over backwards for available DBDs (given upgrading them is
+ ### often *not* easy or even possible)
+ ###
    'DBD::SQLite'              => '1.29',
  };
  
@@@ -6,10 -6,10 +6,11 @@@ use base qw/DBIx::Class/
  use DBIx::Class::Carp;
  use DBIx::Class::ResultSetColumn;
  use Scalar::Util qw/blessed weaken reftype/;
+ use DBIx::Class::_Util 'fail_on_internal_wantarray';
  use Try::Tiny;
  use Data::Compare (); # no imports!!! guard against insane architecture
 -
 +use Data::Query::Constants;
 +use Data::Query::ExprHelpers;
  # not importing first() as it will clash with our own method
  use List::Util ();
  
@@@ -305,7 -305,7 +306,7 @@@ call it as C<search(undef, \%attrs)>
  
  For a list of attributes that can be passed to C<search>, see
  L</ATTRIBUTES>. For more examples of using this function, see
- L<Searching|DBIx::Class::Manual::Cookbook/Searching>. For a complete
+ L<Searching|DBIx::Class::Manual::Cookbook/SEARCHING>. For a complete
  documentation for the first argument, see L<SQL::Abstract/"WHERE CLAUSES">
  and its extension L<DBIx::Class::SQLMaker>.
  
@@@ -328,6 -328,7 +329,7 @@@ sub search 
    my $rs = $self->search_rs( @_ );
  
    if (wantarray) {
+     DBIx::Class::_ENV_::ASSERT_NO_INTERNAL_WANTARRAY and my $sog = fail_on_internal_wantarray($rs);
      return $rs->all;
    }
    elsif (defined wantarray) {
@@@ -647,7 -648,7 +649,7 @@@ should only be used in that context. C<
  method. It is equivalent to calling C<< $schema->search(\[]) >>, but if you
  want to ensure columns are bound correctly, use L</search>.
  
- See L<DBIx::Class::Manual::Cookbook/Searching> and
+ See L<DBIx::Class::Manual::Cookbook/SEARCHING> and
  L<DBIx::Class::Manual::FAQ/Searching> for searching techniques that do not
  require C<search_literal>.
  
@@@ -1212,8 -1213,6 +1214,6 @@@ sub slice 
    $attrs->{offset} += $min;
    $attrs->{rows} = ($max ? ($max - $min + 1) : 1);
    return $self->search(undef, $attrs);
-   #my $slice = (ref $self)->new($self->result_source, $attrs);
-   #return (wantarray ? $slice->all : $slice);
  }
  
  =head2 next
@@@ -1359,7 -1358,7 +1359,7 @@@ sub _construct_results 
        if (
          $aliastypes->{multiplying}{$sel_alias}
            or
-         scalar grep { $aliastypes->{multiplying}{(values %$_)[0]} } @{ $aliastypes->{selecting}{$sel_alias}{-parents} }
+         $aliastypes->{premultiplied}{$sel_alias}
        ) {
          $multiplied_selectors->{$_} = 1 for values %{$aliastypes->{selecting}{$sel_alias}{-seen_columns}}
        }
@@@ -1729,22 -1728,15 +1729,22 @@@ sub _count_subq_rs 
          $sql_maker->{name_sep} = '';
        }
  
 +      $sql_maker->clear_renderer;
 +      $sql_maker->clear_converter;
 +
        my ($lquote, $rquote, $sep) = map { quotemeta $_ } ($sql_maker->_quote_chars, $sql_maker->name_sep);
  
 -      my $having_sql = $sql_maker->_parse_rs_attrs ({ having => $attrs->{having} });
 +      my $having_sql = $sql_maker->_render_sqla(where => $attrs->{having});
 +
 +      $sql_maker->clear_renderer;
 +      $sql_maker->clear_converter;
 +
        my %seen_having;
  
        # search for both a proper quoted qualified string, for a naive unquoted scalarref
        # and if all fails for an utterly naive quoted scalar-with-function
        while ($having_sql =~ /
 -        $rquote $sep $lquote (.+?) $rquote
 +        (?: $rquote $sep)? $lquote (.+?) $rquote
            |
          [\s,] \w+ \. (\w+) [\s,]
            |
@@@ -1916,7 -1908,7 +1916,7 @@@ sub _rs_update_delete 
    if (!$needs_subq and @{$attrs->{from}} > 1) {
  
      ($attrs->{from}, $join_classifications) =
-       $storage->_prune_unused_joins ($attrs->{from}, $attrs->{select}, $self->{cond}, $attrs);
+       $storage->_prune_unused_joins ($attrs);
  
      # any non-pruneable non-local restricting joins imply subq
      $needs_subq = defined List::Util::first { $_ ne $attrs->{alias} } keys %{ $join_classifications->{restricting} || {} };
    if (! $needs_subq) {
      # Most databases do not allow aliasing of tables in UPDATE/DELETE. Thus
      # a condition containing 'me' or other table prefixes will not work
 -    # at all. Tell SQLMaker to dequalify idents via a gross hack.
 -    $cond = do {
 -      my $sqla = $rsrc->storage->sql_maker;
 -      local $sqla->{_dequalify_idents} = 1;
 -      \[ $sqla->_recurse_where($self->{cond}) ];
 -    };
 +    # at all - so we convert the WHERE to a dq tree now, dequalify all
 +    # identifiers found therein via a scan across the tree, and then use
 +    # \{} style to pass the result onwards for use in the final query
 +    if ($self->{cond}) {
 +      $cond = do {
 +        my $converter = $rsrc->storage->sql_maker->converter;
 +        scan_dq_nodes({
 +          DQ_IDENTIFIER ,=> sub { $_ = [ $_->[-1] ] for $_[0]->{elements} }
 +        }, my $where_dq = $converter->_where_to_dq($self->{cond}));
 +        \$where_dq;
 +      };
 +    }
    }
    else {
      # we got this far - means it is time to wrap a subquery
      my $subrs = (ref $self)->new($rsrc, $attrs);
  
      if (@$idcols == 1) {
 -      $cond = { $idcols->[0] => { -in => $subrs->as_query } };
 +      $cond = { $idcols->[0] => { -in => \$subrs->_as_select_dq } };
      }
      elsif ($storage->_use_multicolumn_in) {
        # no syntax for calling this properly yet
        # !!! EXPERIMENTAL API !!! WILL CHANGE !!!
 -      $cond = $storage->sql_maker->_where_op_multicolumn_in (
 -        $idcols, # how do I convey a list of idents...? can binds reside on lhs?
 -        $subrs->as_query
 +      my $left = $storage->sql_maker->_render_sqla(select_select => $idcols);
 +      $left =~ s/^SELECT //i;
 +      my $right = $storage->sql_maker
 +                          ->converter
 +                          ->_literal_to_dq(${$subrs->as_query});
 +      $cond = \Operator(
 +        { 'SQL.Naive' => 'in' },
 +        [ Literal(SQL => "( $left )"), $right ],
        ),
      }
      else {
        if (
          $existing_group_by
            or
+         # we do not need to check pre-multipliers, since if the premulti is there, its
+         # parent (who is multi) will be there too
          keys %{ $join_classifications->{multiplying} || {} }
        ) {
          # make sure if there is a supplied group_by it matches the columns compiled above
@@@ -2684,19 -2667,6 +2686,19 @@@ sub as_query 
    $aq;
  }
  
 +sub _as_select_dq {
 +  my $self = shift;
 +  my $attrs = { %{ $self->_resolved_attrs } };
 +  my $storage = $self->result_source->storage;
 +  my (undef, $ident, @args) = $storage->_select_args(
 +    $attrs->{from}, $attrs->{select}, $attrs->{where}, $attrs
 +  );
 +  $ident = $ident->from if blessed($ident);
 +  $storage->sql_maker->converter->_select_to_dq(
 +    $ident, @args
 +  );
 +}
 +
  =head2 find_or_new
  
  =over 4
@@@ -3457,6 -3427,9 +3459,9 @@@ sub _resolved_attrs 
    my $source = $self->result_source;
    my $alias  = $attrs->{alias};
  
+   $self->throw_exception("Specifying distinct => 1 in conjunction with collapse => 1 is unsupported")
+     if $attrs->{collapse} and $attrs->{distinct};
    # default selection list
    $attrs->{columns} = [ $source->columns ]
      unless List::Util::first { exists $attrs->{$_} } qw/columns cols select as/;
      $attrs->{group_by} = [ $attrs->{group_by} ];
    }
  
-   # generate the distinct induced group_by early, as prefetch will be carried via a
-   # subquery (since a group_by is present)
-   if (delete $attrs->{distinct}) {
-     if ($attrs->{group_by}) {
-       carp_unique ("Useless use of distinct on a grouped resultset ('distinct' is ignored when a 'group_by' is present)");
-     }
-     else {
-       $attrs->{_grouped_by_distinct} = 1;
-       # distinct affects only the main selection part, not what prefetch may
-       # add below.
-       $attrs->{group_by} = $source->storage->_group_over_selection($attrs);
-     }
-   }
  
    # generate selections based on the prefetch helper
-   my $prefetch;
+   my ($prefetch, @prefetch_select, @prefetch_as);
    $prefetch = $self->_merge_joinpref_attr( {}, delete $attrs->{prefetch} )
      if defined $attrs->{prefetch};
  
      $self->throw_exception("Unable to prefetch, resultset contains an unnamed selector $attrs->{_dark_selector}{string}")
        if $attrs->{_dark_selector};
  
+     $self->throw_exception("Specifying prefetch in conjunction with an explicit collapse => 0 is unsupported")
+       if defined $attrs->{collapse} and ! $attrs->{collapse};
      $attrs->{collapse} = 1;
  
      # this is a separate structure (we don't look in {from} directly)
  
      my @prefetch = $source->_resolve_prefetch( $prefetch, $alias, $join_map );
  
-     push @{ $attrs->{select} }, (map { $_->[0] } @prefetch);
-     push @{ $attrs->{as} }, (map { $_->[1] } @prefetch);
-   }
-   if ( List::Util::first { $_ =~ /\./ } @{$attrs->{as}} ) {
-     $attrs->{_related_results_construction} = 1;
+     # save these for after distinct resolution
+     @prefetch_select = map { $_->[0] } @prefetch;
+     @prefetch_as = map { $_->[1] } @prefetch;
    }
  
    # run through the resulting joinstructure (starting from our current slot)
      }
    }
  
+   # generate the distinct induced group_by before injecting the prefetched select/as parts
+   if (delete $attrs->{distinct}) {
+     if ($attrs->{group_by}) {
+       carp_unique ("Useless use of distinct on a grouped resultset ('distinct' is ignored when a 'group_by' is present)");
+     }
+     else {
+       $attrs->{_grouped_by_distinct} = 1;
+       # distinct affects only the main selection part, not what prefetch may add below
+       ($attrs->{group_by}, my $new_order) = $source->storage->_group_over_selection($attrs);
+       # FIXME possibly ignore a rewritten order_by (may turn out to be an issue)
+       # The thinking is: if we are collapsing the subquerying prefetch engine will
+       # rip stuff apart for us anyway, and we do not want to have a potentially
+       # function-converted external order_by
+       # ( there is an explicit if ( collapse && _grouped_by_distinct ) check in DBIHacks )
+       $attrs->{order_by} = $new_order unless $attrs->{collapse};
+     }
+   }
+   # inject prefetch-bound selection (if any)
+   push @{$attrs->{select}}, @prefetch_select;
+   push @{$attrs->{as}}, @prefetch_as;
+   # whether we can get away with the dumbest (possibly DBI-internal) collapser
+   if ( List::Util::first { $_ =~ /\./ } @{$attrs->{as}} ) {
+     $attrs->{_related_results_construction} = 1;
+   }
    # if both page and offset are specified, produce a combined offset
    # even though it doesn't make much sense, this is what pre 081xx has
    # been doing
@@@ -4465,8 -4453,17 +4485,17 @@@ or with an in-place function in which c
  
  =back
  
- Set to 1 to group by all columns. If the resultset already has a group_by
- attribute, this setting is ignored and an appropriate warning is issued.
+ Set to 1 to automatically generate a L</group_by> clause based on the selection
+ (including intelligent handling of L</order_by> contents). Note that the group
+ criteria calculation takes place over the B<final> selection. This includes
+ any L</+columns>, L</+select> or L</order_by> additions in subsequent
+ L</search> calls, and standalone columns selected via
+ L<DBIx::Class::ResultSetColumn> (L</get_column>). A notable exception are the
+ extra selections specified via L</prefetch> - such selections are explicitly
+ excluded from group criteria calculations.
+ If the final ResultSet also explicitly defines a L</group_by> attribute, this
+ setting is ignored and an appropriate warning is issued.
  
  =head2 where
  
@@@ -5,6 -5,7 +5,7 @@@ use warnings
  
  use base 'DBIx::Class';
  use DBIx::Class::Carp;
+ use DBIx::Class::_Util 'fail_on_internal_wantarray';
  use namespace::clean;
  
  # not importing first() as it will clash with our own method
@@@ -58,7 -59,7 +59,7 @@@ sub new 
    my $as_index = List::Util::first { ($as_list->[$_] || "") eq $column } 0..$#$as_list;
    my $select = defined $as_index ? $select_list->[$as_index] : $column;
  
-   my ($new_parent_rs, $colmap);
+   my $colmap;
    for ($rsrc->columns, $column) {
      if ($_ =~ /^ \Q$alias\E \. ([^\.]+) $ /x) {
        $colmap->{$_} = $1;
@@@ -69,6 -70,7 +70,7 @@@
      }
    }
  
+   my $new_parent_rs;
    # analyze the order_by, and see if it is done over a function/nonexistentcolumn
    # if this is the case we will need to wrap a subquery since the result of RSC
    # *must* be a single column select
@@@ -78,7 -80,7 +80,7 @@@
        ( $rsrc->schema->storage->_extract_order_criteria ($orig_attrs->{order_by} ) )
    ) {
      # nuke the prefetch before collapsing to sql
-     my $subq_rs = $rs->search;
+     my $subq_rs = $rs->search_rs;
      $subq_rs->{attrs}{join} = $subq_rs->_merge_joinpref_attr( $subq_rs->{attrs}{join}, delete $subq_rs->{attrs}{prefetch} );
      $new_parent_rs = $subq_rs->as_subselect_rs;
    }
      }
    }
  
-   my $new = bless { _select => $select, _as => $column, _parent_resultset => $new_parent_rs }, $class;
+   # collapse the selector to a literal so that it survives a possible distinct parse
+   # if it turns out to be an aggregate - at least the user will get a proper exception
+   # instead of silent drop of the group_by altogether
+   my $new = bless {
 -    _select => \ $rsrc->storage->sql_maker->_recurse_fields($select),
++    _select => \ ($rsrc->storage->sql_maker->_render_sqla(select_select => $select) =~ /^\s*SELECT\s*(.+)/i)[0],
+     _as => $column,
+     _parent_resultset => $new_parent_rs }, $class;
    return $new;
  }
  
@@@ -401,6 -409,7 +409,7 @@@ sub func 
    my $cursor = $self->func_rs($function)->cursor;
  
    if( wantarray ) {
+     DBIx::Class::_ENV_::ASSERT_NO_INTERNAL_WANTARRAY and my $sog = fail_on_internal_wantarray($self);
      return map { $_->[ 0 ] } $cursor->all;
    }
  
@@@ -16,8 -16,6 +16,8 @@@ use mro 'c3'
  use List::Util 'first';
  use Scalar::Util 'blessed';
  use Sub::Name 'subname';
 +use Data::Query::Constants;
 +use Data::Query::ExprHelpers;
  use namespace::clean;
  
  #
  # {from} specs, aiding the RDBMS query optimizer
  #
  sub _prune_unused_joins {
-   my $self = shift;
-   my ($from, $select, $where, $attrs) = @_;
+   my ($self, $attrs) = @_;
  
-   return $from unless $self->_use_join_optimizer;
+   # only standard {from} specs are supported, and we could be disabled in general
+   return ($attrs->{from}, {})  unless (
+     ref $attrs->{from} eq 'ARRAY'
+       and
+     @{$attrs->{from}} > 1
+       and
+     ref $attrs->{from}[0] eq 'HASH'
+       and
+     ref $attrs->{from}[1] eq 'ARRAY'
+       and
+     $self->_use_join_optimizer
+   );
  
-   if (ref $from ne 'ARRAY' || ref $from->[0] ne 'HASH' || ref $from->[1] ne 'ARRAY') {
-     return $from;   # only standard {from} specs are supported
-   }
+   my $orig_aliastypes = $self->_resolve_aliastypes_from_select_args($attrs);
  
-   my $aliastypes = $self->_resolve_aliastypes_from_select_args(@_);
+   my $new_aliastypes = { %$orig_aliastypes };
  
-   my $orig_joins = delete $aliastypes->{joining};
-   my $orig_multiplying = $aliastypes->{multiplying};
+   # we will be recreating this entirely
+   my @reclassify = 'joining';
  
    # a grouped set will not be affected by amount of rows. Thus any
-   # {multiplying} joins can go
-   delete $aliastypes->{multiplying}
+   # purely multiplicator classifications can go
+   # (will be reintroduced below if needed by something else)
+   push @reclassify, qw(multiplying premultiplied)
      if $attrs->{_force_prune_multiplying_joins} or $attrs->{group_by};
  
-   my @newfrom = $from->[0]; # FROM head is always present
+   # nuke what will be recalculated
+   delete @{$new_aliastypes}{@reclassify};
  
-   my %need_joins;
+   my @newfrom = $attrs->{from}[0]; # FROM head is always present
  
-   for (values %$aliastypes) {
+   # recalculate what we need once the multipliers are potentially gone
+   # ignore premultiplies, since they do not add any value to anything
+   my %need_joins;
+   for ( @{$new_aliastypes}{grep { $_ ne 'premultiplied' } keys %$new_aliastypes }) {
      # add all requested aliases
      $need_joins{$_} = 1 for keys %$_;
  
@@@ -56,7 -67,7 +69,7 @@@
      $need_joins{$_} = 1 for map { values %$_ } map { @{$_->{-parents}} } values %$_;
    }
  
-   for my $j (@{$from}[1..$#$from]) {
+   for my $j (@{$attrs->{from}}[1..$#{$attrs->{from}}]) {
      push @newfrom, $j if (
        (! defined $j->[0]{-alias}) # legacy crap
          ||
      );
    }
  
-   return ( \@newfrom, {
-     multiplying => { map { $need_joins{$_} ? ($_  => $orig_multiplying->{$_}) : () } keys %$orig_multiplying },
-     %$aliastypes,
-     joining => { map { $_ => $orig_joins->{$_} } keys %need_joins },
-   } );
+   # we have a new set of joiners - for everything we nuked pull the classification
+   # off the original stack
+   for my $ctype (@reclassify) {
+     $new_aliastypes->{$ctype} = { map
+       { $need_joins{$_} ? ( $_ => $orig_aliastypes->{$ctype}{$_} ) : () }
+       keys %{$orig_aliastypes->{$ctype}}
+     }
+   }
+   return ( \@newfrom, $new_aliastypes );
  }
  
  #
  # SELECT me.*, other.* FROM ( SELECT me.* FROM ... ) JOIN other ON ...
  #
  sub _adjust_select_args_for_complex_prefetch {
-   my ($self, $from, $select, $where, $attrs) = @_;
+   my ($self, $attrs) = @_;
  
-   $self->throw_exception ('Complex prefetches are not supported on resultsets with a custom from attribute')
-     if (ref $from ne 'ARRAY' || ref $from->[0] ne 'HASH' || ref $from->[1] ne 'ARRAY');
+   $self->throw_exception ('Complex prefetches are not supported on resultsets with a custom from attribute') unless (
+     ref $attrs->{from} eq 'ARRAY'
+       and
+     @{$attrs->{from}} > 1
+       and
+     ref $attrs->{from}[0] eq 'HASH'
+       and
+     ref $attrs->{from}[1] eq 'ARRAY'
+   );
  
    my $root_alias = $attrs->{alias};
  
    # generate inner/outer attribute lists, remove stuff that doesn't apply
    my $outer_attrs = { %$attrs };
-   delete @{$outer_attrs}{qw(where bind rows offset group_by _grouped_by_distinct having)};
+   delete @{$outer_attrs}{qw(from bind rows offset group_by _grouped_by_distinct having)};
  
    my $inner_attrs = { %$attrs };
-   delete @{$inner_attrs}{qw(from for collapse select as _related_results_construction)};
+   delete @{$inner_attrs}{qw(for collapse select as _related_results_construction)};
  
    # there is no point of ordering the insides if there is no limit
    delete $inner_attrs->{order_by} if (
    # generate the inner/outer select lists
    # for inside we consider only stuff *not* brought in by the prefetch
    # on the outside we substitute any function for its alias
-   my $outer_select = [ @$select ];
-   my $inner_select;
+   $outer_attrs->{select} = [ @{$attrs->{select}} ];
  
    my ($root_node, $root_node_offset);
  
-   for my $i (0 .. $#$from) {
-     my $node = $from->[$i];
+   for my $i (0 .. $#{$inner_attrs->{from}}) {
+     my $node = $inner_attrs->{from}[$i];
      my $h = (ref $node eq 'HASH')                                ? $node
            : (ref $node  eq 'ARRAY' and ref $node->[0] eq 'HASH') ? $node->[0]
            : next
      unless $root_node;
  
    # use the heavy duty resolver to take care of aliased/nonaliased naming
-   my $colinfo = $self->_resolve_column_info($from);
+   my $colinfo = $self->_resolve_column_info($inner_attrs->{from});
    my $selected_root_columns;
  
-   for my $i (0 .. $#$outer_select) {
-     my $sel = $outer_select->[$i];
+   for my $i (0 .. $#{$outer_attrs->{select}}) {
+     my $sel = $outer_attrs->{select}->[$i];
  
      next if (
        $colinfo->{$sel} and $colinfo->{$sel}{-source_alias} ne $root_alias
  
      if (ref $sel eq 'HASH' ) {
        $sel->{-as} ||= $attrs->{as}[$i];
-       $outer_select->[$i] = join ('.', $root_alias, ($sel->{-as} || "inner_column_$i") );
+       $outer_attrs->{select}->[$i] = join ('.', $root_alias, ($sel->{-as} || "inner_column_$i") );
      }
      elsif (! ref $sel and my $ci = $colinfo->{$sel}) {
        $selected_root_columns->{$ci->{-colname}} = 1;
      }
  
-     push @$inner_select, $sel;
+     push @{$inner_attrs->{select}}, $sel;
  
      push @{$inner_attrs->{as}}, $attrs->{as}[$i];
    }
  
    # We will need to fetch all native columns in the inner subquery, which may
    # be a part of an *outer* join condition, or an order_by (which needs to be
-   # preserved outside)
+   # preserved outside), or wheres. In other words everything but the inner
+   # selector
    # We can not just fetch everything because a potential has_many restricting
    # join collapse *will not work* on heavy data types.
-   my $connecting_aliastypes = $self->_resolve_aliastypes_from_select_args(
-     $from,
-     undef,
-     $where,
-     $inner_attrs
-   );
+   my $connecting_aliastypes = $self->_resolve_aliastypes_from_select_args({
+     %$inner_attrs,
 -    select => [],
++    select => undef,
+   });
  
    for (sort map { keys %{$_->{-seen_columns}||{}} } map { values %$_ } values %$connecting_aliastypes) {
      my $ci = $colinfo->{$_} or next;
        ! $selected_root_columns->{$ci->{-colname}}++
      ) {
        # adding it to both to keep limits not supporting dark selectors happy
-       push @$inner_select, $ci->{-fq_colname};
+       push @{$inner_attrs->{select}}, $ci->{-fq_colname};
        push @{$inner_attrs->{as}}, $ci->{-fq_colname};
      }
    }
  
-   # construct the inner $from and lock it in a subquery
+   # construct the inner {from} and lock it in a subquery
    # we need to prune first, because this will determine if we need a group_by below
    # throw away all non-selecting, non-restricting multijoins
-   # (since we def. do not care about multiplication those inside the subquery)
+   # (since we def. do not care about multiplication of the contents of the subquery)
    my $inner_subq = do {
  
-     # must use it here regardless of user requests
+     # must use it here regardless of user requests (vastly gentler on optimizer)
      local $self->{_use_join_optimizer} = 1;
  
      # throw away multijoins since we def. do not care about those inside the subquery
-     my ($inner_from, $inner_aliastypes) = $self->_prune_unused_joins ($from, $inner_select, $where, {
+     ($inner_attrs->{from}, my $inner_aliastypes) = $self->_prune_unused_joins ({
        %$inner_attrs, _force_prune_multiplying_joins => 1
      });
  
-     # uh-oh a multiplier (which is not us) left in, this is a problem
+     # uh-oh a multiplier (which is not us) left in, this is a problem for limits
+     # we will need to add a group_by to collapse the resultset for proper counts
      if (
-       $inner_aliastypes->{multiplying}
+       grep { $_ ne $root_alias } keys %{ $inner_aliastypes->{multiplying} || {} }
          and
        # if there are user-supplied groups - assume user knows wtf they are up to
        ( ! $inner_aliastypes->{grouping} or $inner_attrs->{_grouped_by_distinct} )
-         and
-       my @multipliers = grep { $_ ne $root_alias } keys %{$inner_aliastypes->{multiplying}}
      ) {
  
-       # if none of the multipliers came from an order_by (guaranteed to have been combined
-       # with a limit) - easy - just slap a group_by to simulate a collapse and be on our way
-       if (
-         ! $inner_aliastypes->{ordering}
-           or
-         ! first { $inner_aliastypes->{ordering}{$_} } @multipliers
-       ) {
-         my $unprocessed_order_chunks;
-         ($inner_attrs->{group_by}, $unprocessed_order_chunks) = $self->_group_over_selection ({
-           %$inner_attrs,
-           from => $inner_from,
-           select => $inner_select,
-         });
-         $self->throw_exception (
-           'A required group_by clause could not be constructed automatically due to a complex '
-         . 'order_by criteria. Either order_by columns only (no functions) or construct a suitable '
-         . 'group_by by hand'
-         )  if $unprocessed_order_chunks;
+       my $cur_sel = { map { $_ => 1 } @{$inner_attrs->{select}} };
+       # *possibly* supplement the main selection with pks if not already
+       # there, as they will have to be a part of the group_by to collapse
+       # things properly
+       my $inner_select_with_extras;
+       my @pks = map { "$root_alias.$_" } $root_node->{-rsrc}->primary_columns
+         or $self->throw_exception( sprintf
+           'Unable to perform complex limited prefetch off %s without declared primary key',
+           $root_node->{-rsrc}->source_name,
+         );
+       for my $col (@pks) {
+         push @{ $inner_select_with_extras ||= [ @{$inner_attrs->{select}} ] }, $col
+           unless $cur_sel->{$col}++;
        }
-       else {
-         # We need to order by external columns and group at the same time
-         # so we can calculate the proper limit
-         # This doesn't really make sense in SQL, however from DBICs point
-         # of view is rather valid (order the leftmost objects by whatever
-         # criteria and get the offset/rows many). There is a way around
-         # this however in SQL - we simply tae the direction of each piece
-         # of the foreign order and convert them to MIN(X) for ASC or MAX(X)
-         # for DESC, and group_by the root columns. The end result should be
-         # exactly what we expect
-         # supplement the main selection with pks if not already there,
-         # as they will have to be a part of the group_by to collapse
-         # things properly
-         my $cur_sel = { map { $_ => 1 } @$inner_select };
-         my @pks = map { "$root_alias.$_" } $root_node->{-rsrc}->primary_columns
-           or $self->throw_exception( sprintf
-             'Unable to perform complex limited prefetch off %s without declared primary key',
-             $root_node->{-rsrc}->source_name,
-           );
-         for my $col (@pks) {
-           push @$inner_select, $col
-             unless $cur_sel->{$col}++;
-         }
-         # wrap any part of the order_by that "responds" to an ordering alias
-         # into a MIN/MAX
-         # FIXME - this code is a joke, will need to be completely rewritten in
-         # the DQ branch. But I need to push a POC here, otherwise the
-         # pesky tests won't pass
-         my $sql_maker = $self->sql_maker;
-         my ($lquote, $rquote, $sep) = map { quotemeta $_ } ($sql_maker->_quote_chars, $sql_maker->name_sep);
-         my $own_re = qr/ $lquote \Q$root_alias\E $rquote $sep | \b \Q$root_alias\E $sep /x;
-         my $inner_columns_info = $self->_resolve_column_info($inner_from);
-         my $order_dq = $sql_maker->converter
-                                  ->_order_by_to_dq($attrs->{order_by});
  
-         my @new_order;
-         # loop through and replace stuff that is not "ours" with a min/max func
-         # everything is a literal at this point, since we are likely properly
-         # quoted and stuff
-         while (is_Order($order_dq)) {
-           my ($chunk, @args) = $sql_maker->_render_dq(my $by = $order_dq->{by});
-           my $is_desc = $order_dq->{reverse};
-           push @new_order, $is_desc ? { -desc => \$by } : \$by;
-           $order_dq = $order_dq->{from};
-           # skip ourselves
-           next if $chunk =~ $own_re;
-           # maybe our own unqualified column
-           my $ord_bit = (
-             $lquote and $sep and $chunk =~ /^ $lquote ([^$sep]+) $rquote $/x
-           ) ? $1 : $chunk;
-           next if (
-             $ord_bit
-               and
-             $inner_columns_info->{$ord_bit}
-               and
-             $inner_columns_info->{$ord_bit}{-source_alias} eq $root_alias
-           );
-           ($new_order[-1]) = map {
-             ($is_desc ? { -desc => $_ } : $_)
-           } \[
-             sprintf(
-               '%s(%s)',
-               ($is_desc ? 'MAX' : 'MIN'),
-               $chunk,
-             ),
-             @args
-           ];
-         }
-         $inner_attrs->{order_by} = \@new_order;
-         # do not care about leftovers here - it will be all the functions
-         # we just created
-         ($inner_attrs->{group_by}) = $self->_group_over_selection ({
-           %$inner_attrs,
-           from => $inner_from,
-           select => $inner_select,
-         });
-       }
+       ($inner_attrs->{group_by}, $inner_attrs->{order_by}) = $self->_group_over_selection({
+         %$inner_attrs,
+         $inner_select_with_extras ? ( select => $inner_select_with_extras ) : (),
+         _aliastypes => $inner_aliastypes,
+       });
      }
  
-     # we already optimized $inner_from above
+     # we already optimized $inner_attrs->{from} above
      # and already local()ized
      $self->{_use_join_optimizer} = 0;
  
      # generate the subquery
      $self->_select_args_to_query (
-       $inner_from,
-       $inner_select,
-       $where,
+       @{$inner_attrs}{qw(from select where)},
        $inner_attrs,
      );
    };
    #   result by tackling yet another group_by to the outside of the query
  
    # work on a shallow copy
-   $from = [ @$from ];
+   my @orig_from = @{$attrs->{from}};
  
-   my @outer_from;
+   $outer_attrs->{from} = \ my @outer_from;
  
    # we may not be the head
    if ($root_node_offset) {
-     # first generate the outer_from, up and including the substitution point
-     @outer_from = splice @$from, 0, $root_node_offset;
+     # first generate the outer_from, up to the substitution point
+     @outer_from = splice @orig_from, 0, $root_node_offset;
  
+     # substitute the subq at the right spot
      push @outer_from, [
        {
          -alias => $root_alias,
          -rsrc => $root_node->{-rsrc},
          $root_alias => $inner_subq,
        },
-       @{$from->[0]}[1 .. $#{$from->[0]}],
+       # preserve attrs from what is now the head of the from after the splice
+       @{$orig_from[0]}[1 .. $#{$orig_from[0]}],
      ];
    }
    else {
      };
    }
  
-   shift @$from; # what we just replaced above
+   shift @orig_from; # what we just replaced above
  
    # scan the *remaining* from spec against different attributes, and see which joins are needed
    # in what role
    my $outer_aliastypes = $outer_attrs->{_aliastypes} =
-     $self->_resolve_aliastypes_from_select_args( $from, $outer_select, $where, $outer_attrs );
+     $self->_resolve_aliastypes_from_select_args({ %$outer_attrs, from => \@orig_from });
  
    # unroll parents
    my ($outer_select_chain, @outer_nonselecting_chains) = map { +{
    } } qw/selecting restricting grouping ordering/;
  
    # see what's left - throw away if not selecting/restricting
-   # also throw in a group_by if a non-selecting multiplier,
-   # to guard against cross-join explosions
-   my $need_outer_group_by;
-   while (my $j = shift @$from) {
+   my $may_need_outer_group_by;
+   while (my $j = shift @orig_from) {
      my $alias = $j->[0]{-alias};
  
      if (
      }
      elsif (first { $_->{$alias} } @outer_nonselecting_chains ) {
        push @outer_from, $j;
-       $need_outer_group_by ||= $outer_aliastypes->{multiplying}{$alias} ? 1 : 0;
+       $may_need_outer_group_by ||= $outer_aliastypes->{multiplying}{$alias} ? 1 : 0;
      }
    }
  
-   if ( $need_outer_group_by and $attrs->{_grouped_by_distinct} ) {
-     my $unprocessed_order_chunks;
-     ($outer_attrs->{group_by}, $unprocessed_order_chunks) = $self->_group_over_selection ({
+   # also throw in a synthetic group_by if a non-selecting multiplier,
+   # to guard against cross-join explosions
+   # the logic is somewhat fragile, but relies on the idea that if a user supplied
+   # a group by on their own - they know what they were doing
+   if ( $may_need_outer_group_by and $attrs->{_grouped_by_distinct} ) {
+     ($outer_attrs->{group_by}, $outer_attrs->{order_by}) = $self->_group_over_selection ({
        %$outer_attrs,
        from => \@outer_from,
-       select => $outer_select,
      });
-     $self->throw_exception (
-       'A required group_by clause could not be constructed automatically due to a complex '
-     . 'order_by criteria. Either order_by columns only (no functions) or construct a suitable '
-     . 'group_by by hand'
-     ) if $unprocessed_order_chunks;
    }
  
-   # This is totally horrific - the $where ends up in both the inner and outer query
+   # This is totally horrific - the {where} ends up in both the inner and outer query
    # Unfortunately not much can be done until SQLA2 introspection arrives, and even
    # then if where conditions apply to the *right* side of the prefetch, you may have
    # to both filter the inner select (e.g. to apply a limit) and then have to re-filter
    # the outer select to exclude joins you didn't want in the first place
    #
    # OTOH it can be seen as a plus: <ash> (notes that this query would make a DBA cry ;)
-   return (\@outer_from, $outer_select, $where, $outer_attrs);
+   return $outer_attrs;
  }
  
  #
  # happen is for it to fail due to some scalar SQL, which in turn will
  # result in a vocal exception.
  sub _resolve_aliastypes_from_select_args {
-   my ( $self, $from, $select, $where, $attrs ) = @_;
+   my ( $self, $attrs ) = @_;
  
    $self->throw_exception ('Unable to analyze custom {from}')
-     if ref $from ne 'ARRAY';
+     if ref $attrs->{from} ne 'ARRAY';
  
    # what we will return
    my $aliases_by_type;
  
    # see what aliases are there to work with
+   # and record who is a multiplier and who is premultiplied
    my $alias_list;
-   for (@$from) {
-     my $j = $_;
+   for my $node (@{$attrs->{from}}) {
+     my $j = $node;
      $j = $j->[0] if ref $j eq 'ARRAY';
      my $al = $j->{-alias}
        or next;
  
      $alias_list->{$al} = $j;
-     $aliases_by_type->{multiplying}{$al} ||= { -parents => $j->{-join_path}||[] } if (
+     $aliases_by_type->{multiplying}{$al} ||= { -parents => $j->{-join_path}||[] }
        # not array == {from} head == can't be multiplying
-       ( ref($_) eq 'ARRAY' and ! $j->{-is_single} )
-         or
-       # a parent of ours is already a multiplier
-       ( grep { $aliases_by_type->{multiplying}{$_} } @{ $j->{-join_path}||[] } )
-     );
+       if ref($node) eq 'ARRAY' and ! $j->{-is_single};
+     $aliases_by_type->{premultiplied}{$al} ||= { -parents => $j->{-join_path}||[] }
+       # parts of the path that are not us but are multiplying
+       if grep { $aliases_by_type->{multiplying}{$_} }
+           grep { $_ ne $al }
+            map { values %$_ }
+             @{ $j->{-join_path}||[] }
    }
  
    # get a column to source/alias map (including unambiguous unqualified ones)
-   my $colinfo = $self->_resolve_column_info ($from);
+   my $colinfo = $self->_resolve_column_info ($attrs->{from});
  
    # set up a botched SQLA
    my $sql_maker = $self->sql_maker;
      $sql_maker->{name_sep} = '';
    }
  
 +  # local is not enough - need to ensure the inner objects get rebuilt
 +  $sql_maker->clear_renderer;
 +  $sql_maker->clear_converter;
 +
    my ($lquote, $rquote, $sep) = map { quotemeta $_ } ($sql_maker->_quote_chars, $sql_maker->name_sep);
  
    # generate sql chunks
    my $to_scan = {
      restricting => [
-       ($where
-         ? ($sql_maker->_recurse_where($where))[0]
 -      $sql_maker->_recurse_where ($attrs->{where}),
 -      $sql_maker->_parse_rs_attrs ({ having => $attrs->{having} }),
++      ($attrs->{where}
++        ? ($sql_maker->_recurse_where($attrs->{where}))[0]
 +        : ()
 +      ),
 +      ($attrs->{having}
 +        ? ($sql_maker->_recurse_where($attrs->{having}))[0]
 +        : ()
 +      ),
      ],
      grouping => [
 -      $sql_maker->_parse_rs_attrs ({ group_by => $attrs->{group_by} }),
 +      ($attrs->{group_by}
 +        ? ($sql_maker->_render_sqla(group_by => $attrs->{group_by}))[0]
 +        : (),
 +      )
      ],
      joining => [
        $sql_maker->_recurse_from (
-         ref $from->[0] eq 'ARRAY' ? $from->[0][0] : $from->[0],
-         @{$from}[1 .. $#$from],
+         ref $attrs->{from}[0] eq 'ARRAY' ? $attrs->{from}[0][0] : $attrs->{from}[0],
+         @{$attrs->{from}}[1 .. $#{$attrs->{from}}],
        ),
      ],
      selecting => [
-       ($select
-         ? ($sql_maker->_render_sqla(select_select => $select))[0]
 -      $sql_maker->_recurse_fields ($attrs->{select}),
++      ($attrs->{select}
++        ? ($sql_maker->_render_sqla(select_select => $attrs->{select}))[0]
 +        : ()),
      ],
      ordering => [
        map { $_->[0] } $self->_extract_order_criteria ($attrs->{order_by}, $sql_maker),
      ],
    };
  
 +  # local is not enough - need to ensure the inner objects get rebuilt
 +  $sql_maker->clear_renderer;
 +  $sql_maker->clear_converter;
 +
    # throw away empty chunks
    $_ = [ map { $_ || () } @$_ ] for values %$to_scan;
  
    return $aliases_by_type;
  }
  
- # This is the engine behind { distinct => 1 }
+ # This is the engine behind { distinct => 1 } and the general
+ # complex prefetch grouper
  sub _group_over_selection {
    my ($self, $attrs) = @_;
  
      }
    }
  
-   # add any order_by parts *from the main source* that are not already
-   # present in the group_by
-   # we need to be careful not to add any named functions/aggregates
-   # i.e. order_by => [ ... { count => 'foo' } ... ]
-   my @leftovers;
-   for ($self->_extract_order_criteria($attrs->{order_by})) {
 -  my @order_by = $self->_extract_order_criteria($attrs->{order_by})
++  my $sql_maker = $self->sql_maker;
++  my @order_by = $self->_extract_order_criteria($attrs->{order_by}, $sql_maker)
+     or return (\@group_by, $attrs->{order_by});
+   # add any order_by parts that are not already present in the group_by
+   # to maintain SQL cross-compatibility and general sanity
+   #
+   # also in case the original selection is *not* unique, or in case part
+   # of the ORDER BY refers to a multiplier - we will need to replace the
+   # skipped order_by elements with their MIN/MAX equivalents as to maintain
+   # the proper overall order without polluting the group criteria (and
+   # possibly changing the outcome entirely)
 -  my ($leftovers, $sql_maker, @new_order_by, $order_chunks, $aliastypes);
++  my ($leftovers, @new_order_by, $order_chunks, $aliastypes);
+   my $group_already_unique = $self->_columns_comprise_identifying_set($colinfos, \@group_by);
+   for my $o_idx (0 .. $#order_by) {
+     # if the chunk is already a min/max function - there is nothing left to touch
+     next if $order_by[$o_idx][0] =~ /^ (?: min | max ) \s* \( .+ \) $/ix;
      # only consider real columns (for functions the user got to do an explicit group_by)
-     if (@$_ != 1) {
-       push @leftovers, $_;
-       next;
+     my $chunk_ci;
+     if (
+       @{$order_by[$o_idx]} != 1
+         or
+       # only declare an unknown *plain* identifier as "leftover" if we are called with
+       # aliastypes to examine. If there are none - we are still in _resolve_attrs, and
+       # can just assume the user knows what they want
+       ( ! ( $chunk_ci = $colinfos->{$order_by[$o_idx][0]} ) and $attrs->{_aliastypes} )
+     ) {
+       push @$leftovers, $order_by[$o_idx][0];
      }
-     my $chunk = $_->[0];
  
-     if (
-       !$colinfos->{$chunk}
+     next unless $chunk_ci;
+     # no duplication of group criteria
+     next if $group_index{$chunk_ci->{-fq_colname}};
+     $aliastypes ||= (
+       $attrs->{_aliastypes}
          or
-       $colinfos->{$chunk}{-source_alias} ne $attrs->{alias}
+       $self->_resolve_aliastypes_from_select_args({
+         from => $attrs->{from},
+         order_by => $attrs->{order_by},
+       })
+     ) if $group_already_unique;
+     # check that we are not ordering by a multiplier (if a check is requested at all)
+     if (
+       $group_already_unique
+         and
+       ! $aliastypes->{multiplying}{$chunk_ci->{-source_alias}}
+         and
+       ! $aliastypes->{premultiplied}{$chunk_ci->{-source_alias}}
      ) {
-       push @leftovers, $_;
-       next;
+       push @group_by, $chunk_ci->{-fq_colname};
+       $group_index{$chunk_ci->{-fq_colname}}++
      }
+     else {
+       # We need to order by external columns without adding them to the group
+       # (eiehter a non-unique selection, or a multi-external)
+       #
+       # This doesn't really make sense in SQL, however from DBICs point
+       # of view is rather valid (e.g. order the leftmost objects by whatever
+       # criteria and get the offset/rows many). There is a way around
+       # this however in SQL - we simply tae the direction of each piece
+       # of the external order and convert them to MIN(X) for ASC or MAX(X)
+       # for DESC, and group_by the root columns. The end result should be
+       # exactly what we expect
+       # FIXME - this code is a joke, will need to be completely rewritten in
+       # the DQ branch. But I need to push a POC here, otherwise the
+       # pesky tests won't pass
+       # wrap any part of the order_by that "responds" to an ordering alias
+       # into a MIN/MAX
 -      $sql_maker ||= $self->sql_maker;
 -      $order_chunks ||= [
 -        map { ref $_ eq 'ARRAY' ? $_ : [ $_ ] } $sql_maker->_order_by_chunks($attrs->{order_by})
 -      ];
 -      my ($chunk, $is_desc) = $sql_maker->_split_order_chunk($order_chunks->[$o_idx][0]);
++      $order_chunks ||= do {
++        my @c;
++        my $dq_node = $sql_maker->converter->_order_by_to_dq($attrs->{order_by});
 -      $new_order_by[$o_idx] = \[
 -        sprintf( '%s( %s )%s',
 -          ($is_desc ? 'MAX' : 'MIN'),
 -          $chunk,
 -          ($is_desc ? ' DESC' : ''),
 -        ),
 -        @ {$order_chunks->[$o_idx]} [ 1 .. $#{$order_chunks->[$o_idx]} ]
 -      ];
++        while (is_Order($dq_node)) {
++          push @c, {
++            is_desc => $dq_node->{reverse},
++            dq_node => $dq_node->{by},
++          };
++
++          @{$c[-1]}{qw(sql bind)} = $sql_maker->_render_dq($dq_node->{by});
++
++          $dq_node = $dq_node->{from};
++        }
 +
-     $chunk = $colinfos->{$chunk}{-fq_colname};
-     push @group_by, $chunk unless $group_index{$chunk}++;
++        \@c;
++      };
++
++      $new_order_by[$o_idx] = {
++        ($order_chunks->[$o_idx]{is_desc} ? '-desc' : '-asc') => \[
++          sprintf ( '%s( %s )',
++            ($order_chunks->[$o_idx]{is_desc} ? 'MAX' : 'MIN'),
++            $order_chunks->[$o_idx]{sql},
++          ),
++          @{ $order_chunks->[$o_idx]{bind} || [] }
++        ]
++      };
+     }
    }
  
-   return wantarray
-     ? (\@group_by, (@leftovers ? \@leftovers : undef) )
-     : \@group_by
-   ;
+   $self->throw_exception ( sprintf
+     'A required group_by clause could not be constructed automatically due to a complex '
+   . 'order_by criteria (%s). Either order_by columns only (no functions) or construct a suitable '
+   . 'group_by by hand',
+     join ', ', map { "'$_'" } @$leftovers,
+   ) if $leftovers;
+   # recreate the untouched order parts
+   if (@new_order_by) {
 -    $new_order_by[$_] ||= \ $order_chunks->[$_] for ( 0 .. $#$order_chunks );
++    $new_order_by[$_] ||= {
++      ( $order_chunks->[$_]{is_desc} ? '-desc' : '-asc' )
++        => \ $order_chunks->[$_]{dq_node}
++    } for ( 0 .. $#$order_chunks );
+   }
+   return (
+     \@group_by,
+     (@new_order_by ? \@new_order_by : $attrs->{order_by} ),  # same ref as original == unchanged
+   );
  }
  
  sub _resolve_ident_sources {
@@@ -811,43 -802,72 +840,53 @@@ sub _inner_join_to_node 
  }
  
  sub _extract_order_criteria {
 -  my ($self, $order_by, $sql_maker) = @_;
 +  my ($self, $order_by, $sql_maker, $ident_only) = @_;
  
 -  my $parser = sub {
 -    my ($sql_maker, $order_by, $orig_quote_chars) = @_;
 +  $sql_maker ||= $self->sql_maker;
  
 -    return scalar $sql_maker->_order_by_chunks ($order_by)
 -      unless wantarray;
 +  my $order_dq = $sql_maker->converter->_order_by_to_dq($order_by);
  
 -    my ($lq, $rq, $sep) = map { quotemeta($_) } (
 -      ($orig_quote_chars ? @$orig_quote_chars : $sql_maker->_quote_chars),
 -      $sql_maker->name_sep
 -    );
 -
 -    my @chunks;
 -    for ($sql_maker->_order_by_chunks ($order_by) ) {
 -      my $chunk = ref $_ ? [ @$_ ] : [ $_ ];
 -      ($chunk->[0]) = $sql_maker->_split_order_chunk($chunk->[0]);
 +  my @by;
 +  while (is_Order($order_dq)) {
 +    push @by, $order_dq->{by};
 +    $order_dq = $order_dq->{from};
 +  }
  
 -      # order criteria may have come back pre-quoted (literals and whatnot)
 -      # this is fragile, but the best we can currently do
 -      $chunk->[0] =~ s/^ $lq (.+?) $rq $sep $lq (.+?) $rq $/"$1.$2"/xe
 -        or $chunk->[0] =~ s/^ $lq (.+) $rq $/$1/x;
 +  delete local @{$sql_maker}{qw(quote_char renderer converter)};
  
 -      push @chunks, $chunk;
 +  return map { [ $sql_maker->_render_dq($_) ] } do {
 +    if ($ident_only) {
 +      my @by_ident;
 +      scan_dq_nodes({ DQ_IDENTIFIER ,=> sub { push @by_ident, $_[0] } }, @by);
 +      @by_ident
 +    } else {
 +      @by
      }
 -
 -    return @chunks;
    };
 -
 -  if ($sql_maker) {
 -    return $parser->($sql_maker, $order_by);
 -  }
 -  else {
 -    $sql_maker = $self->sql_maker;
 -
 -    # pass these in to deal with literals coming from
 -    # the user or the deep guts of prefetch
 -    my $orig_quote_chars = [$sql_maker->_quote_chars];
 -
 -    local $sql_maker->{quote_char};
 -    return $parser->($sql_maker, $order_by, $orig_quote_chars);
 -  }
  }
  
  sub _order_by_is_stable {
    my ($self, $ident, $order_by, $where) = @_;
  
-   my $colinfo = $self->_resolve_column_info($ident, [
+   my @cols = (
 -    (map { $_->[0] } $self->_extract_order_criteria($order_by)),
 +    (map { $_->[0] } $self->_extract_order_criteria($order_by, undef, 1)),
      $where ? @{$self->_extract_fixed_condition_columns($where)} :(),
-   ]);
+   ) or return undef;
+   my $colinfo = $self->_resolve_column_info($ident, \@cols);
+   return keys %$colinfo
+     ? $self->_columns_comprise_identifying_set( $colinfo,  \@cols )
+     : undef
+   ;
+ }
  
-   return undef unless keys %$colinfo;
+ sub _columns_comprise_identifying_set {
+   my ($self, $colinfo, $columns) = @_;
  
    my $cols_per_src;
-   $cols_per_src->{$_->{-source_alias}}{$_->{-colname}} = $_ for values %$colinfo;
+   $cols_per_src -> {$_->{-source_alias}} -> {$_->{-colname}} = $_
+     for grep { defined $_ } @{$colinfo}{@$columns};
  
    for (values %$cols_per_src) {
      my $src = (values %$_)[0]->{-result_source};
@@@ -940,7 -960,7 +979,7 @@@ sub _main_source_order_by_portion_is_st
  # something that is in fact there - the stack will recover gracefully
  # Also - DQ and the mst it rode in on will save us all RSN!!!
  sub _extract_fixed_condition_columns {
-   my ($self, $where, $nested) = @_;
+   my ($self, $where) = @_;
  
    return unless ref $where eq 'HASH';
  
    for my $lhs (keys %$where) {
      if ($lhs =~ /^\-and$/i) {
        push @cols, ref $where->{$lhs} eq 'ARRAY'
-         ? ( map { $self->_extract_fixed_condition_columns($_, 1) } @{$where->{$lhs}} )
-         : $self->_extract_fixed_condition_columns($where->{$lhs}, 1)
+         ? ( map { @{ $self->_extract_fixed_condition_columns($_) } } @{$where->{$lhs}} )
+         : @{ $self->_extract_fixed_condition_columns($where->{$lhs}) }
        ;
      }
      elsif ($lhs !~ /^\-/) {
        ));
      }
    }
-   return $nested ? @cols : \@cols;
+   return \@cols;
  }
  
  1;
@@@ -48,6 -48,12 +48,12 @@@ els
    # using SQLT and set up whatever databases necessary
    export DBICTEST_SQLT_DEPLOY=1
  
+   # if we run under --dev install latest github of TB1.5 first
+   # (unreleased workaround for precedence warnings)
+   if [[ "$DEVREL_DEPS" == "true" ]] ; then
+     parallel_installdeps_notest git://github.com/nthykier/test-more.git@fix-return-precedence-issue
+   fi
    # do the preinstall in several passes to minimize amount of cross-deps installing
    # multiple times, and to avoid module re-architecture breaking another install
    # (e.g. once Carp is upgraded there's no more Carp::Heavy,
    parallel_installdeps_notest Carp
    parallel_installdeps_notest Module::Build Module::Runtime
    parallel_installdeps_notest File::Spec Data::Dumper
-   parallel_installdeps_notest Test::Exception Encode::Locale Test::Fatal R/RS/RSAVAGE/Tree-DAG_Node-1.13.tgz
+   parallel_installdeps_notest Test::Exception Encode::Locale Test::Fatal
    parallel_installdeps_notest Test::Warn B::Hooks::EndOfScope Test::Differences HTTP::Status
    parallel_installdeps_notest Test::Pod::Coverage Test::EOL Devel::GlobalDestruction Sub::Name MRO::Compat Class::XSAccessor URI::Escape HTML::Entities
    parallel_installdeps_notest YAML LWP Class::Trigger JSON::XS DBI DateTime::Format::Builder Class::Accessor::Grouped Package::Variant
 -  parallel_installdeps_notest Moose Module::Install JSON SQL::Translator File::Which
 +  parallel_installdeps_notest Moose Module::Install JSON SQL::Translator File::Which indirect multidimensional bareword::filehandles
  
    if [[ -n "DBICTEST_FIREBIRD_DSN" ]] ; then
      # the official version is very much outdated and does not compile on 5.14+
@@@ -123,27 -129,46 +129,46 @@@ if [[ "$CLEANTEST" = "true" ]]; the
    if [[ -n "$HARNESS_SUBCLASS" ]] ; then
  
      INSTALLDEPS_SKIPPED_TESTLIST=$(perl -0777 -e '
- my $in = <>;
- my $re = qr(
-   ^ (?: \QBuilding and testing\E | \s* CPAN\.pm: .+? (?i:build)\S* ) \s+ (\S+)
-   .*?
-   ^ === \s \QSkipping nonessential autogenerated tests: \E([^\n]+)
- )msx;
- while ( $in =~ /$re/g ) {
-   print "!!! Skipped nonessential tests while installing $1: $2\n"
+ my $curmod_re = qr{
+ ^
+   (?:
+     \QBuilding and testing\E
+       |
+     [\x20\t]* CPAN\.pm: [^\n]*? (?i:build)\S*
+   )
+   [\x20\t]+ (\S+)
+ $}mx;
+ my $curskip_re = qr{^ === \x20 \QSkipping nonessential autogenerated tests: \E([^\n]+) }mx;
+ my (undef, @chunks) = (split qr/$curmod_re/, <>);
+ while (@chunks) {
+   my ($mod, $log) = splice @chunks, 0, 2;
+   print "!!! Skipped nonessential tests while installing $mod:\n\t$1\n"
+     if $log =~ $curskip_re;
  }
  ' <<< "$LASTOUT")
  
+     if [[ -n "$INSTALLDEPS_SKIPPED_TESTLIST" ]] ; then
+       POSTMORTEM="$POSTMORTEM$(
+         echo
+         echo "The following non-essential tests were skipped during deps installation"
+         echo "============================================================="
+         echo "$INSTALLDEPS_SKIPPED_TESTLIST"
+         echo "============================================================="
+         echo
+       )"
+     fi
      unset HARNESS_SUBCLASS
    fi
  
  else
  
    # listalldeps is deliberate - will upgrade everything it can find
    parallel_installdeps_notest $(make listalldeps)
  fi
  
  echo_err "$(tstamp) Dependency installation finished"
@@@ -172,7 -197,7 +197,7 @@@ $(perl -0777 -p -e 's/.+\n\n(?!\z)//s' 
  $(free -m -t)
  
  = Environment
- $(env | grep -P 'TEST|TRAVIS|PERL|DBIC' | LC_ALL=C sort | cat -v)
+ $(env | grep -P 'TEST|HARNESS|MAKE|TRAVIS|PERL|DBIC' | LC_ALL=C sort | cat -v)
  
  = Perl in use
  $(perl -V)
diff --combined t/53lean_startup.t
@@@ -64,8 -64,6 +64,8 @@@ use strict
  use warnings;
  use Test::More;
  
 +use lib 't/dqlib';
 +
  BEGIN {
    plan skip_all => 'A defined PERL5OPT may inject extra deps crashing this test'
      if $ENV{PERL5OPT};
  
      Class::Accessor::Grouped
      Class::C3::Componentised
 +
 +    Module::Runtime
 +    Data::Query::Constants
 +    Data::Query::ExprHelpers
    ));
  
    require DBICTest::Schema;
  # and do full populate() as well, just in case - shouldn't add new stuff
  {
    local $ENV{DBICTEST_SQLITE_REVERSE_DEFAULT_ORDER};
-   require DBICTest;
+   {
+     # in general we do not want DBICTest to load before sqla, but it is
+     # ok to cheat here
+     local $INC{'SQL/Abstract.pm'};
+     require DBICTest;
+   }
    my $s = DBICTest->init_schema;
    is ($s->resultset('Artist')->find(1)->name, 'Caterwauler McCrae');
    assert_no_missing_expected_requires();
diff --combined t/lib/DBICTest.pm
@@@ -4,7 -4,38 +4,40 @@@ package # hide from PAUS
  use strict;
  use warnings;
  
 +use lib 't/dqlib';
++
+ # this noop trick initializes the STDOUT, so that the TAP::Harness
+ # issued IO::Select->can_read calls (which are blocking wtf wtf wtf)
+ # keep spinning and scheduling jobs
+ # This results in an overall much smoother job-queue drainage, since
+ # the Harness blocks less
+ # (ideally this needs to be addressed in T::H, but a quick patchjob
+ # broke everything so tabling it for now)
+ BEGIN {
+   if ($INC{'Test/Builder.pm'}) {
+     local $| = 1;
+     print "#\n";
+   }
+ }
+ use Module::Runtime 'module_notional_filename';
+ BEGIN {
+   for my $mod (qw( DBIC::SqlMakerTest SQL::Abstract )) {
+     if ( $INC{ module_notional_filename($mod) } ) {
+       # FIXME this does not seem to work in BEGIN - why?!
+       #require Carp;
+       #$Carp::Internal{ (__PACKAGE__) }++;
+       #Carp::croak( __PACKAGE__ . " must be loaded before $mod" );
+       my ($fr, @frame) = 1;
+       while (@frame = caller($fr++)) {
+         last if $frame[1] !~ m|^t/lib/DBICTest|;
+       }
+       die __PACKAGE__ . " must be loaded before $mod (or modules using $mod) at $frame[1] line $frame[2]\n";
+     }
+   }
+ }
  
  use DBICTest::RunMode;
  use DBICTest::Schema;
@@@ -4,8 -4,8 +4,8 @@@ use warnings
  use Test::More;
  
  use lib qw(t/lib);
- use DBIC::SqlMakerTest;
  use DBICTest;
+ use DBIC::SqlMakerTest;
  use DBIx::Class::SQLMaker::LimitDialects;
  
  my ($ROWS, $OFFSET) = (
@@@ -100,10 -100,10 +100,10 @@@ for 
              LEFT JOIN "track" "tracks"
                ON "tracks"."cd" = "cds_unordered"."cdid"
            WHERE "me"."rank" = ?
-           GROUP BY "cds_unordered"."cdid", "cds_unordered"."artist", "cds_unordered"."title", "cds_unordered"."year", "cds_unordered"."genreid", "cds_unordered"."single_track"
+           GROUP BY "cds_unordered"."cdid", "cds_unordered"."artist", "cds_unordered"."title", "cds_unordered"."year", "cds_unordered"."genreid", "cds_unordered"."single_track", "me"."name"
            ORDER BY  MAX("genre"."name") DESC,
 -                    MAX( tracks.title ) DESC,
 +                    MAX("tracks"."title") DESC,
-                     MIN("me"."name"),
+                     "me"."name" ASC,
                      "year" DESC,
                      "cds_unordered"."title" DESC
            LIMIT ?
            ON "tracks"."cd" = "cds_unordered"."cdid"
        WHERE "me"."rank" = ?
        ORDER BY  "genre"."name" DESC,
 -                tracks.title DESC,
 +                "tracks"."title" DESC,
                  "me"."name" ASC,
                  "year" DESC,
                  "cds_unordered"."title" DESC
@@@ -2,7 -2,6 +2,7 @@@ use strict
  use warnings;
  
  use lib qw(t/lib);
 +use lib qw(t/dqlib);
  use Test::More;
  use Test::Exception;
  
@@@ -61,7 -60,7 +61,7 @@@ my $fks = $schema->resultset ('FourKeys
    {
      sensors => { '!=', 'c' },
      ( map { $_ => [1, 2] } qw/foo bar hello goodbye/ ),
-   }, { join => 'fourkeys_to_twokeys'}
+   }, { join => { fourkeys_to_twokeys => 'twokeys' }}
  );
  
  is ($fks->count, 4, 'Joined FourKey count correct (2x2)');
@@@ -88,11 -87,11 +88,11 @@@ is ($fb->discard_changes->read_count, 2
  is ($fc->discard_changes->read_count, 30, 'Update did not touch outlier');
  
  # make the multi-join stick
- $fks = $fks->search({ 'fourkeys_to_twokeys.pilot_sequence' => { '!=' => 666 } });
+ my $fks_multi = $fks->search({ 'fourkeys_to_twokeys.pilot_sequence' => { '!=' => 666 } });
  
  $schema->storage->debugobj ($debugobj);
  $schema->storage->debug (1);
- $fks->update ({ read_count => \ 'read_count + 1' });
+ $fks_multi->update ({ read_count => \ 'read_count + 1' });
  $schema->storage->debugobj ($orig_debugobj);
  $schema->storage->debug ($orig_debug);
  
@@@ -114,7 -113,7 +114,7 @@@ is ($fc->discard_changes->read_count, 3
  $schema->storage->_use_multicolumn_in (1);
  $schema->storage->debugobj ($debugobj);
  $schema->storage->debug (1);
- throws_ok { $fks->update ({ read_count => \ 'read_count + 1' }) } # this can't actually execute, we just need the "as_query"
+ throws_ok { $fks_multi->update ({ read_count => \ 'read_count + 1' }) } # this can't actually execute, we just need the "as_query"
    qr/\QDBI Exception:/ or do { $sql = ''; @bind = () };
  $schema->storage->_use_multicolumn_in (undef);
  $schema->storage->debugobj ($orig_debugobj);
@@@ -146,6 -145,30 +146,30 @@@ is_same_sql_bind 
    'Correct update-SQL with multicolumn in support',
  );
  
+ # make a *premultiplied* join stick
+ my $fks_premulti = $fks->search({ 'twokeys.artist' => { '!=' => 666 } });
+ $schema->storage->debugobj ($debugobj);
+ $schema->storage->debug (1);
+ $fks_premulti->update ({ read_count => \ 'read_count + 1' });
+ $schema->storage->debugobj ($orig_debugobj);
+ $schema->storage->debug ($orig_debug);
+ is_same_sql_bind (
+   $sql,
+   \@bind,
+   'UPDATE fourkeys
+    SET read_count = read_count + 1
+    WHERE ( bar = ? AND foo = ? AND goodbye = ? AND hello = ? ) OR ( bar = ? AND foo = ? AND goodbye = ? AND hello = ? )',
+   [ map { "'$_'" } ( (1) x 4, (2) x 4 ) ],
+   'Correct update-SQL with premultiplied restricting join without pruning',
+ );
+ is ($fa->discard_changes->read_count, 13, 'Update ran only once on joined resultset');
+ is ($fb->discard_changes->read_count, 23, 'Update ran only once on joined resultset');
+ is ($fc->discard_changes->read_count, 30, 'Update did not touch outlier');
  #
  # Make sure multicolumn in or the equivalent functions correctly
  #
@@@ -4,11 -4,10 +4,10 @@@ use warnings
  use Test::More;
  
  use lib qw(t/lib);
+ use DBICTest;
  use DBIC::SqlMakerTest;
+ use DBIC::DebugObj;
  
- use_ok('DBICTest');
- use_ok('DBIC::DebugObj');
  my $schema = DBICTest->init_schema();
  
  $schema->storage->sql_maker->quote_char('`');
@@@ -39,7 -38,7 +38,7 @@@ like($sql, qr/ORDER BY `\Q${order}\E`/
  $rs = $schema->resultset('CD')->search({},
              { 'order_by' => \$order });
  eval { $rs->first };
 -like($sql, qr/ORDER BY \Q${order}\E/, 'did not quote ORDER BY with scalarref');
 +like($sql, qr/ORDER BY `year` DESC/, 'did not misquote ORDER BY with scalarref');
  
  $schema->storage->sql_maker->quote_char([qw/[ ]/]);
  $schema->storage->sql_maker->name_sep('.');
@@@ -4,10 -4,9 +4,9 @@@ use warnings
  use Test::More;
  
  use lib qw(t/lib);
+ use DBICTest;
  use DBIC::SqlMakerTest;
- use_ok('DBICTest');
- use_ok('DBIC::DebugObj');
+ use DBIC::DebugObj;
  
  my $schema = DBICTest->init_schema();
  
@@@ -45,7 -44,7 +44,7 @@@ like($sql, qr/ORDER BY `\Q${order}\E`/
  $rs = $schema->resultset('CD')->search({},
              { 'order_by' => \$order });
  eval { $rs->first };
 -like($sql, qr/ORDER BY \Q${order}\E/, 'did not quote ORDER BY with scalarref');
 +like($sql, qr/ORDER BY `year` DESC/, 'did not misquote ORDER BY with scalarref');
  
  $schema->connection(
    $dsn,
@@@ -4,8 -4,9 +4,10 @@@ use strict
  use Test::More;
  use File::Find;
  
+ use DBIx::Class::_Util 'sigwarn_silencer';
  use lib 't/lib';
 +use lib 't/dqlib';
  
  find({
    wanted => sub {
        die "fork failed: $!"
      }
      elsif (!$pid) {
-       if (my @offenders = grep { $_ =~ /(^|\/)DBI/ } keys %INC) {
+       if (my @offenders = grep { $_ ne 'DBIx/Class/_Util.pm' } grep { $_ =~ /(^|\/)DBI/ } keys %INC) {
          die "Wtf - DBI* modules present in %INC: @offenders";
        }
  
-       local $SIG{__WARN__} = sub { warn @_ unless $_[0] =~ /\bdeprecated\b/i };
+       local $SIG{__WARN__} = sigwarn_silencer( qr/\bdeprecated\b/i );
        require( ( $_ =~ m| t/lib/ (.+) |x )[0] ); # untaint and strip lib-part (. is unavailable under -T)
        exit 0;
      }