Typo in comment.
Abigail [Thu, 13 Oct 2005 01:25:10 +0000 (03:25 +0200)]
Message-ID: <20051012232509.GA1018@abigail.nl>

p4raw-id: //depot/perl@25743

pp_sort.c

index 9592edb..2bd2c80 100644 (file)
--- a/pp_sort.c
+++ b/pp_sort.c
@@ -269,7 +269,7 @@ dynprep(pTHX_ gptr *list1, gptr *list2, size_t nmemb, SVCOMPARE_t cmp)
  * problem is subdivided into smaller and smaller parts, the parts
  * fit into smaller (and faster) caches.  So it doesn't matter how
  * many levels of cache exist, quicksort will "find" them, and,
- * as long as smaller is faster, take advanatge of them.
+ * as long as smaller is faster, take advantage of them.
  *
  * By contrast, consider how the original mergesort algorithm worked.
  * Suppose we have five runs (each typically of length 2 after dynprep).