This commit is contained in:
louzefeng
2024-07-11 05:50:32 +00:00
parent bf99793fd0
commit d3828a7aee
6071 changed files with 0 additions and 0 deletions

View File

@@ -0,0 +1,313 @@
<audio id="audio" title="12 | 排序如何用快排思想在O(n)内查找第K大元素" controls="" preload="none"><source id="mp3" src="https://static001.geekbang.org/resource/audio/c2/31/c26554d074671749f7ee7468de5ab831.mp3"></audio>
上一节我讲了冒泡排序、插入排序、选择排序这三种排序算法它们的时间复杂度都是O(n<sup>2</sup>)比较高适合小规模数据的排序。今天我讲两种时间复杂度为O(nlogn)的排序算法,**归并排序**和**快速排序**。这两种排序算法适合大规模的数据排序,比上一节讲的那三种排序算法要更常用。
归并排序和快速排序都用到了分治思想,非常巧妙。我们可以借鉴这个思想,来解决非排序的问题,比如:**如何在O(n)的时间复杂度内查找一个无序数组中的第K大元素** 这就要用到我们今天要讲的内容。
## 归并排序的原理
我们先来看**归并排序**Merge Sort
归并排序的核心思想还是蛮简单的。如果要排序一个数组,我们先把数组从中间分成前后两部分,然后对前后两部分分别排序,再将排好序的两部分合并在一起,这样整个数组就都有序了。
<img src="https://static001.geekbang.org/resource/image/db/2b/db7f892d3355ef74da9cd64aa926dc2b.jpg" alt="">
归并排序使用的就是**分治思想**。分治,顾名思义,就是分而治之,将一个大问题分解成小的子问题来解决。小的子问题解决了,大问题也就解决了。
从我刚才的描述,你有没有感觉到,分治思想跟我们前面讲的递归思想很像。是的,分治算法一般都是用递归来实现的。**分治是一种解决问题的处理思想,递归是一种编程技巧**,这两者并不冲突。分治算法的思想我后面会有专门的一节来讲,现在不展开讨论,我们今天的重点还是排序算法。
前面我通过举例让你对归并有了一个感性的认识,又告诉你,归并排序用的是分治思想,可以用递归来实现。我们现在就来看看**如何用递归代码来实现归并排序**。
我在[第10节](https://time.geekbang.org/column/article/41440)讲的递归代码的编写技巧你还记得吗?写递归代码的技巧就是,分析得出递推公式,然后找到终止条件,最后将递推公式翻译成递归代码。所以,要想写出归并排序的代码,我们先写出归并排序的递推公式。
```
递推公式:
merge_sort(p…r) = merge(merge_sort(p…q), merge_sort(q+1…r))
终止条件:
p &gt;= r 不用再继续分解
```
我来解释一下这个递推公式。
merge_sort(p…r)表示给下标从p到r之间的数组排序。我们将这个排序问题转化为了两个子问题merge_sort(p…q)和merge_sort(q+1…r)其中下标q等于p和r的中间位置也就是(p+r)/2。当下标从p到q和从q+1到r这两个子数组都排好序之后我们再将两个有序的子数组合并在一起这样下标从p到r之间的数据就也排好序了。
有了递推公式,转化成代码就简单多了。为了阅读方便,我这里只给出伪代码,你可以翻译成你熟悉的编程语言。
```
// 归并排序算法, A是数组n表示数组大小
merge_sort(A, n) {
merge_sort_c(A, 0, n-1)
}
// 递归调用函数
merge_sort_c(A, p, r) {
// 递归终止条件
if p &gt;= r then return
// 取p到r之间的中间位置q
q = (p+r) / 2
// 分治递归
merge_sort_c(A, p, q)
merge_sort_c(A, q+1, r)
// 将A[p...q]和A[q+1...r]合并为A[p...r]
merge(A[p...r], A[p...q], A[q+1...r])
}
```
你可能已经发现了merge(A[p...r], A[p...q], A[q+1...r])这个函数的作用就是将已经有序的A[p...q]和A[q+1....r]合并成一个有序的数组并且放入A[p....r]。那这个过程具体该如何做呢?
如图所示我们申请一个临时数组tmp大小与A[p...r]相同。我们用两个游标i和j分别指向A[p...q]和A[q+1...r]的第一个元素。比较这两个元素A[i]和A[j]如果A[i]&lt;=A[j]我们就把A[i]放入到临时数组tmp并且i后移一位否则将A[j]放入到数组tmpj后移一位。
继续上述比较过程直到其中一个子数组中的所有数据都放入临时数组中再把另一个数组中的数据依次加入到临时数组的末尾这个时候临时数组中存储的就是两个子数组合并之后的结果了。最后再把临时数组tmp中的数据拷贝到原数组A[p...r]中。
<img src="https://static001.geekbang.org/resource/image/95/2f/95897ade4f7ad5d10af057b1d144a22f.jpg" alt="">
我们把merge()函数写成伪代码,就是下面这样:
```
merge(A[p...r], A[p...q], A[q+1...r]) {
var i := pj := q+1k := 0 // 初始化变量i, j, k
var tmp := new array[0...r-p] // 申请一个大小跟A[p...r]一样的临时数组
while i&lt;=q AND j&lt;=r do {
if A[i] &lt;= A[j] {
tmp[k++] = A[i++] // i++等于i:=i+1
} else {
tmp[k++] = A[j++]
}
}
// 判断哪个子数组中有剩余的数据
var start := iend := q
if j&lt;=r then start := j, end:=r
// 将剩余的数据拷贝到临时数组tmp
while start &lt;= end do {
tmp[k++] = A[start++]
}
// 将tmp中的数组拷贝回A[p...r]
for i:=0 to r-p do {
A[p+i] = tmp[i]
}
}
```
你还记得[第7讲](https://time.geekbang.org/column/article/41149)讲过的利用哨兵简化编程的处理技巧吗merge()合并函数如果借助哨兵,代码就会简洁很多,这个问题留给你思考。
## 归并排序的性能分析
这样跟着我一步一步分析,归并排序是不是没那么难啦?还记得上节课我们分析排序算法的三个问题吗?接下来,我们来看归并排序的三个问题。
**第一,归并排序是<strong><strong>稳定**</strong>的排序算法吗?</strong>
结合我前面画的那张图和归并排序的伪代码你应该能发现归并排序稳不稳定关键要看merge()函数,也就是两个有序子数组合并成一个有序数组的那部分代码。
在合并的过程中如果A[p...q]和A[q+1...r]之间有值相同的元素那我们可以像伪代码中那样先把A[p...q]中的元素放入tmp数组。这样就保证了值相同的元素在合并前后的先后顺序不变。所以归并排序是一个稳定的排序算法。
**第二,归并排序的<strong><strong>时间复杂度**</strong>是多少?</strong>
归并排序涉及递归,时间复杂度的分析稍微有点复杂。我们正好借此机会来学习一下,如何分析递归代码的时间复杂度。
在递归那一节我们讲过递归的适用场景是一个问题a可以分解为多个子问题b、c那求解问题a就可以分解为求解问题b、c。问题b、c解决之后我们再把b、c的结果合并成a的结果。
如果我们定义求解问题a的时间是T(a)求解问题b、c的时间分别是T(b)和 T( c),那我们就可以得到这样的递推关系式:
```
T(a) = T(b) + T(c) + K
```
其中K等于将两个子问题b、c的结果合并成问题a的结果所消耗的时间。
从刚刚的分析,我们可以得到一个重要的结论:**不仅递归求解的问题可以写成递推公式,递归代码的时间复杂度也可以写成递推公式。**
套用这个公式,我们来分析一下归并排序的时间复杂度。
我们假设对n个元素进行归并排序需要的时间是T(n)那分解成两个子数组排序的时间都是T(n/2)。我们知道merge()函数合并两个有序子数组的时间复杂度是O(n)。所以,套用前面的公式,归并排序的时间复杂度的计算公式就是:
```
T(1) = C n=1时只需要常量级的执行时间所以表示为C。
T(n) = 2*T(n/2) + n n&gt;1
```
通过这个公式如何来求解T(n)呢?还不够直观?那我们再进一步分解一下计算过程。
```
T(n) = 2*T(n/2) + n
= 2*(2*T(n/4) + n/2) + n = 4*T(n/4) + 2*n
= 4*(2*T(n/8) + n/4) + 2*n = 8*T(n/8) + 3*n
= 8*(2*T(n/16) + n/8) + 3*n = 16*T(n/16) + 4*n
......
= 2^k * T(n/2^k) + k * n
......
```
通过这样一步一步分解推导我们可以得到T(n) = 2^k**T(n/2^k)+k**n。当T(n/2^k)=T(1)时也就是n/2^k=1我们得到k=log<sub>2</sub>n 。我们将k值代入上面的公式得到T(n)=C**n+n**log<sub>2</sub>n 。如果我们用大O标记法来表示的话T(n)就等于O(nlogn)。所以归并排序的时间复杂度是O(nlogn)。
从我们的原理分析和伪代码可以看出归并排序的执行效率与要排序的原始数组的有序程度无关所以其时间复杂度是非常稳定的不管是最好情况、最坏情况还是平均情况时间复杂度都是O(nlogn)。
**第三,归并排序的<strong><strong>空间复杂度**</strong>是多少?</strong>
归并排序的时间复杂度任何情况下都是O(nlogn)看起来非常优秀。待会儿你会发现即便是快速排序最坏情况下时间复杂度也是O(n<sup>2</sup>)。)但是,归并排序并没有像快排那样,应用广泛,这是为什么呢?因为它有一个致命的“弱点”,那就是归并排序不是原地排序算法。
这是因为归并排序的合并函数在合并两个有序数组为一个有序数组时需要借助额外的存储空间。这一点你应该很容易理解。那我现在问你归并排序的空间复杂度到底是多少呢是O(n)还是O(nlogn),应该如何分析呢?
如果我们继续按照分析递归时间复杂度的方法通过递推公式来求解那整个归并过程需要的空间复杂度就是O(nlogn)。不过,类似分析时间复杂度那样来分析空间复杂度,这个思路对吗?
实际上递归代码的空间复杂度并不能像时间复杂度那样累加。刚刚我们忘记了最重要的一点那就是尽管每次合并操作都需要申请额外的内存空间但在合并完成之后临时开辟的内存空间就被释放掉了。在任意时刻CPU只会有一个函数在执行也就只会有一个临时的内存空间在使用。临时内存空间最大也不会超过n个数据的大小所以空间复杂度是O(n)。
## 快速排序的原理
我们再来看快速排序算法Quicksort我们习惯性把它简称为“快排”。快排利用的也是分治思想。乍看起来它有点像归并排序但是思路其实完全不一样。我们待会会讲两者的区别。现在我们先来看下快排的核心思想。
快排的思想是这样的如果要排序数组中下标从p到r之间的一组数据我们选择p到r之间的任意一个数据作为pivot分区点
我们遍历p到r之间的数据将小于pivot的放到左边将大于pivot的放到右边将pivot放到中间。经过这一步骤之后数组p到r之间的数据就被分成了三个部分前面p到q-1之间都是小于pivot的中间是pivot后面的q+1到r之间是大于pivot的。
<img src="https://static001.geekbang.org/resource/image/4d/81/4d892c3a2e08a17f16097d07ea088a81.jpg" alt="">
根据分治、递归的处理思想我们可以用递归排序下标从p到q-1之间的数据和下标从q+1到r之间的数据直到区间缩小为1就说明所有的数据都有序了。
如果我们用递推公式来将上面的过程写出来的话,就是这样:
```
递推公式:
quick_sort(p…r) = quick_sort(p…q-1) + quick_sort(q+1… r)
终止条件:
p &gt;= r
```
我将递推公式转化成递归代码。跟归并排序一样,我还是用伪代码来实现,你可以翻译成你熟悉的任何语言。
```
// 快速排序A是数组n表示数组的大小
quick_sort(A, n) {
quick_sort_c(A, 0, n-1)
}
// 快速排序递归函数p,r为下标
quick_sort_c(A, p, r) {
if p &gt;= r then return
q = partition(A, p, r) // 获取分区点
quick_sort_c(A, p, q-1)
quick_sort_c(A, q+1, r)
}
```
归并排序中有一个merge()合并函数我们这里有一个partition()分区函数。partition()分区函数实际上我们前面已经讲过了就是随机选择一个元素作为pivot一般情况下可以选择p到r区间的最后一个元素然后对A[p...r]分区函数返回pivot的下标。
如果我们不考虑空间消耗的话partition()分区函数可以写得非常简单。我们申请两个临时数组X和Y遍历A[p...r]将小于pivot的元素都拷贝到临时数组X将大于pivot的元素都拷贝到临时数组Y最后再将数组X和数组Y中数据顺序拷贝到A[p....r]。
<img src="https://static001.geekbang.org/resource/image/66/dc/6643bc3cef766f5b3e4526c332c60adc.jpg" alt="">
但是如果按照这种思路实现的话partition()函数就需要很多额外的内存空间所以快排就不是原地排序算法了。如果我们希望快排是原地排序算法那它的空间复杂度得是O(1)那partition()分区函数就不能占用太多额外的内存空间我们就需要在A[p...r]的原地完成分区操作。
原地分区函数的实现思路非常巧妙,我写成了伪代码,我们一起来看一下。
```
partition(A, p, r) {
pivot := A[r]
i := p
for j := p to r-1 do {
if A[j] &lt; pivot {
swap A[i] with A[j]
i := i+1
}
}
swap A[i] with A[r]
return i
```
这里的处理有点类似选择排序。我们通过游标i把A[p...r-1]分成两部分。A[p...i-1]的元素都是小于pivot的我们暂且叫它“已处理区间”A[i...r-1]是“未处理区间”。我们每次都从未处理的区间A[i...r-1]中取一个元素A[j]与pivot对比如果小于pivot则将其加入到已处理区间的尾部也就是A[i]的位置。
数组的插入操作还记得吗在数组某个位置插入元素需要搬移数据非常耗时。当时我们也讲了一种处理技巧就是交换在O(1)的时间复杂度内完成插入操作。这里我们也借助这个思想只需要将A[i]与A[j]交换就可以在O(1)时间复杂度内将A[j]放到下标为i的位置。
文字不如图直观,所以我画了一张图来展示分区的整个过程。
<img src="https://static001.geekbang.org/resource/image/08/e7/086002d67995e4769473b3f50dd96de7.jpg" alt="">
因为分区的过程涉及交换操作如果数组中有两个相同的元素比如序列68763594在经过第一次分区操作之后两个6的相对先后顺序就会改变。所以快速排序并不是一个稳定的排序算法。
到此,快速排序的原理你应该也掌握了。现在,我再来看另外一个问题:快排和归并用的都是分治思想,递推公式和递归代码也非常相似,那它们的区别在哪里呢?
<img src="https://static001.geekbang.org/resource/image/aa/05/aa03ae570dace416127c9ccf9db8ac05.jpg" alt="">
可以发现,归并排序的处理过程是**由下到上**的,先处理子问题,然后再合并。而快排正好相反,它的处理过程是**由上到下**的先分区然后再处理子问题。归并排序虽然是稳定的、时间复杂度为O(nlogn)的排序算法,但是它是非原地排序算法。我们前面讲过,归并之所以是非原地排序算法,主要原因是合并函数无法在原地执行。快速排序通过设计巧妙的原地分区函数,可以实现原地排序,解决了归并排序占用太多内存的问题。
## 快速排序的性能分析
现在,我们来分析一下快速排序的性能。我在讲解快排的实现原理的时候,已经分析了稳定性和空间复杂度。快排是一种原地、不稳定的排序算法。现在,我们集中精力来看快排的时间复杂度。
快排也是用递归来实现的。对于递归代码的时间复杂度我前面总结的公式这里也还是适用的。如果每次分区操作都能正好把数组分成大小接近相等的两个小区间那快排的时间复杂度递推求解公式跟归并是相同的。所以快排的时间复杂度也是O(nlogn)。
```
T(1) = C n=1时只需要常量级的执行时间所以表示为C。
T(n) = 2*T(n/2) + n n&gt;1
```
但是公式成立的前提是每次分区操作我们选择的pivot都很合适正好能将大区间对等地一分为二。但实际上这种情况是很难实现的。
我举一个比较极端的例子。如果数组中的数据原来已经是有序的了比如13568。如果我们每次选择最后一个元素作为pivot那每次分区得到的两个区间都是不均等的。我们需要进行大约n次分区操作才能完成快排的整个过程。每次分区我们平均要扫描大约n/2个元素这种情况下快排的时间复杂度就从O(nlogn)退化成了O(n<sup>2</sup>)。
我们刚刚讲了两个极端情况下的时间复杂度,一个是分区极其均衡,一个是分区极其不均衡。它们分别对应快排的最好情况时间复杂度和最坏情况时间复杂度。那快排的平均情况时间复杂度是多少呢?
我们假设每次分区操作都将区间分成大小为9:1的两个小区间。我们继续套用递归时间复杂度的递推公式就会变成这样
```
T(1) = C n=1时只需要常量级的执行时间所以表示为C。
T(n) = T(n/10) + T(9*n/10) + n n&gt;1
```
这个公式的递推求解的过程非常复杂虽然可以求解但我不推荐用这种方法。实际上递归的时间复杂度的求解方法除了递推公式之外还有递归树在树那一节我再讲这里暂时不说。我这里直接给你结论T(n)在大部分情况下的时间复杂度都可以做到O(nlogn)只有在极端情况下才会退化到O(n<sup>2</sup>)。而且,我们也有很多方法将这个概率降到很低,如何来做?我们后面章节再讲。
## 解答开篇
快排核心思想就是**分治**和**分区**我们可以利用分区的思想来解答开篇的问题O(n)时间复杂度内求无序数组中的第K大元素。比如4 2 5 12 3这样一组数据第3大元素就是4。
我们选择数组区间A[0...n-1]的最后一个元素A[n-1]作为pivot对数组A[0...n-1]原地分区这样数组就分成了三部分A[0...p-1]、A[p]、A[p+1...n-1]。
如果p+1=K那A[p]就是要求解的元素如果K&gt;p+1, 说明第K大元素出现在A[p+1...n-1]区间我们再按照上面的思路递归地在A[p+1...n-1]这个区间内查找。同理如果K&lt;p+1那我们就在A[0...p-1]区间查找。
<img src="https://static001.geekbang.org/resource/image/89/91/898d94fc32e0a795fd65897293b98791.jpg" alt="">
我们再来看为什么上述解决思路的时间复杂度是O(n)
第一次分区查找我们需要对大小为n的数组执行分区操作需要遍历n个元素。第二次分区查找我们只需要对大小为n/2的数组执行分区操作需要遍历n/2个元素。依次类推分区遍历元素的个数分别为、n/2、n/4、n/8、n/16.……直到区间缩小为1。
如果我们把每次分区遍历的元素个数加起来就是n+n/2+n/4+n/8+...+1。这是一个等比数列求和最后的和等于2n-1。所以上述解决思路的时间复杂度就为O(n)。
你可能会说我有个很笨的办法每次取数组中的最小值将其移动到数组的最前面然后在剩下的数组中继续找最小值以此类推执行K次找到的数据不就是第K大元素了吗
不过时间复杂度就并不是O(n)了而是O(K * n)。你可能会说时间复杂度前面的系数不是可以忽略吗O(K * n)不就等于O(n)吗?
这个可不能这么简单地划等号。当K是比较小的常量时比如1、2那最好时间复杂度确实是O(n)但当K等于n/2或者n时这种最坏情况下的时间复杂度就是O(n<sup>2</sup>)了。
## 内容小结
归并排序和快速排序是两种稍微复杂的排序算法它们用的都是分治的思想代码都通过递归来实现过程非常相似。理解归并排序的重点是理解递推公式和merge()合并函数。同理理解快排的重点也是理解递推公式还有partition()分区函数。
归并排序算法是一种在任何情况下时间复杂度都比较稳定的排序算法这也使它存在致命的缺点即归并排序不是原地排序算法空间复杂度比较高是O(n)。正因为此,它也没有快排应用广泛。
快速排序算法虽然最坏情况下的时间复杂度是O(n<sup>2</sup>)但是平均情况下时间复杂度都是O(nlogn)。不仅如此快速排序算法时间复杂度退化到O(n<sup>2</sup>)的概率非常小我们可以通过合理地选择pivot来避免这种情况。
## 课后思考
现在你有10个接口访问日志文件每个日志文件大小约300MB每个文件里的日志都是按照时间戳从小到大排序的。你希望将这10个较小的日志文件合并为1个日志文件合并之后的日志仍然按照时间戳从小到大排列。如果处理上述排序任务的机器内存只有1GB你有什么好的解决思路能“快速”地将这10个日志文件合并吗
欢迎留言和我分享,我会第一时间给你反馈。
我已将本节内容相关的详细代码更新到GitHub[戳此](https://github.com/wangzheng0822/algo)即可查看。