算法学习 【第一周】 Ⅲ

简介: “贪亦有道”,了解有关贪心算法的基础知识,如果我们在生活中也按照贪心算法那样去选择会是什么样的呢?

一、前言

本期博客我们将学习算法策略之贪心算法的有关基础知识。

二、什么是贪心算法?

贪心算法是遵循在每个阶段做出局部最优选择的问题解决启发式的任何算法。[1]在许多问题中,贪心策略不会产生最优解,但贪心启发式算法可以产生局部最优解,在合理的时间内逼近全局最优解。

例如,旅行商问题(计算复杂度高)的贪心策略是以下启发式的:“在旅程的每一步,访问最近的未访问城市。” 这种启发式并不打算找到最佳解决方案,但它会在合理数量的步骤中终止;为如此复杂的问题找到最佳解决方案通常需要很多不合理的步骤。在数学优化中,贪心算法对具有拟阵性质的组合问题进行优化求解,并对具有子模结构的优化问题给出常数因子近似。

贪心算法无法为许多其他问题产生最佳解决方案,甚至可能产生唯一的最差可能解决方案。一个例子是上面提到的旅行商问题:对于每个城市数量,有一个城市之间的距离分配,最近邻启发式产生唯一的最差可能旅行。

贪心算法在解决问题的策略上"目光短浅”。贪心算法只根据当前信息做出选择,而且一旦做出选择,则不管将来有什么结果,这个选择都不会改变。换言之,贪心算法并不是从整体上做最优考虑,它所做出的选择只是某种意义上的局部最优。在实际应用中,很多问题都可以通过贪心算法得到最优解或最优解的近似解。

三、贪心算法的优缺点

  1. 优点
  • 该算法更容易描述
  • 该算法可以比其他算法执行得更好(但并非在所有情况下)
  1. 缺点
  • 贪心算法并不总是产生最优解

我们举个例子:

例如,假设我们想在下图中找到从根到叶的最长路径。让我们在这里使用贪心算法。

image-20221022154750428.png

贪心算法具体步骤:

  1. 从根节点20开始。右孩子的体重是3,左孩子的体重是2
  2. 我们的问题是找到最大的路径。并且,此时的最优解是3。所以,贪心算法会选择3
  3. 最后一个3的独生子的体重是1。这给了我们最终的结果20 + 3 + 1 = 24

但是这并不是最佳解决方法,我们还有可以有另一条路径可以得出比贪心算法更长的路径。

image-20221022154952787.png

20 + 2 + 10 = 32,因此,贪心算法并不总是给出最优/可行的解决方案。

四、贪心选择

贪心选择是指原问题的整体最优解可以通过一系列局部最优的选择得到:先做出当前最优的选择,将原问题变为一个相似却规模更小的子问题,而后的每一步都是当前最优的选择。这种选择依赖于已做出的选择,但不依赖于未做出的选择。

五、最优子结构

最优子结构是指原问题的最优解包含子问题的最优解。贪心算法通过一系列的局部最优解(子问题的最优解)得到全局最优解(原问题的最优解),如果原问题的最优解和子问题的最优解没有关系,则求解子问题没有任何意义,无法采用贪心算法。例如,对于原问题S={a1,2,...,ai,..., an},可以在通过贪心选择得到一个当前最优解{a}之后,转换为求解子问题S-{a分,继续求解该子问题,最后对所有子问题的最优解进行合并,即可得到原问题的最优解,如下图所示:

image-20221022155629456.png

六、如何创建贪心算法?

贪心算法的求解过程:

  • 第 1 步:在给定问题中,找到最佳子结构或子问题。
  • 第 2 步:确定解决方案将包括哪些内容(例如,最大和、最短路径)。
  • 第 3 步:创建一个遍历所有子问题并创建最佳解决方案的迭代过程。

七、最后我想说

本期博客主要介绍了有关贪心算法的一些基础知识,后续博客我们就会通过一系列的具体问题深入的了解学习一下贪心算法的具体应用。

最后,问大家一个不属于计算机领域的问题:如果我们在生活中也按照贪心算法那样去选择,你觉得会是什么样的呢?

目录
相关文章
|
2月前
|
存储 算法 Go
算法学习:数组 vs 链表
算法学习:数组 vs 链表
35 0
|
2月前
|
机器学习/深度学习 算法 PyTorch
【从零开始学习深度学习】43. 算法优化之Adam算法【RMSProp算法与动量法的结合】介绍及其Pytorch实现
【从零开始学习深度学习】43. 算法优化之Adam算法【RMSProp算法与动量法的结合】介绍及其Pytorch实现
|
11天前
|
机器学习/深度学习 人工智能 资源调度
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
28 12
|
4天前
|
算法 Java
掌握算法学习之字符串经典用法
文章总结了字符串在算法领域的经典用法,特别是通过双指针法来实现字符串的反转操作,并提供了LeetCode上相关题目的Java代码实现,强调了掌握这些技巧对于提升算法思维的重要性。
|
6天前
|
算法 NoSQL 中间件
go语言后端开发学习(六) ——基于雪花算法生成用户ID
本文介绍了分布式ID生成中的Snowflake(雪花)算法。为解决用户ID安全性与唯一性问题,Snowflake算法生成的ID具备全局唯一性、递增性、高可用性和高性能性等特点。64位ID由符号位(固定为0)、41位时间戳、10位标识位(含数据中心与机器ID)及12位序列号组成。面对ID重复风险,可通过预分配、动态或统一分配标识位解决。Go语言实现示例展示了如何使用第三方包`sonyflake`生成ID,确保不同节点产生的ID始终唯一。
go语言后端开发学习(六) ——基于雪花算法生成用户ID
|
11天前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之HNet:Continual learning with hypernetworks
本文提出了一种基于任务条件超网络(Hypernetworks)的持续学习模型,通过超网络生成目标网络权重并结合正则化技术减少灾难性遗忘,实现有效的任务顺序学习与长期记忆保持。
14 4
|
11天前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
49 3
|
12天前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-综述】基于脑启发的连续学习算法有哪些?附思维导图
这篇博客文章总结了连续学习的分类,包括经典方法(重放、正则化和稀疏化方法)和脑启发方法(突触启发、双系统启发、睡眠启发和模块化启发方法),并讨论了它们在解决灾难性遗忘问题上的优势和局限性。
13 2
|
1月前
|
机器学习/深度学习 数据采集 算法
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机回归模型(SVR算法)项目实战
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机回归模型(SVR算法)项目实战
|
1月前
|
机器学习/深度学习 数据采集 算法
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机分类模型(SVC算法)项目实战
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机分类模型(SVC算法)项目实战

热门文章

最新文章