算法导论(第三版)具体算法解析与理解

简介: 算法导论(第三版)具体算法解析与理解

算法导论(第三版)

  • 需要重点理解的内容
  • 第 1 章:算法在计算中的作用
  • 第 2 章:算法基础
    • 2.1 插入排序
    • 2.2 分析算法
    • 2.3 设计算法
      • 归并排序
      • 冒泡排序
  • 第 3 章:函数的增长
  • 第 4 章:分治策略
    • 最大子数组问题(maximum subarray)
    • 矩阵乘法的 Strassen 算法

需要重点理解的内容

  • 归并排序
  • 最大子数组问题

第 1 章:算法在计算中的作用

许多有趣算法问题所共有的两个特征:

  1. 存在许多候选解,但绝大多数候选解都没有解决手头的问题。寻找一个真正的解或一个最好的解可能是一个很大的挑战。
  2. 存在实际应用。

第 2 章:算法基础

2.1 插入排序

image.png

// 插入排序
void INSERTION_SORT(int *A, int length){
    for (int j = 1; j < length; j++){
        int key = A[j];
        int i = j - 1;
        while(i >= 0 && A[i] > key){
            A[i+1] = A[i];
            i--;
        }
        A[i+1] = key;
    }
}

循环不变式主要用来帮助我们理解算法的正确性。关于循环不变式,我们必须证明三条性质:

  • 初始化:循环的第一次迭代之前,它为真
  • 保持:如果循环的某次迭代之前它为真,那么下次迭代之前它仍为真
  • 终止:在循环终止时,不变式为我们提供一个有用的性质,该性质有助于证明算法是正确的

本书中在退出循环后,循环计数器保持其值

2.2 分析算法

我们假定一种通用的单处理器计算模型——随机访问机(random-access machine, RAM)来作为算法分析的模型,这里指令一条接一条执行,没有并发操作。具体的一些细节不必过分考究,只要一直保持统一即可,然后尽量绕开一些模棱两可的运算。

本书中主要只求最坏运行时间,因为:

  • 一个算法的最坏情况运行时间给出了任何输入的运行时间的一个上界。知道了这个界,就能确保该算法绝不需要更长的时间
  • 对某些算法,最坏情况经常出现
  • 平均情况往往与最坏情况大致一样差

在某些特定情况下,我们会对一个算法的平均情况运行时间感兴趣。平均情况分析的范围有限,因为对于特定的问题,什么构成一种“平均”输入并不明显。我们常常假定给定规模的所有输入具有相同的可能性。实际上,该假设可能不成立,但是,有时可以使用随机化算法,它做出一些随机的选择,以允许进行概率分析并产生某个期望的运行时间。

我们真正感兴趣的是运行时间的增长率增长量级。用O(n)这样的表示。

2.3 设计算法

分治法

许多有用的算法在结构上是递归的:为了解决一个给定的问题,算法一次或多次递归调用其自身以解决紧密相关的若干子问题。分治模式在每层递归都有三个步骤:

  • 分解原问题为若干子问题,这些子问题是原问题的规模较小的实例
  • 解决这些子问题,递归地求解各子问题。如果子问题的规模足够小,直接求解
  • 合并这些子问题的解成原问题的解

归并排序

image.png

image.png

void MERGE(int *A, int p, int q, int r){
    int i, j;
    int n1 = q - p + 1;
    int n2 = r - q;
    // 这里就不新开数组了,直接开俩长度为10的用作示意
    int L[10] = {0};
    int R[10] = {0};

    for (i = 0; i < n1; i++){
        L[i] = A[p + i - 1];
    }

    for (j = 0; j < n2; j++){
        R[j] = A[q + j];
    }

    L[n1] = 9999;
    R[n2] = 9999;

    i = j = 0;

    for (int k = p - 1; k < r; k++){
        if (L[i] <= R[j]){
            A[k] = L[i];
            i++;
        }
        else{
            A[k] = R[j];
            j++;
        }
    }
}

void MERGE_SORT(int *A, int p, int r){
    if (p < r){
        int q = (p+r)/2;
        MERGE_SORT(A, p, q);
        MERGE_SORT(A, q+1, r);
        MERGE(A, p, q, r);
    }
}

注意一下下标的问题,统一即可。

冒泡排序

image.png

void BUBBLE_SORT(int *A, int length){
    int temp = 0;
    for(int i = 0; i < length - 1; i++){
        for (int j = length - 1; j > i + 1; j--){
            if (A[j] < A[j-1]){
                temp = A[j];
                A[j] = A[j-1];
                A[j-1] = temp;
            }
        }
    }
}

第 3 章:函数的增长

这一章主要讲的是怎么计算复杂度,暂略

第 4 章:分治策略

当子问题足够大,需要递归求解时,我们称之为递归情况(recursive case)。当子问题变得足够小,不再需要递归时,我们说递归已经“触底”,进入了基本情况(base case)

最大子数组问题(maximum subarray)

寻找数组 A 的和最大的非空连续子数组。

假定我们要寻找子数组 A[low...high] 的最大子数组,那么找到中央位置 mid,然后求解两个子数组 A[low...mid] 和 A[mid+1...high]。A[low...high]的任何连续子数组 A[i...j] 所处位置必然是以下三种情况之一:

  • 完全位于子数组 A[low...mid]中,因此 low <= i <= j <= mid
  • 完全位于子数组 A[mid+1...high]中,因此 mid < i <= j <= high
  • 跨越了中点,因此 low <= i <= mid < j <= high

因此,只要找到这三种情况的和的最大者,就是最大子数组了,具体可以用递归做,也有其他更加巧妙一些的方法,之后需要重点理解

矩阵乘法的 Strassen 算法

相关文章
|
1月前
|
存储 人工智能 算法
从零掌握贪心算法Java版:LeetCode 10题实战解析(上)
在算法世界里,有一种思想如同生活中的"见好就收"——每次做出当前看来最优的选择,寄希望于通过局部最优达成全局最优。这种思想就是贪心算法,它以其简洁高效的特点,成为解决最优问题的利器。今天我们就来系统学习贪心算法的核心思想,并通过10道LeetCode经典题目实战演练,带你掌握这种"步步为营"的解题思维。
|
2月前
|
机器学习/深度学习 人工智能 搜索推荐
从零构建短视频推荐系统:双塔算法架构解析与代码实现
短视频推荐看似“读心”,实则依赖双塔推荐系统:用户塔与物品塔分别将行为与内容编码为向量,通过相似度匹配实现精准推送。本文解析其架构原理、技术实现与工程挑战,揭秘抖音等平台如何用AI抓住你的注意力。
576 7
从零构建短视频推荐系统:双塔算法架构解析与代码实现
|
2月前
|
机器学习/深度学习 存储 算法
动态规划算法深度解析:0-1背包问题
0-1背包问题是经典的组合优化问题,目标是在给定物品重量和价值及背包容量限制下,选取物品使得总价值最大化且每个物品仅能被选一次。该问题通常采用动态规划方法解决,通过构建二维状态表dp[i][j]记录前i个物品在容量j时的最大价值,利用状态转移方程避免重复计算子问题,从而高效求解最优解。
443 1
|
2月前
|
算法 搜索推荐 Java
贪心算法:部分背包问题深度解析
该Java代码基于贪心算法求解分数背包问题,通过按单位价值降序排序,优先装入高价值物品,并支持部分装入。核心包括冒泡排序优化、分阶段装入策略及精度控制,体现贪心选择性质,适用于可分割资源的最优化场景。
269 1
贪心算法:部分背包问题深度解析
|
2月前
|
机器学习/深度学习 边缘计算 人工智能
粒子群算法模型深度解析与实战应用
蒋星熠Jaxonic是一位深耕智能优化算法领域多年的技术探索者,专注于粒子群优化(PSO)算法的研究与应用。他深入剖析了PSO的数学模型、核心公式及实现方法,并通过大量实践验证了其在神经网络优化、工程设计等复杂问题上的卓越性能。本文全面展示了PSO的理论基础、改进策略与前沿发展方向,为读者提供了一份详尽的技术指南。
粒子群算法模型深度解析与实战应用
|
2月前
|
机器学习/深度学习 资源调度 算法
遗传算法模型深度解析与实战应用
摘要 遗传算法(GA)作为一种受生物进化启发的优化算法,在复杂问题求解中展现出独特优势。本文系统介绍了GA的核心理论、实现细节和应用经验。算法通过模拟自然选择机制,利用选择、交叉、变异三大操作在解空间中进行全局搜索。与梯度下降等传统方法相比,GA不依赖目标函数的连续性或可微性,特别适合处理离散优化、多目标优化等复杂问题。文中详细阐述了染色体编码、适应度函数设计、遗传操作实现等关键技术,并提供了Python代码实现示例。实践表明,GA的成功应用关键在于平衡探索与开发,通过精心调参维持种群多样性同时确保收敛效率
机器学习/深度学习 算法 自动驾驶
479 0
|
2月前
|
机器学习/深度学习 人工智能 资源调度
大语言模型的核心算法——简要解析
大语言模型的核心算法基于Transformer架构,以自注意力机制为核心,通过Q、K、V矩阵动态捕捉序列内部关系。多头注意力增强模型表达能力,位置编码(如RoPE)解决顺序信息问题。Flash Attention优化计算效率,GQA平衡性能与资源消耗。训练上,DPO替代RLHF提升效率,MoE架构实现参数扩展,Constitutional AI实现自监督对齐。整体技术推动模型在长序列、低资源下的性能突破。
385 8
|
2月前
|
算法 API 数据安全/隐私保护
深度解析京东图片搜索API:从图像识别到商品匹配的算法实践
京东图片搜索API基于图像识别技术,支持通过上传图片或图片URL搜索相似商品,提供智能匹配、结果筛选、分页查询等功能。适用于比价、竞品分析、推荐系统等场景。支持Python等开发语言,提供详细请求示例与文档。
|
4月前
|
机器学习/深度学习 人工智能 编解码
AI视觉新突破:多角度理解3D世界的算法原理全解析
多视角条件扩散算法通过多张图片输入生成高质量3D模型,克服了单图建模背面细节缺失的问题。该技术模拟人类多角度观察方式,结合跨视图注意力机制与一致性损失优化,大幅提升几何精度与纹理保真度,成为AI 3D生成的重要突破。
398 0

热门文章

最新文章

推荐镜像

更多
  • DNS
  • 下一篇
    oss云网关配置