算法分析与设计——递归算法(一)

简介: 算法分析与设计——递归算法(一)

1. 递归含义与特征

递归含义:一种自身调用自身或间接调用自身的算法.核心将大规模问题转化为小规模问题,小规模问题是大规模问题的解。
递归问题特征:1.问题P涉及数据规模P(size)
            2.问题规模发生变化后,解决问题的方法完全相同,并且原问题(通常是大规模问题)的解释由小规模问题的解构成
          3.小规模问题是可以求解的(在有限步内可以停机) 解决递归问题的思想核心是归纳法,归纳法思想核心:
                         1.基础步:a1是问题P(1)的解
                          2.归纳步:归纳出某种通用的式子可以满足任意值 得出通式  即an=P(n)的解

2. 例题

1.基于递归算法的插入排序
 对n个元素组成的数组A进行排序
 输入:数组A[],数组中的元素个数n
 输出:按非递减顺序排序的数组A【】
 思路:
     插入排序是在已知有序的数组中插入一个元素通过组内比较大小找到一个合适的位置,将找到的位置之后的元素整体后移再插入元素,使之成为新的有序数组,然后依次扩大有序的数组,进行相同的操作,直到数组取完。
     找出特征:1.首先找出数据规模:SIZE=n;
             2.找出对规模改变后的相同的解决方法:组内比较找到位置,位置之后的元素整体后移
             3.小规模问题有解:n=1 有序
     归纳:
     基本步:
             当n=1时 数组只有一个A[0],不需要排序比较。
     归纳步:  
             通过组内比较大小找到一个合适的位置,将找到的位置之后的元素整体后移再插入元素。
 代码实现:
 void insert_sort_rec(Type A[],int n){
     Type a;
     n=n-1;
     if(n>0)//小规模问题有解
     {
     insert_sort_rec(A[n],n);//调用自身 将大规模交给小规模求解
     a=A[n];
     k=n-1;
         while((k>=0)&&(A[k]>a)){//组内比较 找到位置 整体后移
             a[k+1]=a[k];
             k=k-1;
         }
         A[k+1]=a;//此时的A[k]<a 即k+1位置是给a的 插入新元素到合适的位置
     }
 }
 算法分析:
   此算法的最坏情况时间复杂度:
   f(n)=f(n-1)+n-1=f(n-2)+(n-2)+(n-1)=f(0)+(k=1到n-1的k的累加)=n*(n-1)/2
   即时间复杂度O(n*n);
 2.多项式求值的递归算法
 设有如下的n阶多项式:Pn(x)=an*X^n+an-1*X^n-1+...+a1*x+a0
 输入:存放于数组的多项式系数A【】及x,多项式的阶数n
 输出:阶数为n的多项式的值
 思想:将上式改为秦九韶算法
      Pn=((...((((an)*x+an-1)*x+an-2)*x+an-3)*x+...)*x+a1)*x+a0
      进行归纳:
      基础步:n=0,P0=a0;
      归纳步:Pk=x*Pk-1+An-k
 代码实现:
     float qinjiushao_alm(float x,float A[],int n){
      float p;
      if(n==0){
        p=A[0];
      }else{
        p=qinjiushao_alm(x,A,n-1)*x+A[n];
      }return p;
     }
算法分析:
    f(0)=0
    f(n)=f(n-1)+1
    f(n)=O(n);
相关文章
|
3月前
|
机器学习/深度学习 算法 搜索推荐
从理论到实践,Python算法复杂度分析一站式教程,助你轻松驾驭大数据挑战!
【10月更文挑战第4天】在大数据时代,算法效率至关重要。本文从理论入手,介绍时间复杂度和空间复杂度两个核心概念,并通过冒泡排序和快速排序的Python实现详细分析其复杂度。冒泡排序的时间复杂度为O(n^2),空间复杂度为O(1);快速排序平均时间复杂度为O(n log n),空间复杂度为O(log n)。文章还介绍了算法选择、分而治之及空间换时间等优化策略,帮助你在大数据挑战中游刃有余。
110 3
|
5月前
|
人工智能 算法 BI
第一周算法设计与分析 D : 两面包夹芝士
这篇文章介绍了解决算法问题"两面包夹芝士"的方法,通过找出两个数组中的最大最小值,计算这两个值之间的整数个数,包括特判不存在整数的情况。
|
18天前
|
存储 算法 安全
基于哈希表的文件共享平台 C++ 算法实现与分析
在数字化时代,文件共享平台不可或缺。本文探讨哈希表在文件共享中的应用,包括原理、优势及C++实现。哈希表通过键值对快速访问文件元数据(如文件名、大小、位置等),查找时间复杂度为O(1),显著提升查找速度和用户体验。代码示例展示了文件上传和搜索功能,实际应用中需解决哈希冲突、动态扩容和线程安全等问题,以优化性能。
|
27天前
|
缓存 算法 搜索推荐
Java中的算法优化与复杂度分析
在Java开发中,理解和优化算法的时间复杂度和空间复杂度是提升程序性能的关键。通过合理选择数据结构、避免重复计算、应用分治法等策略,可以显著提高算法效率。在实际开发中,应该根据具体需求和场景,选择合适的优化方法,从而编写出高效、可靠的代码。
35 6
|
2月前
|
并行计算 算法 测试技术
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面,旨在通过综合策略提升程序性能,满足实际需求。
80 1
|
3月前
|
并行计算 算法 IDE
【灵码助力Cuda算法分析】分析共享内存的矩阵乘法优化
本文介绍了如何利用通义灵码在Visual Studio 2022中对基于CUDA的共享内存矩阵乘法优化代码进行深入分析。文章从整体程序结构入手,逐步深入到线程调度、矩阵分块、循环展开等关键细节,最后通过带入具体值的方式进一步解析复杂循环逻辑,展示了通义灵码在辅助理解和优化CUDA编程中的强大功能。
|
3月前
|
算法
PID算法原理分析
【10月更文挑战第12天】PID控制方法从提出至今已有百余年历史,其由于结构简单、易于实现、鲁棒性好、可靠性高等特点,在机电、冶金、机械、化工等行业中应用广泛。
|
4月前
|
算法 搜索推荐 开发者
别再让复杂度拖你后腿!Python 算法设计与分析实战,教你如何精准评估与优化!
在 Python 编程中,算法的性能至关重要。本文将带您深入了解算法复杂度的概念,包括时间复杂度和空间复杂度。通过具体的例子,如冒泡排序算法 (`O(n^2)` 时间复杂度,`O(1)` 空间复杂度),我们将展示如何评估算法的性能。同时,我们还会介绍如何优化算法,例如使用 Python 的内置函数 `max` 来提高查找最大值的效率,或利用哈希表将查找时间从 `O(n)` 降至 `O(1)`。此外,还将介绍使用 `timeit` 模块等工具来评估算法性能的方法。通过不断实践,您将能更高效地优化 Python 程序。
81 4
|
4月前
|
算法 程序员 Python
程序员必看!Python复杂度分析全攻略,让你的算法设计既快又省内存!
在编程领域,Python以简洁的语法和强大的库支持成为众多程序员的首选语言。然而,性能优化仍是挑战。本文将带你深入了解Python算法的复杂度分析,从时间与空间复杂度入手,分享四大最佳实践:选择合适算法、优化实现、利用Python特性减少空间消耗及定期评估调整,助你写出高效且节省内存的代码,轻松应对各种编程挑战。
87 1
|
4月前
|
算法 数据可视化
基于SSA奇异谱分析算法的时间序列趋势线提取matlab仿真
奇异谱分析(SSA)是一种基于奇异值分解(SVD)和轨迹矩阵的非线性、非参数时间序列分析方法,适用于提取趋势、周期性和噪声成分。本项目使用MATLAB 2022a版本实现从强干扰序列中提取趋势线,并通过可视化展示了原时间序列与提取的趋势分量。代码实现了滑动窗口下的奇异值分解和分组重构,适用于非线性和非平稳时间序列分析。此方法在气候变化、金融市场和生物医学信号处理等领域有广泛应用。
278 19

热门文章

最新文章