算法分析与设计——递归算法(一)

简介: 算法分析与设计——递归算法(一)

1. 递归含义与特征

递归含义:一种自身调用自身或间接调用自身的算法.核心将大规模问题转化为小规模问题,小规模问题是大规模问题的解。
递归问题特征:1.问题P涉及数据规模P(size)
            2.问题规模发生变化后,解决问题的方法完全相同,并且原问题(通常是大规模问题)的解释由小规模问题的解构成
          3.小规模问题是可以求解的(在有限步内可以停机) 解决递归问题的思想核心是归纳法,归纳法思想核心:
                         1.基础步:a1是问题P(1)的解
                          2.归纳步:归纳出某种通用的式子可以满足任意值 得出通式  即an=P(n)的解

2. 例题

1.基于递归算法的插入排序
 对n个元素组成的数组A进行排序
 输入:数组A[],数组中的元素个数n
 输出:按非递减顺序排序的数组A【】
 思路:
     插入排序是在已知有序的数组中插入一个元素通过组内比较大小找到一个合适的位置,将找到的位置之后的元素整体后移再插入元素,使之成为新的有序数组,然后依次扩大有序的数组,进行相同的操作,直到数组取完。
     找出特征:1.首先找出数据规模:SIZE=n;
             2.找出对规模改变后的相同的解决方法:组内比较找到位置,位置之后的元素整体后移
             3.小规模问题有解:n=1 有序
     归纳:
     基本步:
             当n=1时 数组只有一个A[0],不需要排序比较。
     归纳步:  
             通过组内比较大小找到一个合适的位置,将找到的位置之后的元素整体后移再插入元素。
 代码实现:
 void insert_sort_rec(Type A[],int n){
     Type a;
     n=n-1;
     if(n>0)//小规模问题有解
     {
     insert_sort_rec(A[n],n);//调用自身 将大规模交给小规模求解
     a=A[n];
     k=n-1;
         while((k>=0)&&(A[k]>a)){//组内比较 找到位置 整体后移
             a[k+1]=a[k];
             k=k-1;
         }
         A[k+1]=a;//此时的A[k]<a 即k+1位置是给a的 插入新元素到合适的位置
     }
 }
 算法分析:
   此算法的最坏情况时间复杂度:
   f(n)=f(n-1)+n-1=f(n-2)+(n-2)+(n-1)=f(0)+(k=1到n-1的k的累加)=n*(n-1)/2
   即时间复杂度O(n*n);
 2.多项式求值的递归算法
 设有如下的n阶多项式:Pn(x)=an*X^n+an-1*X^n-1+...+a1*x+a0
 输入:存放于数组的多项式系数A【】及x,多项式的阶数n
 输出:阶数为n的多项式的值
 思想:将上式改为秦九韶算法
      Pn=((...((((an)*x+an-1)*x+an-2)*x+an-3)*x+...)*x+a1)*x+a0
      进行归纳:
      基础步:n=0,P0=a0;
      归纳步:Pk=x*Pk-1+An-k
 代码实现:
     float qinjiushao_alm(float x,float A[],int n){
      float p;
      if(n==0){
        p=A[0];
      }else{
        p=qinjiushao_alm(x,A,n-1)*x+A[n];
      }return p;
     }
算法分析:
    f(0)=0
    f(n)=f(n-1)+1
    f(n)=O(n);
相关文章
|
1月前
|
机器学习/深度学习 算法 搜索推荐
从理论到实践,Python算法复杂度分析一站式教程,助你轻松驾驭大数据挑战!
【10月更文挑战第4天】在大数据时代,算法效率至关重要。本文从理论入手,介绍时间复杂度和空间复杂度两个核心概念,并通过冒泡排序和快速排序的Python实现详细分析其复杂度。冒泡排序的时间复杂度为O(n^2),空间复杂度为O(1);快速排序平均时间复杂度为O(n log n),空间复杂度为O(log n)。文章还介绍了算法选择、分而治之及空间换时间等优化策略,帮助你在大数据挑战中游刃有余。
60 4
|
3月前
|
数据采集 机器学习/深度学习 算法
|
3月前
|
人工智能 算法 BI
第一周算法设计与分析 D : 两面包夹芝士
这篇文章介绍了解决算法问题"两面包夹芝士"的方法,通过找出两个数组中的最大最小值,计算这两个值之间的整数个数,包括特判不存在整数的情况。
|
27天前
|
并行计算 算法 IDE
【灵码助力Cuda算法分析】分析共享内存的矩阵乘法优化
本文介绍了如何利用通义灵码在Visual Studio 2022中对基于CUDA的共享内存矩阵乘法优化代码进行深入分析。文章从整体程序结构入手,逐步深入到线程调度、矩阵分块、循环展开等关键细节,最后通过带入具体值的方式进一步解析复杂循环逻辑,展示了通义灵码在辅助理解和优化CUDA编程中的强大功能。
|
1月前
|
算法
PID算法原理分析
【10月更文挑战第12天】PID控制方法从提出至今已有百余年历史,其由于结构简单、易于实现、鲁棒性好、可靠性高等特点,在机电、冶金、机械、化工等行业中应用广泛。
|
2月前
|
算法 搜索推荐 开发者
别再让复杂度拖你后腿!Python 算法设计与分析实战,教你如何精准评估与优化!
在 Python 编程中,算法的性能至关重要。本文将带您深入了解算法复杂度的概念,包括时间复杂度和空间复杂度。通过具体的例子,如冒泡排序算法 (`O(n^2)` 时间复杂度,`O(1)` 空间复杂度),我们将展示如何评估算法的性能。同时,我们还会介绍如何优化算法,例如使用 Python 的内置函数 `max` 来提高查找最大值的效率,或利用哈希表将查找时间从 `O(n)` 降至 `O(1)`。此外,还将介绍使用 `timeit` 模块等工具来评估算法性能的方法。通过不断实践,您将能更高效地优化 Python 程序。
61 4
|
2月前
|
算法 程序员 Python
程序员必看!Python复杂度分析全攻略,让你的算法设计既快又省内存!
在编程领域,Python以简洁的语法和强大的库支持成为众多程序员的首选语言。然而,性能优化仍是挑战。本文将带你深入了解Python算法的复杂度分析,从时间与空间复杂度入手,分享四大最佳实践:选择合适算法、优化实现、利用Python特性减少空间消耗及定期评估调整,助你写出高效且节省内存的代码,轻松应对各种编程挑战。
41 1
|
1月前
|
算法
PID算法原理分析及优化
【10月更文挑战第6天】PID控制方法从提出至今已有百余年历史,其由于结构简单、易于实现、鲁棒性好、可靠性高等特点,在机电、冶金、机械、化工等行业中应用广泛。
|
2月前
|
算法 数据可视化
基于SSA奇异谱分析算法的时间序列趋势线提取matlab仿真
奇异谱分析(SSA)是一种基于奇异值分解(SVD)和轨迹矩阵的非线性、非参数时间序列分析方法,适用于提取趋势、周期性和噪声成分。本项目使用MATLAB 2022a版本实现从强干扰序列中提取趋势线,并通过可视化展示了原时间序列与提取的趋势分量。代码实现了滑动窗口下的奇异值分解和分组重构,适用于非线性和非平稳时间序列分析。此方法在气候变化、金融市场和生物医学信号处理等领域有广泛应用。
129 19
|
3月前
|
算法
算法设计与分析作业
这篇文章是关于算法设计与分析的作业,其中包含了两个算法实现:一个是使用分治算法实现的十进制大整数相乘(包括加法、减法和乘法函数),并进行了正确性和健壮性测试;另一个是使用快速排序思想实现的分治查找第K小元素的程序,并分析了其平均和最坏时间复杂度。
算法设计与分析作业