python常用算法,新手必会,面试必出

简介: python常用算法,新手必会,面试必出

算法效率的度量方法

快速排序最常考

  事后统计方法:主要是通过设计好的测试程序和数据,利用计算机计时器对不同算法编制的程序的运行时间进行比较,从而确定算法效率的高低,但这种方法有很大缺陷,一般不予采纳。

  事前分析估算方法:在计算机程序编制前,依据统计方法对算法进行估算。

  一个用高级语言编写的程序在计算机上运行时所消耗的时间取决于以下因素:

  1. 算法采用的策略,方法;(算法好坏的根本)
  2. 编译产生的代码质量;(由软件来支持)
  3. 问题的输入规模;(由数据决定)
  4. 机器执行指令的速度。(看硬件的性能)

 

算法时间复杂度

  定义:在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n}=0(f(n))。它表示随问题规模n的增大,算法执行时间的埔长率和 f(n)的埔长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f( n)是问题规横n的某个函数。

根据定义,求解算法的时间复杂度的具体步骤是:

  ⑴ 找出算法中的基本语句;

 

  算法中执行次数最多的那条语句就是基本语句,通常是最内层循环的循环体。

  ⑵ 计算基本语句的执行次数的数量级;

  只需计算基本语句执行次数的数量级,这就意味着只要保证基本语句执行次数的函数中的最高次幂正确即可,可以忽略所有低次幂和最高次幂的系数。这样能够简化算法分析,并且使注意力集中在最重要的一点上:增长率。

  ⑶ 用大Ο记号表示算法的时间性能。

  将基本语句执行次数的数量级放入大Ο记号中。

 

 

如何推导大o阶呢?下面是基本的推导方法:

 

  1.用常数1取代运行时间中的所有加法常数。

  2.在修改后的运行次数函数中,只保留最髙阶项。

  3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。

简单的说,就是保留求出次数的最高次幂,并且把系数去掉。  如T(n)=n2+n+1 =O(n2)

一些例子

######复杂度O(1)print("this is wd")

 

 

######复杂度O(n)for i in range(n):

print(i)

 

 

######复杂度O(n2)for i in range(n):

for j in range(n):

print(j)

 

 

######复杂度O(n3)for i in range(n):

for j in range(n):

for k in range(n):

print('wd')

 

 

 

######复杂度O(log2n)while n > 1:

print(n)

n = n // 2

常见的复杂度按效率排序:O(1)<O(logn)<O(n)<O(nlogn)<O(n2)<O(2nlogn)<O(n2)

 

空间复杂度

  空间复杂度(Space Complexity)是对一个算法在运行过程中临时占用存储空间大小的量度。一个算法在计算机存储器上所占用的存储空间,包括存储算法本身所占用的存储空间,算法的输入输出数据所占用的存储空间和算法在运行过程中临时占用的存储空间这三个方面。算法的输入输出数据所占用的存储空间是由要解决的问题决定的,是通过参数表由调用函数传递而来的,它不随本算法的不同而改变。存储算法本身所占用的存储空间与算法书写的长短成正比,要压缩这方面的存储空间,就必须编写出较短的算法。算法在运行过程中临时占用的存储空间随算法的不同而异,有的算法只需要占用少量的临时工作单元,而且不随问题规模的大小而改变,这种算法是节省存储的算法;有的算法需要占用的临时工作单元数与解决问题的规模n有关,它随着n的增大而增大,当n较大时,将占用较多的存储单元。

如当一个算法的空间复杂度为一个常量,即不随被处理数据量n的大小而改变时,可表示为O(1);当一个算法的空间复杂度与以2为底的n的对数成正比时,可表示为0(log2n);当一个算法的空间复杂度与n成线性比例关系时,可表示为0(n).若形参为数组,则只需要为它分配一个存储由实参传送来的一个地址指针的空间,即一个机器字长空间;若形参为引用方式,则也只需要为其分配存储一个地址的空间,用它来存储对应实参变量的地址,以便由系统自动引用实参变量。

 

二、python中的常见算法

冒泡排序

效率:O(n2)

原理:

  1. 比较相邻的元素,如果第一个比第二个大,就交换他们两个;
  2. 对每一对相邻元素做同样的工作,从开始第一对到结尾的最后一对。做完以后,最后的元素会是最大的数,这里可以理解为走了一趟;
  3. 针对所有的元素重复以上的步骤,除了最后一个;
  4. 持续每次对越来越少的元素重复上面的步骤,直到没有任何一对数字需要比较,最后数列就是从大到小一次排列;

demo:

def bubble_sort(data):

"""

冒泡排序

:param data:

:return:

"""

for i in range(len(data)-1): # 趟数

for j in range(len(data)-i-1): # 遍历数据,依次交换

if data[j]>data[j+1]: # 当较大数在前面

data[j],data[j+1]=data[j+1],data[j] #交换两个数的位置

 

if __name__=='__main__':

import random

data_list=list(range(30))

random.shuffle(data_list)

print("pre:",data_list)

bubble_sort(data_list)

print("after:",data_list)

#结果:

#pre: [22, 11, 19, 16, 12, 18, 20, 28, 27, 4, 21, 10, 9, 7, 1, 6, 5, 29, 8, 0, 17, 26, 13, 14, 15, 24, 25, 23, 3, 2]

#after: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29]

优化版本:当某一趟走完以后发现并没有进行数据交换,那么此时的数列已经排列好了,没有必要在进行下去。例如:极端情况下,数列本来已经排序好的,我们只需要走一趟即可完成排序。

def bubble_sort(data):

"""

冒泡排序优化版

:param data:

:return:

"""

for i in range(len(data)-1): # 趟数

exchange=False # 交换标志

for j in range(len(data)-i-1): # 遍历数据,依次交换

if data[j]>data[j+1]: # 当较大数在前面

data[j],data[j+1]=data[j+1],data[j] # 交换两个数的位置

exchange = True # 改变标志

if not exchange: # 如果某一趟没有进行交换,代表排序完成

break

return i # 返回次数的趟数

 

if __name__=='__main__':

data_list=list(range(30))

print("pre:",data_list)

num =bubble_sort(data_list)

print("after:",data_list,'趟数:',num+1)

#结果:

#pre: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29]

#after: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29] 趟数: 1

选择排序

效率:O(n2)

原理:

  1. 每一次从待排序的列表中选出一个元素,并将其与其他数依次比较,若列表中的某个数比选中的数小,则交换位置,把所有数比较完毕,则会选出最小的数,将其放在最左边(这一过程称为一趟);
  2. 重复以上步骤,直到全部待排序的数据元素排完;

demo:

def select_sort(data):

"""

选择排序

:param data: 待排序的数据列表

:return:

"""

for i in range(len(data)-1): #趟数

min_index=i # 记录i趟开始最小的数的索引,我们从最左边开始

for j in range(i+1,len(data)): # 每一次趟需要循环的次数

if data[j] < data[min_index]: # 当数列中的某一个数比开始的数要小时候,更新最小值索引位置

min_index=j

data[i],data[min_index]=data[min_index],data[i] # 一趟走完,交换最小值的位置,第一趟最小

 

 

 

if __name__=='__main__':

import random

data_list=list(range(30))

random.shuffle(data_list) # 打乱列表数据

print("pre:",data_list)

select_sort(data_list)

print("after:",data_list)

#结果:

#pre: [20, 11, 22, 0, 18, 21, 14, 19, 7, 23, 27, 29, 24, 4, 17, 15, 5, 10, 26, 13, 25, 1, 8, 16, 3, 9, 2, 28, 12, 6]

#after: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29]

 

插入排序

效率:O(n2)

原理:

  1. 以从小到大排序为例,元素0为第一个元素,插入排序是从元素1开始,尽可能插到前面。
  2. 插入时分插入位置和试探位置,元素i的初始插入位置为i,试探位置为i-1,在插入元素i时,依次与i-1,i-2······元素比较,如果被试探位置的元素比插入元素大,那么被试探元素后移一位,元素i插入位置前移1位,直到被试探元素小于插入元素或者插入元素位于第一位。
  3. 重复上述步骤,最后完成排序

demo:

def insert_sort(data):

"""

插入排序

:param data: 待排序的数据列表

:return:

"""

for i in range(1, len(data)): # 无序区域数据

tmp = data[i] # 第i次插入的基准数

for j in range(i, -1, -1):

if tmp < data[j - 1]: # j为当前位置,试探j-1位置

data[j] = data[j - 1] # 移动当前位置

else: # 位置确定为j

break

data[j] = tmp # 将当前位置数还原

 

if __name__=='__main__':

import random

data_list=list(range(30))

random.shuffle(data_list) # 打乱列表数据

print("pre:",data_list)

insert_sort(data_list)

print("after:",data_list)

#结果:

#pre: [7, 17, 10, 16, 23, 24, 13, 11, 2, 5, 15, 29, 27, 18, 4, 19, 1, 9, 3, 21, 0, 14, 12, 25, 22, 28, 20, 6, 26, 8]

#after: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29]

快速排序

效率:平均O(nlogn)

原理:

  1. 从数列中随机挑选出一个数作为基数;
  2. 重新排列数列,使得比基数小的元素在左边,比基数大元素在右边,相等的元素放左边或者右边都可以,最后使得该基数在处于数列中间位置,这个称为分区操作;
  3. 递归上述操作,完成排序,如下如;

     

demo:

#!/usr/bin/env python3

#_*_ coding:utf-8 _*_

#Author:wd

 

def quick_sort(data,left,right):

"""

快速排序

:param data: 待排序的数据列表

:param left: 基准数左边元素的索引

:param right: 基准数右边元素的索引

:return:

"""

if left < right:

mid = partition(data,left,right) # 分区操作,mid代表基数所在的索引

quick_sort(data,left,mid-1) # 对基准数前面进行排序

quick_sort(data,mid+1,right) # 对基准数后面进行排序

 

 

def partition(data,left,right):

tmp=data[left] # 随机选择的基准数,从最左边开始选

while left < right:

while left < right and data[right] >= tmp: # 右边的数比基准数大

right-=1 # 保留该数,然后索引指针往左移动

data[left]=data[right] # 否则此时右边数比基数小,则将该数放到基准位置

while left < right and data[left] <= tmp: # 右边的数比基准数小

left+=1 # 此时保持该数位置不动,索引指针往前移动

data[right]=data[left] # 否则此时左边的数比基数大,则将该数放到右边

data[left] = tmp # 最后将基准数量放回中间

return left # 返回基准数位置

 

if __name__=='__main__':

data_list=[1,3,21,6,50,33,34,58,66]

quick_sort(data_list,0,len(data_list)-1)

print(data_list)

###结果:[1, 3, 6, 21, 33, 34, 50, 58, 66]

堆排序

堆定义:本质是一个完全二叉树,如果根节点的值是所有节点的最小值称为小根堆,如果根节点的值是所有节点的最大值,称为大根堆。

效率:O(nlogn)

原理:

  1. 将待排序数据列表建立成堆结构(建立堆);
  2. 通过上浮(shift_up)或下沉(shift_down)等操作得到堆顶元素为最大元素(已大根堆为例);
  3. 去掉堆顶元素,将最后的一个元素放到堆顶,重新调整堆,再次使得堆顶元素为最大元素(相比第一次为第二大元素);
  4. 重复3操作,直到堆为空,最后完成排序;

     

demo:

def sift(data, low, high):

"""

调整堆函数

:param data: 带排序的数据列表

:param low: 值较小的节点的位置,可以理解为是根节点

:param high:值较大的节点的位置

:return:

"""

i = low

j = 2 * i # 父节点i所对应的左孩子

tmp = data[i] # 最较小节点的值

while j <= high:

if j < high and data[j] < data[j + 1]: # 如果右孩子比左孩子大则把j指向右节点

j += 1 # 指向右节点

if tmp < data[j]: # 如果此时位置较小的节点值比该节点值小,则将该节点上浮最为新的父节点,并调整该节点双亲

data[i] = data[j]

i = j # 调整该节点的双亲的位置

j = 2 * i

else:

break # 否则代表本次调整已经完成,并且节点i已经无值

data[i] = tmp # 最后将被调整节点的值放到i节点上(空出的位置)

 

 

def heap_sort(data):

"""

堆排序

:param data: 待排序的数据列表

:return:

"""

n = len(data)

for i in range(n // 2 - 1, -1, -1):

sift(data, i, n - 1)

# 构建堆

for i in range(n - 1, -1, -1): # 调整过程,从最后一个元素开始交换

data[0], data[i] = data[i], data[0] # 交换

sift(data, 0, i - 1) # 开始调整

 

 

if __name__ == '__main__':

import random

data_list = [1, 3, 21, 6, 50, 33, 34, 58, 66]

random.shuffle(data_list) # 打乱列表数据

print("pre:", data_list)

heap_sort(data_list)

print("after:", data_list)

#结果:

#pre: [66, 3, 58, 34, 1, 33, 21, 6, 50]

#after: [1, 3, 6, 21, 33, 34, 50, 58, 66]

归并排序

效率:O(nlogn)

空间复杂度:O(n)

原理:

  1. 申请空间,使其大小为两个已经排序序列之和,该空间用来存放合并后的序列;
  2. 设定两个指针,最初位置分别为两个已经排序序列的起始位置;
  3. 比较两个指针所指向的元素,选择相对小的元素放入到合并空间,并移动指针到下一位置;
  4. 重复步骤3直到某一指针达到序列尾;
  5. 将另一序列剩下的所有元素直接复制到合并序列尾。

     

demo:

def merge(data, low, mid, high):

"""

合并函数

:param data: 数据列表
:param low: 列表开头位置
:param mid: 分割中间位置
:param high: 列表最后位置
:return:
"""
i = low # 第一个指针
j = mid + 1 # 第二个指针
tmp = [] # 临时存放的列表
while i <= mid and j <= high: # 分割的列表当两边都有数才进行
if data[i] < data[j]:
tmp.append(data[i])
i += 1 # 低的指针往右移动
else:
tmp.append(data[j]) # 右边大,存右边的数
j += 1 # 同时指针右移动
 
while i <= mid: # 左边分割有剩下 tmp.append(data[i])
i += 1
while j <= high: # 右边有剩下 tmp.append(data[j])
j += 1
data[low:high + 1] = tmp # 最后将tmp中的数写入到原来的列表中
 
 
def merge_sort(data, low, high):
"""

归并排序

:param data: 待排序的数据列表
:param low: 数据列表开始位置
:param high: 数据列表结束位置
:return:
"""
if low < high: # 至少有两个元素才进行
mid = (low + high) // 2 # 分割
merge_sort(data, low, mid) # 递归分割上一部分
merge_sort(data, mid + 1, high) # 递归分割下一部分
merge(data, low, mid, high) # 合并
 
 
if __name__ == '__main__':
import random
 
data_list = [1, 3, 21, 6, 50, 33, 34, 58, 66]
random.shuffle(data_list) # 打乱列表数据
print("pre:", data_list)
merge_sort(data_list, 0, len(data_list) - 1)
print("after:", data_list)
 
#结果:
#pre: [21, 3, 33, 58, 34, 66, 1, 6, 50]
#after: [1, 3, 6, 21, 33, 34, 50, 58, 66]

希尔排序

效率:与增量有关,O(n1+£)其中<0£<1,如增量为2k-1 复杂度为O(n3/2)

原理:

  1. 先取一个小于n的整数d1作为第一个增量,把文件的全部记录分组。所有距离为d1的倍数的记录放在同一个组中。
  2. 先在各组内进行直接插入排序;
  3. 取第二个增量d2<d1重复上述的分组和排序,直至所取的增量  =1(  <  …<d2<d1),即所有记录放在同一组中进行直接插入排序为止。

def shell_sort(data):
"""
希尔排序
:param data:待排序的数据列表
:return:
"""
d1 = len(data) // 2 # 设置分割大小为d1,
while d1 > 0:
for i in range(d1, len(data)):
tmp = data[i] # 当前分割元素位置
j = i - d1 # 上一个分割元素位置
while j >= 0 and tmp < data[j]: # 上一个元素分割位置比当前分割位置要大,则需要调整位置
data[j + d1] = data[j] # 后移动当前分割元素位置
j -= d1 # 往前移d1
data[j + d1] = tmp
d1 //= 2 # 继续分割
 
 
if __name__ == '__main__':
import random
data_list = [1, 3, 21, 6, 50, 33, 34, 58, 66]
random.shuffle(data_list) # 打乱列表数据
print("pre:", data_list)
shell_sort(data_list)
print("after:", data_list)
#结果:
#pre: [3, 66, 58, 34, 33, 50, 6, 21, 1]
#after: [1, 3, 6, 21, 33, 34, 50, 58, 66]
目录
相关文章
|
6天前
|
API 数据库 数据安全/隐私保护
Flask框架在Python面试中的应用与实战
【4月更文挑战第18天】Django REST framework (DRF) 是用于构建Web API的强力工具,尤其适合Django应用。本文深入讨论DRF面试常见问题,包括视图、序列化、路由、权限控制、分页过滤排序及错误处理。同时,强调了易错点如序列化器验证、权限认证配置、API版本管理、性能优化和响应格式统一,并提供实战代码示例。了解这些知识点有助于在Python面试中展现优秀的Web服务开发能力。
22 1
|
3天前
|
算法 数据可视化 Python
Python用MCMC马尔科夫链蒙特卡洛、拒绝抽样和Metropolis-Hastings采样算法
Python用MCMC马尔科夫链蒙特卡洛、拒绝抽样和Metropolis-Hastings采样算法
14 6
|
4天前
|
机器学习/深度学习 算法 搜索推荐
Python用机器学习算法进行因果推断与增量、增益模型Uplift Modeling智能营销模型
Python用机器学习算法进行因果推断与增量、增益模型Uplift Modeling智能营销模型
31 12
|
5天前
|
前端开发 测试技术 C++
Python自动化测试面试:unittest、pytest与Selenium详解
【4月更文挑战第19天】本文聚焦Python自动化测试面试,重点讨论unittest、pytest和Selenium三大框架。unittest涉及断言、TestSuite和覆盖率报告;易错点包括测试代码冗余和异常处理。pytest涵盖fixtures、参数化测试和插件系统,要注意避免过度依赖unittest特性。Selenium的核心是WebDriver操作、等待策略和测试报告生成,强调智能等待和元素定位策略。掌握这些关键点将有助于提升面试表现。
20 0
|
5天前
|
数据采集 存储 JSON
Python爬虫面试:requests、BeautifulSoup与Scrapy详解
【4月更文挑战第19天】本文聚焦于Python爬虫面试中的核心库——requests、BeautifulSoup和Scrapy。讲解了它们的常见问题、易错点及应对策略。对于requests,强调了异常处理、代理设置和请求重试;BeautifulSoup部分提到选择器使用、动态内容处理和解析效率优化;而Scrapy则关注项目架构、数据存储和分布式爬虫。通过实例代码,帮助读者深化理解并提升面试表现。
13 0
|
6天前
|
SQL 中间件 API
Flask框架在Python面试中的应用与实战
【4月更文挑战第18天】**Flask是Python的轻量级Web框架,以其简洁API和强大扩展性受欢迎。本文深入探讨了面试中关于Flask的常见问题,包括路由、Jinja2模板、数据库操作、中间件和错误处理。同时,提到了易错点,如路由冲突、模板安全、SQL注入,以及请求上下文管理。通过实例代码展示了如何创建和管理数据库、使用表单以及处理请求。掌握这些知识将有助于在面试中展现Flask技能。**
12 1
Flask框架在Python面试中的应用与实战
|
7天前
|
数据可视化 Python
Python模型评估与选择:面试必备知识点
【4月更文挑战第17天】本文深入探讨了Python模型评估与选择在面试中的关键点,包括性能度量、过拟合与欠拟合识别、模型比较与选择、模型融合和偏差-方差权衡。强调了避免混淆评估指标、忽视模型验证和盲目追求高复杂度模型的常见错误,并提供相关代码示例,如交叉验证、网格搜索和超参数调优。通过理解这些概念和技巧,可在面试中展示出色的数据科学能力。
31 12
|
7天前
|
机器学习/深度学习 搜索推荐 Python
Python特征工程面试:从理论到实践
【4月更文挑战第17天】本文探讨了Python在数据科学面试中的特征工程,涵盖基础概念如特征选择和提取,实战技能如缺失值和异常值处理,以及特定场景应用。强调避免过度依赖单一方法,忽视数据分布和相关性,以及保持特征工程的可解释性。提供代码示例展示了处理缺失值、标准化、特征选择和异常值检测的基本操作。建议结合业务理解,灵活运用多种方法并注重模型解释性。
23 9
|
7天前
|
数据采集 机器学习/深度学习 数据挖掘
Python数据清洗与预处理面试题解析
【4月更文挑战第17天】本文介绍了Python数据清洗与预处理在面试中的常见问题,包括Pandas基础操作、异常值处理和特征工程。通过示例代码展示了数据读取、筛选、合并、分组统计、离群点检测、缺失值和重复值处理、特征缩放、编码、转换和降维。强调了易错点,如忽视数据质量检查、盲目处理数据、数据隐私保护、过度简化特征关系和忽视模型输入要求。掌握这些技能和策略将有助于在面试中脱颖而出。
24 8
|
8天前
|
缓存 自然语言处理 数据处理
Python自然语言处理面试:NLTK、SpaCy与Hugging Face库详解
【4月更文挑战第16天】本文介绍了Python NLP面试中NLTK、SpaCy和Hugging Face库的常见问题和易错点。通过示例代码展示了如何进行分词、词性标注、命名实体识别、相似度计算、依存关系分析、文本分类及预训练模型调用等任务。重点强调了理解库功能、预处理、模型选择、性能优化和模型解释性的重要性,帮助面试者提升NLP技术展示。
27 5