算法学习--数学知识

简介: 算法学习--数学知识


一 试除法判断质数 O(√n)


质数有一个非常重要的性质, 那就是当 d|n 时, n/d|n 也成立, 其中 d|n表示 d 能被 n 整除, 比如 3 能被 12 整除, 4 也能被 12 整除

所以我们在用试除法判断质数的时候, 就没有必要循环 d : 2~n, 只要 d : 2~n/d即可


模板题 866. 试除法判定质数 - AcWing 题库

#include<iostream>
#include<cstdio>
using namespace std;
const int N=100+10;
int n;
int a[N];
bool is_prime(int x){
    if(x<2){
        return false;
    }
    //写成i<=x/i可以防止爆int
    for(int i=2;i<=x/i;i++){
        if(x%i==0){
            return false;
        }
    }
    return true;
}
int main(){
    cin>>n;
    for(int i=0;i<n;i++){
        scanf("%d", &a[i]);
    }
    for(int i=0;i<n;i++){
        if(is_prime(a[i])){
            puts("Yes");
        }
        else{
            puts("No");
        }
    }
    return 0;
}


二 筛质数 O(n)

筛法的基本思想是有一组数 2,3,4,5,6,7,8,9,10,11,12,... 顺着这组数从前往后遍历, 把遍历到的数的倍数删掉


void get_primes(){
  for(int i=2;i<=n;i++){
    if(!st[i]){
      primes[cnt++]=i;
    }
    for(int j=i+i; j<=n; j+=i) st[j]=true;
  }
}


这种朴素算法的时间复杂度为 n×(1/1+1/2+...+1/n)≈n⋅ln⁡n≈O(n⋅log⁡n)

观察这种朴素筛法我们可以发现, 遍历的过程当中,没有必要去删掉每个数的倍数, 上面的例子当中 12 就在遍历到 2, 3, 4, 6 的时候筛掉, 但是 4, 6 本身已经被筛掉了, 所以我们在遍历的过程中, 没有必要删掉每个数的倍数, 只要删掉质数的倍数既可以了

void get_primes(){
  for(int i=2;i<=n;i++){
    if(!st[i]){
      primes[cnt++]=i;
      for(int j=i+i; j<=n; j+=i) st[j]=true; // 放入 if 语句当中, 只删掉质数的倍数
    }
  }
}


这种算法的时间复杂度为 n×(1/1+1/2+...+1/p)≈O(n⋅log⁡log⁡n), 1/1+1/2+...+1/p大概有 n/ln⁡n项, 这种筛法被称为埃氏筛法

如果用埃氏筛法, 上面的例子当中 12 就会在遍历到 2, 3 的时候筛掉, 这当中还是有一些重复操作, 于是就有了线性筛法


void get_primes(){
    for(int i=2;i<=n;i++){
        if(!st[i]){
            primes[cnt++]=i;
        }
        // 把所有的 primes[j]*i 使用其最小质因子删掉
        for(int j=0;primes[j]<=n/i;j++){
            st[primes[j]*i]=true;
            if(i%primes[j]==0) break;
        }
    }
}


与埃氏筛法不同的是, 线性筛法是把所有的 primes[j]*i 筛掉, 这里 i 是一个质数, primes[j] 是在之前迭代种得到的所有比 i 小的质数

  1. i%primes[j]==0 时, 说明 primes[j]i 的最小质因子 (primes[j]是递增的), 因此 primes[j] 一定是 primes[j]*i 的最小质因子
  2. i%primes[j]!=0 时, 说明 primes[j] 一定小于 i 的所有质因子, 所以 primes[j] 也一定是 prime[j]*i 的最小质因子

综上两条, primes[j]*i 是被它的最小质因子 primes[j] 筛掉的, 但是当 i%primes[j]==0, 必须 break, 因为 primes[j]i 的最小质因子, 所以 primes[j+1]*i 的最小质因子是 primes[j], 而不是 primes[j+1], primes[j+1]*i 不是被它的最小质因子筛掉的

对于一个合数 x, 假设 primes[j]x 的最小质因子, 当 i 枚举到 x/primes[j] 时, i 枚举到 x 之前一定会先到达 x/primes[j] 所以这个 x 就被筛掉了, 而且仅仅只是被最小质因子筛掉了一次

所有合数都只会被它的最小质因子筛掉一次, 算法复杂度为 O(n)


模板题 868. 筛质数 - AcWing 题库

#include<iostream>
#include<cstdio>
using namespace std;
const int N=1e6+10;
int n;
int primes[N], cnt;
bool st[N];
void get_prime(){
    for(int i=2;i<=n;i++){
        // 这个数没有被筛掉,说明它是一个质数,就把它存起来
        if(!st[i]){
            primes[cnt++]=i;
        }
        // 把所有的 i*primes[j] 使用其最小质因子删掉
        for(int j=0;primes[j]<=n/i;j++){
            st[i*primes[j]]=true;
            if(i%primes[j]==0){
                break;
            }
        }
    }
}
int main(){
    cin>>n;
    get_prime();
    cout<<cnt<<endl;
    return 0;
}


相关文章
|
6天前
|
机器学习/深度学习 数据采集 搜索推荐
Paper Digest | 突破个性化推荐数据稀疏性:长尾增强的图对比学习算法研究
本文提出了一种新的长尾增强的图对比学习方法(LAGCL),该方法促使模型同时兼顾头部节点与尾部节点之间的知识,并通过长尾增强技术来使模型产出更均匀更准确的节点表征,从而改进基于 GNN 的推荐任务。
|
5天前
|
NoSQL 算法 Java
【redis源码学习】持久化机制,java程序员面试算法宝典pdf
【redis源码学习】持久化机制,java程序员面试算法宝典pdf
|
6天前
|
机器学习/深度学习 算法 网络架构
什么是神经网络学习中的反向传播算法?
什么是神经网络学习中的反向传播算法?
11 2
|
6天前
|
机器学习/深度学习 算法
算法人生(5):从“元学习”看“战胜拖延”(没兴趣版)
元学习是让机器学会学习策略,适应新任务的机器学习范式。通过定义任务分布、采样任务、内在和外在学习循环来优化模型,增强其跨任务适应性和泛化能力。面对不感兴趣的任务导致的拖延,我们可以借鉴元学习的思路:重新评估任务价值,寻找通用兴趣点;设定奖励激发行动;改变环境以提高执行力。通过调整视角、自我激励和优化环境,可以克服因无兴趣而产生的拖延。
|
6天前
|
机器学习/深度学习 存储 算法
算法人生(4):从“选项学习”看“战胜拖延”(担心失败版)
选项学习是强化学习的一种策略,通过定义、学习和切换选项来解决复杂任务,将大任务分解为可重复使用的子任务,以提高学习效率和适应性。面对因担心失败而拖延的问题,我们可以借鉴选项学习的思想:将大任务拆分为小目标,正视失败作为成长的一部分,回顾成功经验并寻求支持。通过这种方式,逐步增强自信,降低拖延现象。
|
6天前
|
算法 网络协议
【计网·湖科大·思科】实验三 总线型以太网的特性、集线器和交换机的区别、交换机的自学习算法
【计网·湖科大·思科】实验三 总线型以太网的特性、集线器和交换机的区别、交换机的自学习算法
8 1
|
6天前
|
机器学习/深度学习 算法
应用规则学习算法识别有毒的蘑菇
应用规则学习算法识别有毒的蘑菇
|
6天前
|
机器学习/深度学习 算法 数据挖掘
【Python机器学习专栏】关联规则学习:Apriori算法详解
【4月更文挑战第30天】Apriori算法是一种用于关联规则学习的经典算法,尤其适用于购物篮分析,以发现商品间的购买关联。该算法基于支持度和置信度指标,通过迭代生成频繁项集并提取满足阈值的规则。Python中可借助mlxtend库实现Apriori,例如处理购物篮数据,设置支持度和置信度阈值,找出相关规则。
|
6天前
|
机器学习/深度学习 算法 前端开发
【Python机器学习专栏】集成学习算法的原理与应用
【4月更文挑战第30天】集成学习通过组合多个基学习器提升预测准确性,广泛应用于分类、回归等问题。主要步骤包括生成基学习器、训练和结合预测结果。算法类型有Bagging(如随机森林)、Boosting(如AdaBoost)和Stacking。Python中可使用scikit-learn实现,如示例代码展示的随机森林分类。集成学习能降低模型方差,缓解过拟合,提高预测性能。
|
6天前
|
机器学习/深度学习 算法 前端开发
Scikit-learn进阶:探索集成学习算法
【4月更文挑战第17天】本文介绍了Scikit-learn中的集成学习算法,包括Bagging(如RandomForest)、Boosting(AdaBoost、GradientBoosting)和Stacking。通过结合多个学习器,集成学习能提高模型性能,减少偏差和方差。文中展示了如何使用Scikit-learn实现这些算法,并提供示例代码,帮助读者理解和应用集成学习提升模型预测准确性。