第一周算法设计与分析 D : 两面包夹芝士

简介: 这篇文章介绍了解决算法问题"两面包夹芝士"的方法,通过找出两个数组中的最大最小值,计算这两个值之间的整数个数,包括特判不存在整数的情况。

D : 两面包夹芝士

Time Limit: 1 Sec Memory Limit: 128 Mb Submitted: 85 Solved: 31

Description

给你两个长度为N的整型(int)数组A = (A1, A2, A3, …, An) 和 B = (B1, B2, B3, …, Bn) 请你找出有多少整型(int)数字x,满足Ai ≤ x ≤ Bi,其中 1≤ i  ≤ N

Input

第一行输入N,第二行输入N个数字Ai,第三行输入N个数字Bi

  • 1 ≤ N ≤ 100

  • 1 ≤ Ai ≤ Bi ≤ 1000

  • 所有输入均为int

Output

输出有多少个符合题意的x,然后换行

Sample Input

3
3 2 5
6 9 8

Sample Output

2

Hint

一、题目大意

求,第一个数组的最大值与第二个数组的最小值之间有多少个数

二、思路

1、储备知识

a.求数组最大值的函数与数组最小值的函数
函数 功能 举例
min_element() 求数组最小值的地址 arr={1,2,5,-250},则*min_element(arr,arr+4)=-250
max_element() 求数组最大值的地址 arr={1,2,5,-250},则*max_element(arr,arr+4)=5

注1:头文件:#include
注2:在这里求的是地址,所以如果要获取最大最小值记得在,函数前面加上*,对返回值地址取值

思路A:

就简单粗暴求第一个数组最大值,与第二个数组的最小值,然后判断一下看中间是否有‘芝士’,没有的话需要特判为0.有的话就输出‘芝士’。

#include<iostream>
#include<algorithm>
using namespace std;
int main()
{
    //1.声明部分
    int n;
    int size;
    cin>>size;
    int *arr=new int[size]; //动态分配内存
    int *brr=new int[size];

    //2、输入
    for(int i=0;i<size;i++)cin>>arr[i];
    for(int i=0;i<size;i++)cin>>brr[i];

    //3、处理
    int maxArr=*max_element(arr,arr+size);//求数组arr的最大值
    int minBrr=*min_element(brr,brr+size);//求数组brr的最小值

    //4、输出
    if(maxArr>minBrr)cout<<0<<endl;
    else cout<<minBrr-maxArr+1<<endl;
    return 0;
}

思路B

不使用函数,就边输入边获取数组最大最小值,这样的空间与时间是最优的,时间复杂度达到O(n)

#include<iostream>
using namespace std;
int main()
{
    //1.声明部分
    int n ,num,miNum=1111,mxNum=-1;//注这里的最大值与最小值初始化在输入的边界外都行。
    cin>>n;

    //2、输入
    for(int i=0;i<n;i++)
    {
        cin>>num;
        if(mxNum<num)mxNum=num;
    }
    for(int i=0;i<n;i++)
    {
        cin>>num;
        if(miNum>num)miNum=num;
    }

    //4、输出
    if(mxNum>miNum)cout<<0<<endl;//特判没有芝士的情况
    else cout<<miNum-mxNum+1<<endl;
    return 0;
}
相关文章
|
4月前
|
机器学习/深度学习 算法 搜索推荐
从理论到实践,Python算法复杂度分析一站式教程,助你轻松驾驭大数据挑战!
【10月更文挑战第4天】在大数据时代,算法效率至关重要。本文从理论入手,介绍时间复杂度和空间复杂度两个核心概念,并通过冒泡排序和快速排序的Python实现详细分析其复杂度。冒泡排序的时间复杂度为O(n^2),空间复杂度为O(1);快速排序平均时间复杂度为O(n log n),空间复杂度为O(log n)。文章还介绍了算法选择、分而治之及空间换时间等优化策略,帮助你在大数据挑战中游刃有余。
137 3
|
1月前
|
存储 算法 安全
基于哈希表的文件共享平台 C++ 算法实现与分析
在数字化时代,文件共享平台不可或缺。本文探讨哈希表在文件共享中的应用,包括原理、优势及C++实现。哈希表通过键值对快速访问文件元数据(如文件名、大小、位置等),查找时间复杂度为O(1),显著提升查找速度和用户体验。代码示例展示了文件上传和搜索功能,实际应用中需解决哈希冲突、动态扩容和线程安全等问题,以优化性能。
|
2月前
|
缓存 算法 搜索推荐
Java中的算法优化与复杂度分析
在Java开发中,理解和优化算法的时间复杂度和空间复杂度是提升程序性能的关键。通过合理选择数据结构、避免重复计算、应用分治法等策略,可以显著提高算法效率。在实际开发中,应该根据具体需求和场景,选择合适的优化方法,从而编写出高效、可靠的代码。
49 6
|
3月前
|
并行计算 算法 测试技术
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面,旨在通过综合策略提升程序性能,满足实际需求。
99 1
|
4月前
|
并行计算 算法 IDE
【灵码助力Cuda算法分析】分析共享内存的矩阵乘法优化
本文介绍了如何利用通义灵码在Visual Studio 2022中对基于CUDA的共享内存矩阵乘法优化代码进行深入分析。文章从整体程序结构入手,逐步深入到线程调度、矩阵分块、循环展开等关键细节,最后通过带入具体值的方式进一步解析复杂循环逻辑,展示了通义灵码在辅助理解和优化CUDA编程中的强大功能。
|
4月前
|
算法
PID算法原理分析
【10月更文挑战第12天】PID控制方法从提出至今已有百余年历史,其由于结构简单、易于实现、鲁棒性好、可靠性高等特点,在机电、冶金、机械、化工等行业中应用广泛。
|
5月前
|
算法 搜索推荐 开发者
别再让复杂度拖你后腿!Python 算法设计与分析实战,教你如何精准评估与优化!
在 Python 编程中,算法的性能至关重要。本文将带您深入了解算法复杂度的概念,包括时间复杂度和空间复杂度。通过具体的例子,如冒泡排序算法 (`O(n^2)` 时间复杂度,`O(1)` 空间复杂度),我们将展示如何评估算法的性能。同时,我们还会介绍如何优化算法,例如使用 Python 的内置函数 `max` 来提高查找最大值的效率,或利用哈希表将查找时间从 `O(n)` 降至 `O(1)`。此外,还将介绍使用 `timeit` 模块等工具来评估算法性能的方法。通过不断实践,您将能更高效地优化 Python 程序。
91 4
|
5月前
|
算法 程序员 Python
程序员必看!Python复杂度分析全攻略,让你的算法设计既快又省内存!
在编程领域,Python以简洁的语法和强大的库支持成为众多程序员的首选语言。然而,性能优化仍是挑战。本文将带你深入了解Python算法的复杂度分析,从时间与空间复杂度入手,分享四大最佳实践:选择合适算法、优化实现、利用Python特性减少空间消耗及定期评估调整,助你写出高效且节省内存的代码,轻松应对各种编程挑战。
112 1
|
5月前
|
算法 数据可视化
基于SSA奇异谱分析算法的时间序列趋势线提取matlab仿真
奇异谱分析(SSA)是一种基于奇异值分解(SVD)和轨迹矩阵的非线性、非参数时间序列分析方法,适用于提取趋势、周期性和噪声成分。本项目使用MATLAB 2022a版本实现从强干扰序列中提取趋势线,并通过可视化展示了原时间序列与提取的趋势分量。代码实现了滑动窗口下的奇异值分解和分组重构,适用于非线性和非平稳时间序列分析。此方法在气候变化、金融市场和生物医学信号处理等领域有广泛应用。
317 19
|
6月前
|
算法
算法设计与分析作业
这篇文章是关于算法设计与分析的作业,其中包含了两个算法实现:一个是使用分治算法实现的十进制大整数相乘(包括加法、减法和乘法函数),并进行了正确性和健壮性测试;另一个是使用快速排序思想实现的分治查找第K小元素的程序,并分析了其平均和最坏时间复杂度。
算法设计与分析作业

热门文章

最新文章