【Day16】Java算法刷题 [299. 猜数字游戏 ] [1.两数之和] [面试题 01.09. 字符串轮转 ]

简介: 学习 [299. 猜数字游戏 ] [1.两数之和] [面试题 01.09. 字符串轮转 ]。

刷题打卡,第 十六 天


题目一、299. 猜数字游戏

题目二、1.两数之和

题目三、面试题 01.09. 字符串轮转


题目一、299. 猜数字游戏


原题链接:299. 猜数字游戏


题目描述:


你在和朋友一起玩 猜数字(Bulls and Cows)游戏,该游戏规则如下:

/

写出一个秘密数字,并请朋友猜这个数字是多少。朋友每猜测一次,你就会给他一个包含下述信息的提示:

猜测数字中有多少位属于数字和确切位置都猜对了(称为 “Bulls”,公牛),

有多少位属于数字猜对了但是位置不对(称为 “Cows”,奶牛)。

也就是说,这次猜测中有多少位非公牛数字可以通过重新排列转换成公牛数字。

给你一个秘密数字 secret 和朋友猜测的数字 guess ,请你返回对朋友这次猜测的提示。

提示的格式为 “xAyB” ,x 是公牛个数, y 是奶牛个数,A 表示公牛,B 表示奶牛。

请注意秘密数字和朋友猜测的数字都可能含有重复数字。

/

示例 1:

输入:secret = “1807”, guess = “7810”

输出:“1A3B”

解释:数字和位置都对(公牛)用 ‘|’ 连接,数字猜对位置不对(奶牛)的采用斜体加粗标识。

“1807”

|

“7810”

/

示例 2:

输入:secret = “1123”, guess = “0111”

输出:“1A1B”

解释:数字和位置都对(公牛)用 ‘|’ 连接,数字猜对位置不对(奶牛)的采用斜体加粗标识。

“1123” “1123”

| or |

“0111” “0111”

注意,两个不匹配的 1 中,只有一个会算作奶牛(数字猜对位置不对)。通过重新排列非公牛数字,其中仅有一个 1 可以成为公牛数字。


解题思路:

题目中给到我们两串数字,一串是secret 另外一串是 guess,分别是游戏的答案 与 参与者猜测的答案。

简单总结一下游戏规则,当我们猜的一串数字中,撞到了答案中某个出现的数字时,有两种情况:


数字就在对应位置上,那么这个数字就是Bulls;

数字不在对应位置上,那么就是Cows; 需要注意的是Cows不能重复累加,就如题目给到的 示例2


Bulls最容易找,只需要同时遍历两个串,位置相同的字符也相同,那么就是Bulls就找到了,同时记录下Bulls数量即可、


Cows就比较麻烦,我们可以准备两个数组,分别存放两个串中字符出现的次数(不用记录满足Bulls条件的字符):

当guess出现了而secret没有出现的,cows += 0;

在guess出现两次,secret出现一次,cows += 1;

在guess出现一次,secret出现三次,cows += 1;

当在两个串中出现的次数都为 2 ,那么cows+=2;

看起来情况很多,如果我们从中找到规律,就可以用同一的公式表示:cows += 较小的出现次数


到这里我们就分别得出了Bulls 和 Cows 按照要求输出即可。


提交代码:

class Solution {
    public String getHint(String secret, String guess) {
        int bulls = 0; //记录Bulls数量
        int cows = 0;  //记录Cows数量
        //字符串转化数组
        char[] st = secret.toCharArray(); //获取字符串secre的每个字符
        char[] gs = guess.toCharArray();  //获取字符串guess的每个字符
       int[] S = new int[10];    //创建数组,记录字符在secret出现的次数
        int[] G = new int[10];    //创建数组,记录字符在guess出现的次数 
       for(int i = 0;i < guess.length();++i){ //遍历两个字符串
        //找出 猜测数字中有多少位属于数字和确切位置都猜对(称为 "Bulls",公牛)情况
            if(st[i] == gs[i])
            //记录数量加一
            ++bulls;
            else{//否则
            //使用数组存储非Bulls情况下字符出现的次数,为节省位置,下标用 Ascii码值的差 充当
                ++S[st[i]-'0'];
                ++G[gs[i]-'0'];
            }
     }
        //遍历两个记录字符数的数组,同一个字符,出现次数少的那边,代表了Cows数
        for(int i = 0;i < 10;++i){
            cows += Math.min(S[i],G[i]);
        }
        //按照题目要求输出
        return bulls + "A" + cows + "B";
    }
}

提交结果:

微信图片_20221030170923.png


题目二、1.两数之和


原题链接:1.两数之和


题目描述:


给定一个整数数组 nums 和一个整数目标值 target,请你在该数组中找出 和为目标值 target 的那 两个

整数,并返回它们的数组下标。

你可以假设每种输入只会对应一个答案。但是,数组中同一个元素在答案里不能重复出现。

你可以按任意顺序返回答案。

/

示例 1:

输入:nums = [2,7,11,15], target = 9

输出:[0,1]

解释:因为 nums[0] + nums[1] == 9 ,返回 [0, 1] 。

/

示例 2:

输入:nums = [3,2,4], target = 6

输出:[1,2]

/

示例 3:

输入:nums = [3,3], target = 6

输出:[0,1]


解题思路:

题目给出了一个目标数target,要求我们从给定的数组中找出两个数,两数之和等于target,然后还需要输出这两个元素的下标。

咋一看其实不难,完全可以暴力解题,直接给数组双层循环遍历,当找到两数之和为target的元素,返回遍历到的下标就可以。

但是这样耗费的时间太长,时间复杂度不够理想。


我这里的思路,就是使用HashMap集合来存放键值对,主键存放数组元素,Value值存放对应的下标,那么我们就只需要单层的循环就能完成相同效果的遍历,大大节省了时间。


提交代码:

class Solution {
    public int[] twoSum(int[] nums, int target) {
        //创建map集合,存放键值对,Key值为数组元素,value值为下标
        Map<Integer,Integer> map = new HashMap<>();
     //遍历数组,将键值对存入集合
        for(int i = 0;i < nums.length;++i){
            map.put(nums[i],i);
        }
     //创建数组,用于存放符合题目要求的下标
        int[] arr = null;
     //再次遍历数组,每遍历一个元素,寻找集合中两者之和为target的元素
        //注意还需要比较两者下标是否相同,相同代表元素重复,不符合要求
        for(int i = 0;i < nums.length;++i){
            if(map.containsKey(target-nums[i]) && map.get(target-nums[i]) != i){
                //找到就记录下标,终止循环
                arr =  new int[]{i , map.get(target-nums[i])};
                break;
            }
        }
        //返回下标数组
        return arr;
    }
}

提交结果:

微信图片_20221030170931.png

题目三、面试题 01.09. 字符串轮转


原题链接:面试题 01.09. 字符串轮转


题目描述:


字符串轮转。给定两个字符串s1和s2,请编写代码检查s2是否为s1旋转而成(比如,waterbottle是erbottlewat旋转后的字符串)。

/

示例1:

输入:s1 = “waterbottle”, s2 = “erbottlewat”

输出:True

/

示例2:

输入:s1 = “aa”, s2 = “aba”

输出:False


解题思路:

这道题有些一言难尽的味道,我们借助API,直接无脑完成;

将两个s1字符串拼接起来,只要s2是其字串,那么必定就是轮转而来的…


提交代码:

class Solution {
    public boolean isFlipedString(String s1, String s2) {
        int len1 = s1.length();
        int len2 = s2.length();
        //长度不同,不可能是轮转的来的
        if(len1 != len2) return false;
        //两个s1字符串拼接起来,若s2是其子串,说明是轮转得来的
        return (s1+s1).contains(s2);
  }
}

提交结果:

微信图片_20221030170938.png

⚽求关注⚽ 作者🥇 .29. 🥇 的✔博客主页✔

⚽来刷题⚽ 记录每日LeetCode✔刷题专栏✔

您的点赞,收藏以及关注是对作者最大的鼓励喔 ~~

微信图片_20221029111446.jpg


目录
相关文章
|
4天前
|
监控 算法 网络协议
Java 实现局域网电脑屏幕监控算法揭秘
在数字化办公环境中,局域网电脑屏幕监控至关重要。本文介绍用Java实现这一功能的算法,涵盖图像采集、数据传输和监控端显示三个关键环节。通过Java的AWT/Swing库和Robot类抓取屏幕图像,使用Socket进行TCP/IP通信传输图像数据,并利用ImageIO类在监控端展示图像。整个过程确保高效、实时和准确,为提升数字化管理提供了技术基础。
35 15
|
2月前
|
监控 Java 应用服务中间件
高级java面试---spring.factories文件的解析源码API机制
【11月更文挑战第20天】Spring Boot是一个用于快速构建基于Spring框架的应用程序的开源框架。它通过自动配置、起步依赖和内嵌服务器等特性,极大地简化了Spring应用的开发和部署过程。本文将深入探讨Spring Boot的背景历史、业务场景、功能点以及底层原理,并通过Java代码手写模拟Spring Boot的启动过程,特别是spring.factories文件的解析源码API机制。
87 2
|
10天前
|
缓存 算法 搜索推荐
Java中的算法优化与复杂度分析
在Java开发中,理解和优化算法的时间复杂度和空间复杂度是提升程序性能的关键。通过合理选择数据结构、避免重复计算、应用分治法等策略,可以显著提高算法效率。在实际开发中,应该根据具体需求和场景,选择合适的优化方法,从而编写出高效、可靠的代码。
25 6
|
2月前
|
Java 程序员
Java社招面试题:& 和 && 的区别,HR的套路险些让我翻车!
小米,29岁程序员,分享了一次面试经历,详细解析了Java中&和&&的区别及应用场景,展示了扎实的基础知识和良好的应变能力,最终成功获得Offer。
83 14
|
2月前
|
存储 缓存 算法
面试官:单核 CPU 支持 Java 多线程吗?为什么?被问懵了!
本文介绍了多线程环境下的几个关键概念,包括时间片、超线程、上下文切换及其影响因素,以及线程调度的两种方式——抢占式调度和协同式调度。文章还讨论了减少上下文切换次数以提高多线程程序效率的方法,如无锁并发编程、使用CAS算法等,并提出了合理的线程数量配置策略,以平衡CPU利用率和线程切换开销。
面试官:单核 CPU 支持 Java 多线程吗?为什么?被问懵了!
|
2月前
|
Java 编译器 程序员
Java面试高频题:用最优解法算出2乘以8!
本文探讨了面试中一个看似简单的数学问题——如何高效计算2×8。从直接使用乘法、位运算优化、编译器优化、加法实现到大整数场景下的处理,全面解析了不同方法的原理和适用场景,帮助读者深入理解计算效率优化的重要性。
37 6
|
9天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
142 80
|
3天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
5天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
2天前
|
算法
基于梯度流的扩散映射卡尔曼滤波算法的信号预处理matlab仿真
本项目基于梯度流的扩散映射卡尔曼滤波算法(GFDMKF),用于信号预处理的MATLAB仿真。通过设置不同噪声大小,测试滤波效果。核心代码实现数据加载、含噪信号生成、扩散映射构建及DMK滤波器应用,并展示含噪与无噪信号及滤波结果的对比图。GFDMKF结合非线性流形学习与经典卡尔曼滤波,提高对非线性高维信号的滤波和跟踪性能。 **主要步骤:** 1. 加载数据并生成含噪测量值。 2. 使用扩散映射捕捉低维流形结构。 3. 应用DMK滤波器进行状态估计。 4. 绘制不同SNR下的轨迹示例。