牛牛爱位运算(与远算,相与的结果小于等于自身)

简介: 给定一个长度为n的序列a,你需要从中挑出任意多个(可以0个)数,使得他们&起来值最大。

题目链接:牛牛爱位运算

来源:牛客网

时间限制:C/C++ 1秒,其他语言2秒

空间限制:C/C++ 262144K,其他语言524288K

64bit IO Format: %lld


题目描述:


牛牛正在学习位运算

他刚刚理解&的用法(and),准备趁热打铁,做做下面这题:

给定一个长度为n的序列a,你需要从中挑出任意多个(可以0个)数,使得他们&起来值最大。

看起来挺简单的,可是牛牛就是不会做。

比如说选出五个数1,3,5,7,9,他们&起来的值就是1&3&5&7&9=1


输入描述:

第一行,输入一个数T,表示数据组数。

第2~(T+1)行,每行读入一个数n,接下来读入n个数,第i个数表示ai。

输出描述:

对于每一组数据,你需要输出&的最大值。

示例1

输入

2

1 5

2 5 5

输出

5

5

说明

第一组数据,显然取5是最优的;

第二组数据,可以取两个5,5&5=5是最优的。

备注:

数据保证1<=T<=100000, 1<=ai,n<= 10^5,并且∑n≤10 ^6。


题意:就是让你选择任意多个(可以0个)数,让他们&起来值是最大的。

思路:直接找出n个数中最大的数即可。

原因:与(&)运算,一个数与其它任何数&,结果只会小于等于自己。

1&1=1

1&0=0

0&1=0

0&0=0

假如一个数的二进制 num1 = 0011010100100(前面补0)

另外一个数的二进制 num2 = 1001000100111

相与的结果是:        0001000100100

显然相与后的结果显然是变小了

除非这两个数相等,不然相与后一定变小。

代码:

#include<bits/stdc++.h>
using namespace std;
int main()
{
    int t;
    cin>>t;
    while(t--)
    {
        int n;
        int x;
        int ans=0;
        cin>>n;
        for(int i=0;i<n;i++)
        {
            cin>>x;
            ans=max(x,ans);
        }
        cout<<ans<<endl;
    }
    return 0;
}
相关文章
|
5天前
|
存储 弹性计算 人工智能
【2025云栖精华内容】 打造持续领先,全球覆盖的澎湃算力底座——通用计算产品发布与行业实践专场回顾
2025年9月24日,阿里云弹性计算团队多位产品、技术专家及服务器团队技术专家共同在【2025云栖大会】现场带来了《通用计算产品发布与行业实践》的专场论坛,本论坛聚焦弹性计算多款通用算力产品发布。同时,ECS云服务器安全能力、资源售卖模式、计算AI助手等用户体验关键环节也宣布升级,让用云更简单、更智能。海尔三翼鸟云服务负责人刘建锋先生作为特邀嘉宾,莅临现场分享了关于阿里云ECS g9i推动AIoT平台的场景落地实践。
【2025云栖精华内容】 打造持续领先,全球覆盖的澎湃算力底座——通用计算产品发布与行业实践专场回顾
|
3天前
|
云安全 人工智能 自然语言处理
阿里云x硅基流动:AI安全护栏助力构建可信模型生态
阿里云AI安全护栏:大模型的“智能过滤系统”。
|
4天前
|
人工智能 自然语言处理 自动驾驶
关于举办首届全国大学生“启真问智”人工智能模型&智能体大赛决赛的通知
关于举办首届全国大学生“启真问智”人工智能模型&智能体大赛决赛的通知
|
7天前
|
存储 机器学习/深度学习 人工智能
大模型微调技术:LoRA原理与实践
本文深入解析大语言模型微调中的关键技术——低秩自适应(LoRA)。通过分析全参数微调的计算瓶颈,详细阐述LoRA的数学原理、实现机制和优势特点。文章包含完整的PyTorch实现代码、性能对比实验以及实际应用场景,为开发者提供高效微调大模型的实践指南。
623 2
|
5天前
|
JavaScript API 开发工具
如何在原生App中调用Uniapp的原生功能?
如何在原生App中调用Uniapp的原生功能?
311 139
|
4天前
|
编解码 自然语言处理 文字识别
Qwen3-VL再添丁!4B/8B Dense模型开源,更轻量,仍强大
凌晨,Qwen3-VL系列再添新成员——Dense架构的Qwen3-VL-8B、Qwen3-VL-4B 模型,本地部署友好,并完整保留了Qwen3-VL的全部表现,评测指标表现优秀。
400 7
Qwen3-VL再添丁!4B/8B Dense模型开源,更轻量,仍强大