面试官:怎么删除 HashMap 中的重复元素?第 3 种实现思路,99% 的人不会!

简介: 面试官:怎么删除 HashMap 中的重复元素?第 3 种实现思路,99% 的人不会!

List 和 Map 元素的删除、去重,这些都是工作中经常遇到的问题,一些基础程序员可能会走一些弯路,所以栈长输出了三篇,希望对大家有用,其中一些编程技巧很多老程序员也没用过,所以,技术真的是学无止境。


今天栈长带来集合的删除及去重系列的最后一篇,如何删除 HashMap 中的重复元素,即怎么根据 Value 去重,去除 HashMap 中 Value 重复的元素,这也是面试官可能会问到的。



为什么不是根据 Key 去重?

大家都知道,HashMap 的 key 是不会重复的,如果有重复就会用新值覆盖旧值。


当我们向一个 HashMap 中插入元素时,HashMap 会根据这个 key 的 equals 和 hashCode 方法进行判断,如果两个 key 的值用 equals 方法比较相同,且 key 的 hashCode 值也相同,那么 HashMap 将认为这是同一个 key,后续插入相同 key 的键值对会将旧值替换为新值。


需要注意的是:


Java 中的基本数据类型和 String 等内置类,它们已经正确实现了 equals 和 hashCode 方法,可以直接用作 HashMap 的 key,而不会导致重复的 key 出现。


如果我们使用自定义类的对象作为 HashMap 的 key,需要保证这个类正确实现了 equals 和 hashCode 方法,否则可能会出现插入 "重复 key" 的情况,正常情况下,这是不符合规范和逻辑的。


HashMap 删除重复元素方案

以下 HashMap 初始测试数据:


public Map<String, String> initMap = new HashMap<>() {{
    put("user1", "张三");
    put("user2", "李四");
    put("user3", "张三");
    put("user4", "李四");
    put("user5", "王五");
    put("user6", "赵六");
    put("user7", "李四");
    put("user8", "王五");
}};

本文所有完整示例源代码已经上传:


https://github.com/javastacks/javastack


欢迎 Star 学习,后面 Java 示例都会在这上面提供!


1、新创建 Map 添加不重复元素

/**
 * 新创建 Map 添加不重复元素
 * @author: 栈长
 * @from: 公众号Java技术栈
 */
@Test
public void removeDuplicated1() {
    Map<String, String> map = new HashMap<>();
    initMap.forEach((k, v) -> {
        if (!map.containsValue(v)) {
            map.put(k, v);
        }
    });
    System.out.println(map);
}

这种方法很原始,通过创建一个新 HashMap,添加元素前进行判断,如果元素在新 HashMap 中不存在才进行添加。


2、添加 Set 再删除重复元素

/**
 * 添加 Set 再删除重复元素
 * @author: 栈长
 * @from: 公众号Java技术栈
 */
@Test
public void removeDuplicated2() {
    Set<String> set = new HashSet<>();
    Iterator<Map.Entry<String, String>> iterator = initMap.entrySet().iterator();
    while (iterator.hasNext()) {
        Map.Entry<String, String> entry = iterator.next();
        if (!set.add(entry.getValue())) {
            iterator.remove();
        }
    }
    System.out.println(initMap);
}

这种方法和第一种方法大同小异,通过创建一个 HashSet,然后遍历 HashMap,因为 HashSet 是不允许重复元素的,所以,如果 HashSet 能添加元素说明元素没有重复,否则说明元素重复了,然后删除即可。


另外,HashSet、HashMap 的关系也是面试必问的,如果你近期准备面试跳槽,建议在Java面试库小程序在线刷题,涵盖 2000+ 道 Java 面试题,几乎覆盖了所有主流技术面试题。


3、使用 Stream 删除重复元素

/**
 * 使用 Stream 删除重复元素
 * @author: 栈长
 * @from: 公众号Java技术栈
 */
@Test
public void removeDuplicated3() {
    Map<String, String> resultMap = initMap.entrySet().stream().collect(
            Collectors.toMap(Map.Entry::getValue, Map.Entry::getKey, (key1, key2) -> key1)
    ).entrySet().stream().collect(
            Collectors.toMap(Map.Entry::getValue, Map.Entry::getKey, (key1, key2) -> key1)
    );
    System.out.println(resultMap);
}

利用 Stream 的 collect 方法重新进行收集,这个方法也十分简单,一行代码搞定,为了可读性,文中代码进行了换行。Stream 基础就不介绍了,Stream 系列我之前写过一个专题了,不懂的关注公众号Java技术栈,然后在公众号 Java 教程菜单中阅读。


Collectors.toMap 方法返回的是一个Collector,它可以将元素累积到 Map 中,Map 的键和值将提供的映射函数应用到输入元素的结果,如果映射的键包含重复项,则值映射函数会使用提供的 merge 函数进行结果合并。


Collectors.toMap 方法可以对 Key 进行去重合并,这也是为什么进行了两次 collect 收集的原因:


第一次收集:


把 Value 作为 Key,Key 作为 Value,这样就能使用 Value 进行去重了,输出结果:


{李四=user2, 张三=user1, 王五=user8, 赵六=user6}


虽然能去重了,但是 HashMap 中的 Key 和 Value 值却颠倒了,所以需要第二次收集。


第二次收集:


现在的 Key 是之前的 Value,所以需要再相互换过来,输出结果:


{user1=张三, user2=李四, user8=王五, user6=赵六}


这个方法比较绕,虽然能一行代码搞定,但代码很冗余,不是很优雅,最重要的是这两次的收集过程会创建两次新 Map,相对比较耗内存。


总结

本文总结了 3 种删除 HashMap 重复元素的方法:


新创建 Map 添加不重复元素


添加 Set 再删除重复元素(推荐)


使用 Stream 删除重复元素


实际开发过程中,可能会使用不同的遍历方式,使用哪种删除方案可以根据不同的遍历方式进行选择,但推荐使用 Set 方案,可以直接删除 Map 中的重复元素,不会创建新的 HashMap。


另外,遍历集合时需要重点考虑是否有多线程修改元素的场景,可能导致的并发修改异常,参考之前文章中介绍的方案,这里不再撰述了。


本文所有完整示例源代码已经上传:


https://github.com/javastacks/javastack


欢迎 Star 学习,后面 Java 示例都会在这上面提供!


你身边还有谁不会删除 HashMap 中的重复元素?把这篇文章发给他吧,让大家少走弯路,少写垃圾代码,共同进步。


你还知道哪些 HashMap 去重技巧?欢迎留言分享~


好了,今天的分享就到这里了,后面栈长会分享更多好玩的 Java 技术和最新的技术资讯,关注公众号Java技术栈第一时间推送,我也将主流 Java 面试题和参考答案都整理好了,大家可以在Java面试库小程序进行刷题。



相关文章
|
缓存 C# 虚拟化
WPF列表性能提高技术
WPF数据绑定系统不仅需要绑定功能,还需要能够处理大量数据而不会降低显示速度和消耗大量内存,WPF提供了相关的控件以提高性能,所有继承自`ItemsControl`的控件都支持该技术。
291 0
|
存储 SQL JSON
【新闻推荐系统】(task2)MongoDB篇
本文属于新闻推荐实战—数据层—构建物料池之MongoDB。MongoDB数据库在该项目中会用来存储画像数据(用户画像、新闻画像),使用MongoDB存储画像的一个主要原因就是方便扩展,因为画像内容可能会随着产品的不断发展而不断的更新。作为算法工程师需要了解常用的MongoDB语法(比如增删改查,排序等),因为在实际的工作可能会从MongoDB中获取用户、新闻画像来构造相关特征。
799 0
【新闻推荐系统】(task2)MongoDB篇
|
5月前
|
Ubuntu 应用服务中间件 网络安全
关于一些轻量云服务器SSH断连的疑问
在使用2H2G配置的轻量级Ubuntu 22.04服务器时,按照Solana官网教程安装环境,执行`[cargo install]`命令(特别是安装avm和anchor包时),出现SSH连接中断且无法重新登录的问题。推测可能是低配服务器资源耗尽导致SSH进程被终止,即便CPU使用率下降也无法恢复连接,需重启服务器并等待约30分钟才能恢复正常。此现象或与服务器性能限制有关,期待更多测试与解释。
|
5月前
|
存储 关系型数据库 分布式数据库
【赵渝强老师】HBase的逻辑存储结构
HBase的逻辑存储结构包括命名空间、表和列族。命名空间类似关系型数据库中的数据库,用于逻辑划分和隔离数据;表以RowKey组织数据并按字典序排列,分为多个Region实现分布式存储;列族包含列且无需预先定义,由MemStore缓存写入数据,定期刷新生成Store File。文章通过视频和代码示例详细讲解了各部分的操作与功能。
180 2
|
弹性计算 网络协议 安全
安全组规则
安全组规则
410 3
|
缓存 JavaScript 前端开发
成功解决:npm 版本不支持node.js。【 npm v9.1.2 does not support Node.js v16.6.0.】
这篇文章介绍了如何解决npm版本与Node.js版本不兼容的问题,提供了查看当前npm和Node.js版本的步骤,以及如何根据Node.js版本选择合适的npm版本并进行升级的详细指导。
成功解决:npm 版本不支持node.js。【 npm v9.1.2 does not support Node.js v16.6.0.】
|
Cloud Native 关系型数据库 分布式数据库
PolarDB开源项目未来展望:技术趋势与社区发展方向
【9月更文挑战第5天】随着云计算技术的发展,阿里云推出的云原生分布式数据库PolarDB受到广泛关注。本文探讨PolarDB的未来展望,包括云原生与容器化集成、HTAP及实时分析能力提升、智能化运维与自动化管理等技术趋势;并通过加强全球开源社区合作、拓展行业解决方案及完善开发者生态等措施推动社区发展,目标成为全球领先的云原生数据库之一,为企业提供高效、可靠的服务。
285 5
|
数据采集 传感器 XML
LabVIEW和MES系统的智能化车间数据对接
LabVIEW和MES系统的智能化车间数据对接
258 4
|
存储 小程序 数据库
微信小程序云开发入门教程-服务开通
微信小程序云开发入门教程-服务开通
|
缓存 运维 网络协议
mPaaS云平台运维系列之—移动推送产品介绍
消息推送服务(Message Push Service,简称 MPS)是移动开发平台 mPaaS提供的专业的移动消息推送方案,针对不同的场景推出多种推送类型,满足客户的个性化推送需求。为了提升推送的到达率,mPaaS在MPS中集成了华为、小米等厂商的推送功能,在提供控制台快速推送能力的同时,也提供了服务端接入方案,方便用户快速集成移动终端推送功能,与App用户保持互动,从而有效地提高用户留存率,提升用户体验。
2174 0
mPaaS云平台运维系列之—移动推送产品介绍