花无涯带你走进黑客之AI 诈骗正在泛滥

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: 花无涯带你走进黑客之AI 诈骗正在泛滥

花无涯带你走进黑客之AI 诈骗正在泛滥
花无涯带你走进黑客之AI 诈骗正在泛滥

美国网民使用 AI 图像生成工具恶搞出的“特朗普被逮捕”照片刷爆社交媒体,引得疯狂转发、讨论,在大部分瓜友都沉浸在恶搞的快乐中,部分理智民众看到 AI 技术合成的照片竟如此逼真,表达了对 AI 未来发展过程中安全性的担忧。

一语成谶,5 月22 日,包头微信公众号发布一则消息表示包头警方破获了一起利用人工智能(AI)实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生 10 分钟内被“好友”骗走 430 万元巨款。

AI诈骗正在全国爆发

妈妈!!这个新闻是在说:现在的AI技术能够合成你身边熟人的脸和声音,跟你打电话视频借钱,你遇到这样的事情可千万别上当受骗啊!谁跟你借钱叫他本人走到你面前去写借条按手印。

最好是别借钱出去。
我都不跟你借,凭啥借给别人。

对,不借!! ​

案件详情:
4 月 20 日 11 时左右,福州市某科技公司郭先生一“好友”突然通过微信视频联系到他,寒暄几句后,“好友”表示自己有一个朋友在外地竞标,需要公对公账户过账 430 万保证金,想看能不能借郭先生公司的账户走一下账。

看在多年交情的份上,郭先生爽快的答应对方可以帮助走账。“好友便顺势要走了郭先生的银行卡号,随后不久便通知其已经把钱打到了账户上,还把银行转账底单的截图通过微信发给了郭先生。

收到了转账的截图信息,加上又是与”好友“视频通话,郭先生在没有核实钱款是否真的到账的情况下,就分两笔把 430 万转到了”好友“提供的银行帐户。

打完款后,郭先生照例向好友确认是否款项受否到账,但一头雾水的好友回复了一个“?”。这时候郭先生已经有了某种不好预感,赶紧拨打了好友电话,沟通后才发现上当受骗了,原来根本不是“好友借钱”,是诈骗分子通过智能 AI 换脸和拟声技术,佯装好友对他实施了诈骗。

值得一提的事,郭先生在向警方陈述案件时表示从头到尾网络犯罪芬妮都没有和其提到借钱的事情,只是一再强调周转一下,说会先把钱给其打过来再让给他朋友账户转过去(相当于过一手),再加上双方进行了视频通话,视频中的声音和面孔和朋友别无二致,因此放松了戒备,最终受骗了。

从郭先生陈述的话可以看出,这帮网络犯罪分子并没有向以往案件中披露的诈骗手法一样,以新账户的名义重新添加好友,从而开展诈骗活动。而是直接用好友微信发起视频聊天,采用 AI 技术合成好友声音、面容,防不胜防。

随着互联网技术发展,网络犯罪分子使用 AI 技术,通过换脸、换声音研究出各种各样的诈骗模式,因此日常生活中涉及到金钱来往时,一定要时刻保持谨慎,以防成为网络犯罪分子的”盘中餐“。

相关文章
|
1月前
|
机器学习/深度学习 人工智能 安全
AI与网络安全:防御黑客的新武器
在数字化时代,网络安全面临巨大挑战。本文探讨了人工智能(AI)在网络安全中的应用,包括威胁识别、自动化防御、漏洞发现和预测分析,展示了AI如何提升防御效率和准确性,成为对抗网络威胁的强大工具。
|
4月前
|
机器学习/深度学习 人工智能 安全
利用AI逃避规则,黑客的舞台又出神技!
AI技术的发展催生了新型网络威胁。黑客利用AI生成恶意软件代码和钓鱼邮件,挑战传统YARA规则检测,通过微妙变异躲避安全筛查。AI也被用于欺诈和数据窃取,包括模拟高管进行诈骗及通过深度伪造影响操作。研究揭示了ASCII艺术形式的新攻击方式ArtPrompt,能诱导AI模型产生有害内容。面对AI网络钓鱼攻击,需提高警惕,通过检查发件人信息、留意邮件内容和避免点击不明链接来识别攻击;并采用更新安全软件、强化身份验证等策略加强防范。
|
6月前
|
机器学习/深度学习 人工智能 安全
网络安全专家指出恶意AI将开始泛滥
网络安全专家指出恶意AI将开始泛滥
|
7月前
|
人工智能 自然语言处理 安全
黑客工具WormGPT:生成式AI的黑暗双胞胎
【2月更文挑战第12天】黑客工具WormGPT:生成式AI的黑暗双胞胎
255 5
黑客工具WormGPT:生成式AI的黑暗双胞胎
|
人工智能 安全 开发者
Level Up!真格 AI 游戏黑客松等你来战
Level Up!真格 AI 游戏黑客松等你来战
421 0
|
机器学习/深度学习 人工智能 安全
|
机器学习/深度学习 人工智能 自然语言处理
黑客如何使用AI和ML来瞄准企业
黑客还利用机器学习和人工智能,用不准确的数据破坏人工智能模型,从而破坏环境。机器学习和人工智能模型依靠正确标记的数据样本,来构建准确和可重复的检测配置文件。通过引入看起来类似于恶意软件的良性文件或创建被证明是误报的行为模式,黑客可以诱骗AI模型,使其相信攻击行为不是恶意的,还可以通过引入AI训练标记为安全的恶意文件来毒化AI模型。
190 0
|
机器学习/深度学习 人工智能 算法
|
机器学习/深度学习 人工智能 城市大脑
安全AI挑战者计划,邀你共同成长为DL时代的「模型黑客」
想要试试模型攻防战,成为深度学习时代的 Hacker?那么参加安全 AI 挑战者计划吧,图像、文字和语音等多种攻防挑战赛的你来,在这里选手们共同探索共同进步,挑战及成长。针对第一期人脸识别对抗任务,本文将从背景、赛题和解决方案出发扫清你的疑惑。
220 0
安全AI挑战者计划,邀你共同成长为DL时代的「模型黑客」
|
机器学习/深度学习 人工智能 算法
神经网络可以被劫持?谷歌大脑研究员演示AI黑客行为
计算机视觉算法并不完美。上个月,研究人员证明了一个流行的对象检测API可能会被愚弄,在一些情况下,算法可以将猫识别为“疯狂的被子”,“迷彩”,“马赛克”和“拼凑图”。当然,这还不是最糟糕的情况:它们还有可能被劫持,执行本不该做的任务。
2977 0

热门文章

最新文章