在过去的几年中,人工智能的应用已经深入到我们生活的方方面面,为我们带来了前所未有的便利。然而,与任何技术一样,人工智能也可能被恶意利用。WormGPT就是这样一种被恶意利用的例子。它是基于GPT-J语言模型构建的,这个模型是由OpenAI在2021年开源的。WormGPT的设计初衷并非是为了造福人类,而是为了执行各种邪恶任务,包括但不限于创建恶意软件和发起商业邮件攻击。
WormGPT的工作原理与普通的自然语言处理模型相似,但它不同之处在于不受道德或法律的约束。这意味着它可以被要求执行任何任务,而不用考虑其道德性或合法性。攻击者可以向WormGPT提供特定的指令,要求它生成恶意软件代码、欺诈性邮件内容等。WormGPT会根据这些指令生成相应的内容,然后将其提供给攻击者使用。网络安全专家警告说,WormGPT是ChatGPT的邪恶双胞胎,其产生是因为对ChatGPT施加的限制,迫使攻击者寻找规避手段。
令人担忧的是,WormGPT的使用成本非常低廉。据报道,在暗网上,攻击者只需支付每月60欧元的费用,就能够获取到这一工具的使用权。这种低廉的价格使得WormGPT对于大多数网络犯罪分子来说都是可以接受的,从而进一步增加了网络安全的风险。
在实验中,WormGPT展现了其恶意潜力。它可以生成极具说服力的电子邮件,甚至在战略上也非常狡猾,使得网络钓鱼和商业电子邮件攻击变得更加隐匿和具有欺骗性。
针对WormGPT等生成式AI工具可能引发的恶意攻击,网络安全专家提出了一些防范策略。首先是加强员工培训,让他们了解钓鱼邮件和BEC攻击的威胁,以及如何识别和应对这些威胁。其次是强化电子邮件的验证措施,确保邮件发送者的身份合法,同时采取防病毒软件和防火墙等技术手段来阻止恶意代码的传播。
WormGPT是一种具有极大威胁的生成式AI工具,对于网络犯罪分子而言是一大利器。为了有效应对这一威胁,需要采取全面的防范措施,包括加强员工培训和强化网络安全技术手段。同时,也需要加强全球范围内的人工智能监管,以确保人工智能的安全使用。只有这样,我们才能有效地阻止WormGPT等恶意工具对网络安全造成的威胁,确保网络空间的安全与稳定。