在刚刚结束的安全界「奥斯卡」:全球网络安全顶级峰会Black Hat USA上,阿里云安全分享了基于大模型的自动化YARA规则生成框架 LLMDYara,面向全球安全社区开源核心思路。本文将首次公开更多技术细节,解读“高检出 + 低误报”背后的工程化实践。
同时,在2025年7月刚结束的VB100权威评测中,阿里云云安全中心以99.9%的恶意文件检出率(位列本轮所有参测厂商第一)荣获A+评级,Virus Bulletin作为1989年成立于英国的非营利反病毒技术研究机构,以其测试严格性和独立性著称。此次测评结果更是阿里云在病毒检测能力和技术上优势的最好注脚。

(阿里云安全技术团队同学在Black Hat USA分享现场)
当传统特征工程遇上AI:为什么我们还要“重做一遍”?
在当前的安全运营和恶意文件检测领域,我们所遭遇的,是由规模化和复杂度一起造成的行业性难题。
>>规模化问题:仅靠人工无法应对大量级样本
全球已知恶意样本数量已逾30亿,且每季度新增1000万到2000万个。在此规模下,像阿里云这样的云服务商每日需扫描数亿文件以应对持续涌现的新威胁,传统依赖人工分析的防御模式已难以为继。
>>复杂度问题:安全威胁变得更加“聪明”
与此同时,威胁的类型也在变。攻击者用更多新技术来躲检测:
混淆技术越来越普遍:恶意软件常有多层加壳、加密、控制流平坦化等手段,这样做是为破坏传统分析方法,让人工分析更难。
AI带来的军备竞赛:攻击者开始用AI生成恶意软件,每季度至少有20万种新变种出现。这些软件生成时能改变代码结构,自动生成新变种,让归类效率变差。
>>效率 vs 准确率,安全运营中经典的“二选一”难题
恶意样本量和攻击复杂度的持续提升,让客户在实际的业务场景中,再次面对效率和准确率二选一的危机。过去十年,恶意文件检测技术经历了三轮技术迭代,均遇到了瓶颈:

海量样本增加,网络安全人才持续紧缺的当下,“人海战术”早已被时代抛弃。但现有机器学习方案,尤其是端到端深度学习,虽然自动化高,但“黑盒”问题明显:模型判定恶意、正常时没有解释,安全运营人员既不能验证也不能解读,需要重新对样本进行逆向分析,导致人机合作效率降低。而大模型与AI技术的飞速发展,为技术迭代带来了新的可能。
LLMDYara:一条融合专家智慧与AI规模化的四步流水线
为了解决前面说的技术挑战和客户诉求,阿里云云安全团队创新提出了LLMDYara框架。
区别于停留在实验室阶段的构想,这是一套已在线上真实环境中落地运行的方案。它构建了一套结构化、可审计的自动化分析流程,核心设计目标是学习专业逆向工程师的样本分析逻辑与思路,同时具备规模化推广应用的能力。
三大技术创新点
>>多维结构化特征提取:把“二进制”翻译成大模型能读的“自然语言”
LLMDYara第一个难题是机器代码和自然语言之间的理解差距:编译过程中会去掉函数名、变量名等信息,LLM无法理解PE、ELF文件中底层指令逻辑,所以阿里云安全技术团队采用多种特征提取,把机器语言转成结构化自然语言,让LLM能看懂代码逻辑。
这并非直接把二进制扔给模型,而是用三层结构,并行还原文件的“意图”:
- 语义字符串(String)

首先,我们会识别样本里的字符串,根据17类威胁指标(如URL、IP、注册表等)进行分类,之后用分类器区分有用的IOCs和垃圾字符串(如编译器生成的随机数据),避免噪声干扰LLM输入。
- 函数识别(Function)

这一步会先试着把二进制函数反编译成高级伪代码,加上函数调用上下文,让LLM利用函数调用关系辅助调用上下文能生成规则。如果反编译因为代码混淆失败的时候,就退回分析原始汇编指令,通过语义分析,LLM会给无意义的函数地址加标签,比如"用AES加密"或"注入远程进程",这些标签帮LLM理解函数的真实行为。
- 指纹特征(DNAHash)

最关键一个环节是DNAHash,在真实的恶意文件真实对抗中,攻击者常通过字符串加密、函数混淆等防逆向手段来规避检测。把函数或代码块哈希后按执行顺序连起来,形成一个对代码结构敏感的“指纹特征”。这种方法对于代码重排、垃圾指令插入等常见混淆手法具有很强的鲁棒性,即使代码被打乱,也能通过“指纹特征”识别恶意家族。
通过这三层并行的提取,每个二进制样本最终被转化为一份小于50KB的结构化文本。这份“文档”虽然体积小,但信息密度高,让大模型容易理解。大模型的输入信息,关键不在于数据的“量”,而在于信息的“质”。通过预处理,主动过滤噪声,增强信号等技术手段,我们能够提取出高质量的数据信息,让后续的AI分析达到预期效果。

结果:单样本平均提取<50KB结构化文本,可直接输入大模型,存储成本从GB级降至10MB级。
>>可解释性特征生成:让大模型像资深逆向工程师一样思考
生成了“分析文档”后,接下来是如何让一个7B参数级别的小模型,像一位经验丰富的逆向专家那样,对这些信息进行推理和决策,找出恶意特征。

第一步:监督式微调 (SFT) 奠定基础
我们首先通过监督式微调(SFT),让模型能够激发出更多的基础的“恶意代码语法知识”。
为此,我们构建了一个包含超过10万条高质量的安全数据集作为冷启动阶段。这些标签由内部资深安全专家标注,覆盖了诸如远程控制、进程注入代码、反调试技巧、加解密算法等常见恶意代码特征。SFT的目标是让模型学会将底层的代码模式(如特定操作码序列、API调用组合)与高层的恶意概念(如“窃密”、“勒索”)关联起来。
第二步:思维链 (CoT) 提示激发专家推理
如果说SFT教会了模型“是什么”,那么思维链(CoT)提示则教会了模型“为什么”。
简单地问模型“函数是否具备恶意功能?”只会得到一个“是/否”的黑盒答案。为了打破这个局限,我们设计了一套复杂的CoT提示模板,强制模型模拟人类专家的分析逻辑,并将其思考过程完整地输出出来。
一个典型的CoT分析过程如下所示:

这种方法的价值是双重的:
- 输出可解释证据链:模型生成的不再是简单的检测标签,而是结构化、可读的分析报告(如关键行为序列、逻辑推理步骤)。这极大提升了结果的可审计性,使安全工程师能够理解并验证AI的决策过程,增强对自动化检测系统的信任。
- 聚焦恶意行为逻辑:通过将二进制特征转化为语义描述,模型的学习重点从容易被混淆、篡改的表面特征(如特定字符串、局部字节模式)转向需要理解代码意图与逻辑才能识别的深层恶意行为模式(如隐蔽持久化、权限提升链),检测更难被绕过。
基于这套机制,让LLMDYara在包含230万个文件的白样本测试集上,将误报率从1.2%降低到了0.17%,达到可用的状态。
>>自动化数据飞轮: 构建高质量训练数据的“永动机”
传统的数据标注工作是安全AI项目中最耗人力、最耗时的瓶颈,我们通过一套创新的自动化流程,彻底打破了这一瓶颈。

这套自动化数据流水线的具体工作方式如下:
自动化采集:系统自动订阅并接入VirusTotal、MalwareBazaar等数十个公开及私有的威胁情报源,可以及时获取全球最新的威胁情报。
规模化家族标注:对于海量的新样本,我们首先利用DNAHash等高效特征进行无监督聚类,快速将成千上万的未知样本归入不同的“疑似家族”簇。然后,安全专家只需对每个簇中的少数代表性样本进行深度分析,生成该家族的“指纹特征”。这条规则随后被用于自动标注整个簇的所有样本。这一流程将传统逐一样本分析的模式,转变为批量化的“簇”级分析,将人工工作量减少了90%以上。
协同化函数标注:在为SFT准备训练数据时,我们建立了一套人机协同系统。对于一个未知函数,系统首先调用我们微调后的大模型进行“预标注”,生成一份详细的行为描述草稿。安全专家要做的,不再是从零开始分析,而是在AI生成的草稿上进行审核和修正。这种模式将专家的角色从“生产者”转变为“质检员”,将函数标注的效率提升了惊人的20倍。
工*程化实践:安全产品的智能化升级
LLMDYara的成功不仅在于算法的创新,更在于一套成熟、稳健的工程体系。目前,这项技术已经从实验室走向云端,集成在安全产品中,为数百万客户提供可靠的保护:
>>云沙箱分拣度
所有未知样本先过阿里云云沙箱(行为侧),高置信家族直接落库;低置信才进入LLMDYara静态链路,动静结合误报再降30%。
>>CI&CD回归
规则每天自动回归200万+白样本和5万+黑样本,异常自动回滚。
>>三级灰度
“客户 → 区域 → 全局”灰度,线上误报 > 0.1%自动熔断。
这一整套从智能分拣、自动化回归到安全发布的工程体系,才是将LLMDYara从一个强大的AI模型,建设成一个可靠、可信的云安全产品的关键。这套体系构建了一个良性循环:高质量数据训练出好模型,好模型生成可解释的结果,可靠的工程体系确保结果被安全、高效地应用,而应用中发现的新威胁又反过来丰富了数据,持续驱动整个系统的进化,让阿里云能为客户带去更智能、更高效的安全体验。
在未来,阿里云仍将在安全技术的道路上持续求索,投入AIx威胁分析x云端算力的三叉戟战略,把“专家经验”沉淀成“云的能力”,让每一位阿里云客户都能零门槛接入顶尖的智能安全防护体系。
最后,让我们向每一位在前沿探索的安全工程师致敬。
