大数据安全分析的阶段性建设

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介:

基于大数据的安全分析在国内已经火了一段时间,不同行业都在这方面有不少的投入,自建的大数据安全平台项目也屡见不鲜。具体有多少会如Gartner的分析师Anton Chuvakin认为的那样,大概率归于失败(Why Your Security Data Lake Project Will FAIL:

http://blogs.gartner.com/anton-chuvakin/2017/04/11/why-your-security-data-lake-project-will-fail/ ),这是我们无法知道的。但是否有一条稳妥、坚实的路径可以到达目标,也许更值得讨论。

数据安全

需要思考的问题

在曾经由被动防御主导的建设阶段里,企业采购了很多防御性安全产品(FW、IPS、WAF、漏洞扫描等),其目的更多的是防御或加固自身。威胁态势的发展告诉企业,当前已经不能一味的停留在这个阶段。持续投资在防御上,不断加高水桶的木板高度并不是最经济、最有效的策略,蓄意的攻击者总是能够发现新的攻击面,进入到企业内部。如何能够尽早的发现这种有效渗透攻击,进行响应分析、及时处理并进一步有针对性的弥补防御的短板,这些将成为组织面对的新目标。此时大家注意到大数据这颗冉冉上升的新星,就把希望寄托在这上面。不可否认,数据驱动确实是新时期安全建设的一个关键因素,但我们也需要认识到,这种从单纯防御向防御、检测、响应、预防全周期转变的过程,涉及到数据、工具和使用工具的人三方面的提升,是个相对复杂的系统工程。必须理清几方面的问题:

  • 要监控的关键威胁是什么?
  • 涉及的分析方法有哪些、这些分析方法又需要哪些数据?
  • 需要什么样的平台系统来支持分析工作,平台选择的关键能力指标有哪些?
  • 现有技术能力下建立起的平台,适合怎样的人来使用,是否已经具备这样的人员,是否能够·购买相应的安全服务?
  • 采集数据和人员水平受限情况下,如何选择切实的目标保障有实际的效果?

在实际工作中,对这几方面的认识往往需要一个实践摸索的过程,难以做到一步到位,就如Facebook就在数据平台上有过不断的摸索过程(It’s Time to Stop Using Hadoop for Analytics:https://www.interana.com/blog/stop-using-hadoop-analytics/ )。因此分阶段实施,由易到难也许是一个更好的方式。下面介绍可能涉及到的几个阶段,在实际工作中也许可以多个阶段并行,但应该很难出现跳跃式的发展。

IOC情报阶段

质量优秀的IOC情报(也称失陷主机检测情报)具有及时、全面、精准、具备相关性且提供指导响应活动的上下文这些特点。利用这类情报我们能够尽早地检测内部的失陷主机(无论来自情报机关、网络犯罪团伙或者网络恐怖主义团体),并且基于情报的上下文(攻击团伙、恶意类型、目的、危害等)确定合理的优先级,及时的给予响应处置。

利用这种失陷IOC进行检测发现,对组织的数据采集要求较低(一般就是HTTP 代理日志、DNS日志或者较完整的流量日志);而一旦发现失陷主机,利用情报信息可以较容易的进行优先级排序、响应方案选择等工作(情报的上下文会清楚地告诉安全响应人员,这是一个针对个人用户的网银木马,或者是一个具有定向性质的窃密木马,又或者只是一个黑客用来进行DDoS攻击的僵尸网络),因此它对于大多数组织而言,是一个相对容易而又实实在在的进步。

利用成熟安全分析解决方案

利用IOC情报能力建设阶段,可以在数据积累、安全响应分析方面积累一定的能力,获得相应的经验,再进一步就向前深入,就是利用较好的产品或解决方案来实现一些典型场景下的安全分析工作,这样做的好处是聚焦问题的解决、有机会学习到业界成熟的经验并且免于将自己陷入到工程开发细节的泥潭中。

这里面讲的较好,有两个层次:

  • 内置典型的分析场景:每个场景需要包括怎样发现线索、怎样排查确认、如何确定攻击范围和性质这些基本的步骤,简单的说它就是将资深分析师的工作经验集成到了产品当中,使安全运维人员在产品的引导下可以逐步学习、探索安全分析的世界。
  • 进一步提供基于线索的优先级排序:线索不是真正的攻击事件,线索排查中会有一些对于组织的环境而言是不需要特别注意的,因此如果能基于一定的方式(规则组合、ML、贝叶斯算法)对不同线索出现后,标识出线索聚合的风险程度,这对于分析人员无疑是非常有价值的。可以直接聚焦到高危报警。

这两个层面可以说对应这安全分析的两代产品,第一代中的典型代表是Splunk的企业安全应用,而第二代则是Exabeam这样的UEBA产品(之前介绍UEBA的一篇文章 [浅析UEBA]:http://www.jianshu.com/p/a8b5e1c31f59 )。组织基于自身关注的问题、数据能力以及人员水平,从某几个典型威胁场景出发,选择适合并有强扩展性的产品,就可以进行建立初步的平台了。需考虑的是,解决某些问题的数据源,也许不是短时间就能采集到的,比如内部没有很成熟的出差审批流程和电子流,就难以将差旅信息作为UEBA的一个分析数据源,但成熟的产品会考虑这种情况下如何检测和判定风险级别。

利用运营级威胁情报阶段

安全是一个动态的过程,即使在采购阶段选择了较好的产品,但是针对新的攻击方式我们还是需要建立新的分析场景,同时也包括一些关键威胁暂时没有现成的分析场景可以覆盖,也需要扩展分析场景。这个过程就需要建立从运营级威胁情报(威胁相关的技术、方法、过程的情报)到分析数据以及分析方法的映射。举一个简单的例子:在2014年以前,可能很少有人会考虑分析Powershell日志的情况,并且也是Powershell 5.0才引入了增强日志功能,早期版本没有太多的日志能力。

因此在平台选型阶段,需要考量产品/方案的开放性与可扩展性,同时也需要考虑建立自身的运营级情报收集能力。对比IOC情报,运营层面的威胁情报,现阶段市场上并没有足够成熟的产品生态圈。如何及时获取到有效的运营级情报,如行业分享、国家层面的通报共享或商业来源,是这个阶段的一个重点。而数据和工具方面应该不再成为这个阶段的重要挑战。

自动化阶段

在整个安全分析平台运营过程中,会发现其中很多工作是高度一致的重复劳动,这种工作如何能够自动化进行,就是这个阶段考虑的事情。这里面就包括更智能的事件调查,以及自动化的遏制(个人认为不是清除)。到了这个数据、检测能力、ML能力都比较成熟的阶段,我们也许可以将一个攻击可能的攻击链、影响范围通过自动化方式给出大致的范围,极大缩短分析人员的工作强度。也有可能基于成熟的处置流程,明确地知道哪类事件可以通过自动化配置网络和终端设备,达到自动化遏制的目的。这样可以让安全运营人员从既有的、缺乏挑战的工作中释放出来。这个阶段可以使重要安全事件的响应时间和质量有巨大的提升。

小结

大数据安全分析能力建设是一个分阶段、逐步提升的过程,对于一些有实力的组织可以同时进行多个阶段的建设,但如果想一步到位无疑是不现实的。整个过程最关键的是问题思维:现阶段要解决的问题是什么,深入思考这个问题才能设立合理的阶段性目标。威胁情报作为一条主线贯穿建设过程中,如果说数据是安全分析的基础,那么情报则是它的灵魂。

作者:ZenMind
来源:51CTO

相关文章
|
20天前
|
机器学习/深度学习 分布式计算 算法
Spark快速大数据分析PDF下载读书分享推荐
《Spark快速大数据分析》适合初学者,聚焦Spark实用技巧,同时深入核心概念。作者团队来自Databricks,书中详述Spark 3.0新特性,结合机器学习展示大数据分析。Spark是大数据分析的首选工具,本书助你驾驭这一利器。[PDF下载链接][1]。 ![Spark Book Cover][2] [1]: https://zhangfeidezhu.com/?p=345 [2]: https://i-blog.csdnimg.cn/direct/6b851489ad1944548602766ea9d62136.png#pic_center
53 1
Spark快速大数据分析PDF下载读书分享推荐
|
5天前
|
机器学习/深度学习 算法 搜索推荐
从理论到实践,Python算法复杂度分析一站式教程,助你轻松驾驭大数据挑战!
【7月更文挑战第22天】在大数据领域,Python算法效率至关重要。本文深入解析时间与空间复杂度,用大O表示法衡量执行时间和存储需求。通过冒泡排序(O(n^2)时间,O(1)空间)与快速排序(平均O(n log n)时间,O(log n)空间)实例,展示Python代码实现与复杂度分析。策略包括算法适配、分治法应用及空间换取时间优化。掌握这些,可提升大数据处理能力,持续学习实践是关键。
17 1
|
18天前
|
数据采集 自然语言处理 大数据
​「Python大数据」LDA主题分析模型
使用Python进行文本聚类,流程包括读取VOC数据、jieba分词、去除停用词,应用LDA模型(n_components=5)进行主题分析,并通过pyLDAvis生成可视化HTML。关键代码涉及数据预处理、CountVectorizer、LatentDirichletAllocation以及HTML文件的本地化处理。停用词和业务术语列表用于优化分词效果。
17 0
​「Python大数据」LDA主题分析模型
|
23天前
|
人工智能 自然语言处理 小程序
政务VR导航:跨界融合AI人工智能与大数据分析,打造全方位智能政务服务
政务大厅引入智能导航系统,解决寻路难、指引不足及咨询台压力大的问题。VR导视与AI助手提供在线预览、VR路线指引、智能客服和小程序服务,提高办事效率,减轻咨询台工作,优化群众体验,塑造智慧政务形象。通过线上线下结合,实现政务服务的高效便民。
69 0
政务VR导航:跨界融合AI人工智能与大数据分析,打造全方位智能政务服务
|
1月前
|
存储 数据采集 分布式计算
Java中的大数据处理与分析架构
Java中的大数据处理与分析架构
|
19天前
|
存储 分布式计算 并行计算
使用Hadoop构建Java大数据分析平台
使用Hadoop构建Java大数据分析平台
|
25天前
|
分布式计算 Java 大数据
实战:基于Java的大数据处理与分析平台
实战:基于Java的大数据处理与分析平台
|
25天前
|
运维 监控 Java
在大数据场景下,Elasticsearch作为分布式搜索与分析引擎,因其扩展性和易用性成为全文检索首选。
【7月更文挑战第1天】在大数据场景下,Elasticsearch作为分布式搜索与分析引擎,因其扩展性和易用性成为全文检索首选。本文讲解如何在Java中集成Elasticsearch,包括安装配置、使用RestHighLevelClient连接、创建索引和文档操作,以及全文检索查询。此外,还涉及高级查询、性能优化和故障排查,帮助开发者高效处理非结构化数据。
31 0
|
26天前
|
机器学习/深度学习 分布式计算 搜索推荐
运用大数据分析提升返利App的市场营销效果
运用大数据分析提升返利App的市场营销效果
|
1月前
|
消息中间件 存储 大数据
深度分析:Apache Kafka及其在大数据处理中的应用
Apache Kafka是高吞吐、低延迟的分布式流处理平台,常用于实时数据流、日志收集和事件驱动架构。与RabbitMQ(吞吐量有限)、Pulsar(多租户支持但生态系统小)和Amazon Kinesis(托管服务,成本高)对比,Kafka在高吞吐和持久化上有优势。适用场景包括实时处理、数据集成、日志收集和消息传递。选型需考虑吞吐延迟、持久化、协议支持等因素,使用时注意资源配置、数据管理、监控及安全性。