干货丨5个问题鉴定大数据安全分析真伪!

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
数据安全中心,免费版
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介:

我们先解释一个名词,大数据安全分析。

这种安全并不是保护数据本身的安全,而是用大数据技术进行安全分析。

当前网络与信息安全领域,正在面临着多种挑战。一方面,企业和组织安全体系架构的日趋复杂,各种类型的安全数据越来越多,传统的分析能力明显力不从心;另一方面,新型威胁的兴起,内控与合规的深入,传统的分析方法存在诸多缺陷,越来越需要分析更多的安全信息、并且要更加快速的做出判定和响应。信息安全也面临大数据带来的挑战。

干货丨5个问题鉴定大数据安全分析真伪!

如何鉴别所谓的大数据安全分析是真的呢?在摩根大通、美林、英特尔、IBM等公司安全部门供职过的Ron Bennatan给了5个鉴别方法。

大数据安全分析应运而生。在今天的安全分析行业,大数据是一个热门词汇,但很多客户还是持怀疑态度。因为很多公司花了数十年的时间建“数据湖”后才发现不能通过“泄湖”得到一些有用的东西。

今天的解决方案通常包括昂贵的集群加上静态的商业智能报告以及看上去不错、但实际作用不大的可视化仪表盘。

着眼于分析和如何应用有价值的数据来得到实时决策、发现关键模式、决定持续性的和不断变化的安全政策,大幅提高安全性,这才是有用的。

看看谷歌、亚马逊、Netflix这样的公司就能认识到,通过对具有3v(velocity, variety and volume)的数据集进行实时挖掘,大数据可以成为商业成功的推动者。这些公司使用大数据预测分析,来识别出你想要买或者看些什么,这才是真正有用的安全分析模型。

如果遇到有供应商告诉你他们会提供大数据安全技术,这里有5个测试,来帮助你确定他们是不是真的使用了大数据技术。

1、你的大数据解决方案只针对“3v”数据吗?

如果只是解决处理速度、数据类型和数据量的问题,那么大数据系统可能比SIEM(安全信息和事件管理)更高效,但它会是大数据存储的陷阱。你的供应商需要与你讨论贝叶斯理论,回归、分类算法、维度问题,来确保大数据是真正可操作,可预测的。

2、当你问“安全分析”是什么意思的时候你会得到什么答案?

如果你听到相关性、仪表板、查询和alerts,注意,这些都是老的词汇。 你需要听到机器学习库、多维数据集、余弦矩阵等。一切都是基于大数定律/异常值——这种技术要利用大量的数据和大量的历史来自动建造东西(不断更精确),而不是一个人需要盯着静态聚合数据或手动定义明确的安全策略。

3、你的安全分析系统关闭了反馈回路吗?

分析不是报告,分析只能帮助你做出决定。安全分析不是“事后”,他们利用历史信息来改善。例如查找分析、,修改您的实时监测、告诉你排除、关注、而不只是给你发送警报。当谈到智能安全分析,增加大量的数据与相应的算法显著提高了分析和决策一直有用的系统。

4、数据集群是否越来越大?

大数据世界有时候很疯狂,可能添加了大量数据和各种复杂维度,但得到的却很少,你今天赚到了钱不代表你明天也会赚钱,而且既然我们的目标要从许多时间和来源汇总数据,你还要确保成本和数据是匹配的。一般来说,更多的数据会产生更好的效果,但如果打破一定的边界数据也会变的无用。你应该寻找平台,有效地扩展。寻找那些使用NoSQL的方法、柱状数据域和一个内存中的分布式并行处理架构系统。一个有效的系统不应该要求一个节点几TB的数据 - 的比率必须要高得多。

5、你的数据管理架构面对大量的数据是否灵活?

大数据具有多种层次和许多选项,这将帮助你和一些可以削弱你的复杂性。大数据提供了一个丰富的信息通过支持多种数据类型。大数据经历了许多代非常快,因此,它是重要为你寻找压力简单的现代数据的方法,例如那些将大数据与JSON(JavaScript对象表示法)作为一个灵活的数据格式。

在对大数据的炒作中,这5个简单的测试可以让你针对自己所需要的安全分析选择解决方案。

本文转自d1net(转载)

相关文章
|
1月前
|
存储 大数据 测试技术
用于大数据分析的数据存储格式:Parquet、Avro 和 ORC 的性能和成本影响
在大数据环境中,数据存储格式直接影响查询性能和成本。本文探讨了 Parquet、Avro 和 ORC 三种格式在 Google Cloud Platform (GCP) 上的表现。Parquet 和 ORC 作为列式存储格式,在压缩和读取效率方面表现优异,尤其适合分析工作负载;Avro 则适用于需要快速写入和架构演化的场景。通过对不同查询类型(如 SELECT、过滤、聚合和联接)的基准测试,本文提供了在各种使用案例中选择最优存储格式的建议。研究结果显示,Parquet 和 ORC 在读取密集型任务中更高效,而 Avro 更适合写入密集型任务。正确选择存储格式有助于显著降低成本并提升查询性能。
164 1
用于大数据分析的数据存储格式:Parquet、Avro 和 ORC 的性能和成本影响
|
2月前
|
分布式计算 Hadoop 大数据
Jupyter 在大数据分析中的角色
【8月更文第29天】Jupyter Notebook 提供了一个交互式的开发环境,它不仅适用于 Python 编程语言,还能够支持其他语言,包括 Scala 和 R 等。这种多语言的支持使得 Jupyter 成为大数据分析领域中非常有价值的工具,特别是在与 Apache Spark 和 Hadoop 等大数据框架集成方面。本文将探讨 Jupyter 如何支持这些大数据框架进行高效的数据处理和分析,并提供具体的代码示例。
53 0
|
14天前
|
JSON 数据可视化 数据挖掘
Polars函数合集大全:大数据分析的新利器
Polars函数合集大全:大数据分析的新利器
21 1
|
27天前
|
存储 分布式计算 Hadoop
大数据分析的工具
大数据是一个含义广泛的术语,是指数据集,如此庞大而复杂的,他们需要专门设计的硬件和软件工具进行处理。该数据集通常是万亿或EB的大小。这些数据集收集自各种各样的来源:传感器,气候信息,公开的信息,如杂志,报纸,文章。大数据产生的其他例子包括购买交易记录,网络日志,病历,军事监控,视频和图像档案,及大型电子商务。
30 8
|
1月前
|
存储 大数据 数据挖掘
【数据新纪元】Apache Doris:重塑实时分析性能,解锁大数据处理新速度,引爆数据价值潜能!
【9月更文挑战第5天】Apache Doris以其卓越的性能、灵活的架构和高效的数据处理能力,正在重塑实时分析的性能极限,解锁大数据处理的新速度,引爆数据价值的无限潜能。在未来的发展中,我们有理由相信Apache Doris将继续引领数据处理的潮流,为企业提供更快速、更准确、更智能的数据洞察和决策支持。让我们携手并进,共同探索数据新纪元的无限可能!
90 11
|
2月前
|
分布式计算 数据可视化 大数据
Vaex :突破pandas,快速分析100GB大数据集
Vaex :突破pandas,快速分析100GB大数据集
|
2月前
|
大数据 机器人 数据挖掘
这个云ETL工具配合Python轻松实现大数据集分析,附案例
这个云ETL工具配合Python轻松实现大数据集分析,附案例
|
2月前
|
数据采集 人工智能 安全
AI大数据处理与分析实战--体育问卷分析
本文是关于使用AI进行大数据处理与分析的实战案例,详细记录了对深圳市义务教育阶段学校“每天一节体育课”网络问卷的分析过程,包括数据概览、交互Prompt、代码处理、年级和学校维度的深入分析,以及通过AI工具辅助得出的分析结果和结论。
|
2月前
|
消息中间件 前端开发 安全
第三方数据平台技术选型分析
这篇文章分析了第三方数据平台的技术选型,涵盖了移动统计平台、自助分析平台和BI平台的不同代表厂商,讨论了它们的数据源、使用要求和适用场景。
51 2
|
2月前
|
存储 分布式计算 数据处理
MaxCompute 的成本效益分析与优化策略
【8月更文第31天】随着云计算技术的发展,越来越多的企业选择将数据处理和分析任务迁移到云端。阿里云的 MaxCompute 是一款专为海量数据设计的大规模数据仓库平台,它不仅提供了强大的数据处理能力,还简化了数据管理的工作流程。然而,在享受这些便利的同时,企业也需要考虑如何有效地控制成本,确保资源得到最优利用。本文将探讨如何评估 MaxCompute 的使用成本,并提出一些优化策略以降低费用,提高资源利用率。
74 0

热门文章

最新文章