Pivotal大数据套件通过内存计算实现实时加速

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

融合了大数据、PaaS和敏捷开发的Pivotal公司今天发布Pivotal GemFire 8的主要功能。Pivotal大数据套件包括了新版的Pivotal GemFire(一个分布式的、面向企业级的内存计算解决方案,可以构建大规模弹性的应用)。此次发布推进了Pivotal的使命——让当代的软件开发者方便地集成数据,创建新型的企业级应用。

在今天的商业环境下,公司正投资于有战略意义的定制应用,以提供竞争差异化竞争优势和新的收入机会。这些应用必须具有性能、伸缩性和全球覆盖,而且要随时在线。应用开发者和IT架构师通常要应对全球级别的伸缩性、数TB的运营数据,以便满足最高的服务级别要求,交付这些关键业务应用。然而,他们受阻于过时的缓存技术、内存网格和传统数据库。

Pivotal大数据套件可以提供很高的性能、极致的横向扩展并发,以及针对全局分布式集群和节点的数据管理与存取一致性。Pivotal GemFire 8独特的横向扩展架构避免了传统数据库的扩展限制,可以横向扩展至很多节点和集群。对于数千并发读写请求,高达数TB的内存中数据,这一技术依然提供了低延迟响应。

随着新版Pivotal大数据套件和Pivotal GemFire 8的发布,应用程序的运行规模和弹性比以往任何时候都要大。它有以下特性:

  • 内存中压缩:速度优化的内存中压缩,让单个节点可以管理的数据量比以往增加多达50%。
  • 自动弹性伸缩和滚动升级:自动化的节点重连和数据恢复,以及在一个集群中的不同节点依次地升级软件的新能力,让集群保持持续运转,消除了升级需要的计划停机需求。
  • 新的RESTful  API开发者可以对大量的大规模应用(例如在Ruby、Scala或Node.js语言开发的应用)提高性能和弹性。

Pivotal大数据套件现在可以对新老客户供货,定价非常激进,可以按照CPU内核数量付费、以二到三年为期,需要一个起步合同价。

支持引言

SuneetiGoel,首席项目工程师,铁路信息系统中心

“CRIS采用Pivotal GemFire支持高并发事务,在新发布的印度铁路新一代电子票系统中用于预订和售票。GemFire的可扩展性和弹性功能帮助我们提高了服务的能力和可用性。”

John Myers,研究部主任,企业管理协会

 “企业管理协会研究部看到,内存计算技术在数据管理平台的兴起,跟无处不在的MPP技术一起,开始侵蚀运营系统和企业数据仓库之间的边界,并将这些系统推向更实时的方法。内存数据库已经在金融和国防市场实现了实时的应用。现在,内存计算解决方案正在成为传统企业的实时执行层,而这些公司寻求大数据创新。Pivotal GemFire 8作为Pivotal大数据套件的一部分,是这场运动的一个范例。”

Hugh Williams,研发部高级副总裁, Pivotal

“Pivotal GemFire 8的发布,是Pivotal大数据套件在极大规模上、处理和交易高速数据方面的一个重要进步。更大的数据容量,更大的弹性,新的REST API,将帮助客户构建更加创新的、数据驱动的应用,对其业务具有战略意义。”

原文发布时间为:2014年09月26日
本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
1月前
|
分布式计算 大数据 Java
大数据-87 Spark 集群 案例学习 Spark Scala 案例 手写计算圆周率、计算共同好友
大数据-87 Spark 集群 案例学习 Spark Scala 案例 手写计算圆周率、计算共同好友
49 5
|
1月前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
48 3
|
1月前
|
存储 分布式计算 算法
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
58 0
|
4月前
|
存储 安全 数据库
阿里云服务器计算型、通用型、内存型主要实例规格性能特点和适用场景汇总
阿里云服务器ECS计算型、通用型、内存型规格族属于独享型云服务器,在高负载不会出现计算资源争夺现象,因为每一个vCPU都对应一个Intel ® Xeon ®处理器核心的超线程,具有性能稳定且资源独享的特点。本文为大家整理汇总了阿里云服务器ECS计算型、通用型、内存型主要实例规格族具体实例规格有哪些,各个实例规格的性能特点和主要适用场景。
阿里云服务器计算型、通用型、内存型主要实例规格性能特点和适用场景汇总
|
12天前
|
分布式计算 Java MaxCompute
ODPS MR节点跑graph连通分量计算代码报错java heap space如何解决
任务启动命令:jar -resources odps-graph-connect-family-2.0-SNAPSHOT.jar -classpath ./odps-graph-connect-family-2.0-SNAPSHOT.jar ConnectFamily 若是设置参数该如何设置
|
5月前
|
弹性计算 安全 前端开发
阿里云服务器ECS通用型、计算型和内存型详细介绍和性能参数表
阿里云ECS实例有计算型(c)、通用型(g)和内存型(r)三种,主要区别在于CPU和内存比例。计算型CPU内存比1:2,如2核4G;通用型为1:4,如2核8G;内存型为1:8,如2核16G。随着技术迭代,有第五代至第八代产品,如c7、g5、r8a等。每代实例在CPU型号和主频上相同,但性能有所提升。实例性能参数包括网络带宽、收发包能力、连接数等。具体应用场景如计算型适合高网络包收发、通用型适合企业级应用,内存型适合内存数据库等。详细信息可参阅阿里云ECS页面。
328 0
|
2月前
|
人工智能 分布式计算 大数据
超级计算与大数据:推动科学研究的发展
【9月更文挑战第30天】在信息时代,超级计算和大数据技术正成为推动科学研究的关键力量。超级计算凭借强大的计算能力,在尖端科研、国防军工等领域发挥重要作用;大数据技术则提供高效的数据处理工具,促进跨学科合作与创新。两者融合不仅提升了数据处理效率,还推动了人工智能、生物科学等领域的快速发展。未来,随着技术进步和跨学科合作的加深,超级计算与大数据将在科学研究中扮演更加重要的角色。
|
4月前
|
存储 缓存 安全
阿里云服务器实例规格选择参考:经济型、通用算力型、计算型、通用型、内存型区别
当我们在通过阿里云的各种活动选择云服务器实例规格的时候会发现,相同配置的云服务器往往有多个不同的实例可选,而且价格差别也比较大,这会是因为不同实例规格的由于采用的处理器不同,底层架构也有所不同(例如X86 计算架构与Arm 计算架构),因此不同实例的云服务器其性能与适用场景是有所不同。目前阿里云的活动中,主要的实例规格可分为经济型、通用算力型、计算型、通用型、内存型,对于很多初次接触阿里云服务器的用户来说,了解他们之间的差别就是比较重要的了,下面小编来为大家简单介绍下它们之间的区别。
阿里云服务器实例规格选择参考:经济型、通用算力型、计算型、通用型、内存型区别
|
3月前
|
SQL 分布式计算 大数据
"大数据计算难题揭秘:MaxCompute中hash join内存超限,究竟该如何破解?"
【8月更文挑战第20天】在大数据处理领域,阿里云的MaxCompute以高效稳定著称,但复杂的hash join操作常导致内存超限。本文通过一个实例解析此问题:数据分析师小王需对两个共计300GB的大表进行join,却遭遇内存不足。经分析发现,单个mapper任务内存默认为2GB,不足以支持大型hash表的构建。为此,提出三种解决方案:1) 提升mapper任务内存;2) 利用map join优化小表连接;3) 实施分而治之策略,将大表分割后逐一处理再合并结果。这些方法有助于提升大数据处理效率及稳定性。
81 0
|
4月前
|
分布式计算 DataWorks Java
DataWorks操作报错合集之使用ODPS Tunnel Upload功能时,遇到报错:Java 堆内存不足,该如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。