
点击 申请云原生版试用资格ClickHouse 介绍ClickHouse 是一款当前非常流行的开源在线分析型数据库。ClickHouse 主要应用于实时数仓构建、大数据加速分析、宽表日志分析等通用场景,服务于流量漏斗分析,用户行为分析,人群圈选,用户画像,广告投放人群评估、ABTest 、大促分析,CDP/DMP 等业务场景,在电商平台,新零售、游戏、广告、社交应用,在线旅游,本地生活,交通物流等行业都有广泛典型的应用案例,国内大厂阿里,字节,腾讯,快手,携程,京东,小红书等都有大规模的业务使用。ClickHouse 开源关注度增长非常迅速,在 DBEngine 网站公布的2021年RDBMS 产品类目产品关注度排行榜上,ClickHouse 年度关注度排名提升30名,整体排名28位。 以下是当前在线分析数据库/实时数仓领域的几款高热度产品的流行关注度趋势,ClickHouse 和 Greenplum 为开源产品,其他几款为闭源商业产品。ClickHouse 之所以得到这么高的关注度,个人认为两个核心的因素决定: 一是市场驱动。当前企业客户整体业务数量规模增大,而业务实时分析决策的需求明显,触发了对在线分析型数据库/实时数仓的需求增强;二是产品选型,流量和用户的竞争激烈的大环境下,促使业务行为和决策更有时效性,从而提高留存率和转化,因此对数据分析引擎的性能响应要求越来越高。同时业务分析维度增多,分析数据来源多,分析数据规模膨胀,对成本控制的需求也非常明显。ClickHouse 基于列式存储,向量化执行引擎和SIMD(单指令多数据流),稀疏索引,分布式计算,多核并行等核心技术以及优秀的工程实现,实现了高压缩比数据存储,高效的数据写入吞吐和亿级记录95%查询秒级返回的优异性能。社区官网公布的性能测试结果显示。ClickHouse 相比 MySQL 在分析性能上有500倍以上的提升,相较于 Greenplum 等分析引擎在聚合分析场景也有 20倍以上的性能提升。(PS:想了解更多 ClickHouse 的原理和架构以及开发实践,可以看往期我们在阿里云开发者社区陆续发布的ClickHouse 内核解析系列文章。ClickHouse 内核解析和开发实践文档系列。)自建ClickHouse 使用问题我们可以看到 ClickHouse 凭借其卓越优异的性得到广大开发者关注,并在头部的互联网企业得到了比较多的应用。但实际上从我们调研了解到,企业自建ClickHouse 在非超大型企业里生产环境普遍没有大规模使用,觉得大多数情况是在小规模创新型业务场景验证,或者还在调研测试阶段。这种情况归结起来主要是以下三类主要原因造成。内核稳定性问题 ClickHouse 社区迭代的非常快,版本迭代可以保持每个月一个二级版本发布,多个版本同时迭代,新版本的发布除了新feature的发布以外,通常包含大量的 bugfix ,同时这两类的功能更新也会带来大量新的bug ,导致生产环境高频的遇到功能性的bug ,而社区版本bug修复的时间又不可预期, 存在稳定性隐患,因此用户在生产环境不会轻易进行大规模的应用。缺乏实践经验ClickHouse 提供了非常丰富的表引擎类型。支持数据链路类的引擎如: Kafka 引擎,HDFS 外表擎。也有不同的主键聚合逻辑的引擎,支持不同的业务场景如支持主键替换的 ReplacingMergeTree,支持基于主键字段求和的 SummingMergeTree,支持自定义函数聚合的 AggregatingMergeTree 等等。 这些引擎功能丰富的同时,也增加了使用的复杂度,需要根据业务需求来选型引擎。同时ClickHose 具有一些隐含的异步操作,在数据实时性和一致性有要求时需要通过特定的强制合并逻辑和定时处理来实现实时性和一致性的要求。这些经验在社区沉淀的较少,高水平的专家实践指导优化资料比较少,那么导致缺失实践经验,自建开发成本高和业务落地周期长。运维成本ClickHouse 开源版运维支撑比较弱。遇到稳定性的问题,需要有专业的团队进行内核bug 的修复, 其次ClickHouse 作为数仓类产品需要和上下游的各个数据链路进行打通,开源版只提供基础的数据链路对接能力,链路稳定性维护的成本也随之增加,而组建独立ClickHouse 开发运维团队成本非常高。特别要提到的是 ClickHouse 扩容问题。ClickHouse 分布式模式是基于shard 分片,如下图所示,单个shard节点包含计算资源和存储资源,计算资源和存储资源耦合绑定在同一个shard节点。水平扩展会遇到两个问题: 如果遇到某个shard 节点的磁盘打满或者计算资源不足的时候,需要通过增加计算节点,分担数据存储和计算负载。基于开源版本架构设计,需要单独进行计算扩容或者存储扩容时,因为存储和计算的耦合,那么必须计算资源和磁盘存储一起扩容,而这样就会造成一定程度资源浪费,资源利用率降低。另外一个问题是,进行水平扩容后,由于增加了shard 节点,为了保持资源查询负载的均衡,那么需要将原有的shard节点的数据按在扩容后在所有的shard 节点上进行 Rebalance 。 Rebalance的过程需要进行历史数据进行迁移和重新写入,数据量大的情况下迁移周期长,影响正常业务数据写入,业务侵入性太高。以上三方面的问题会导致不具备大规模运维系统构建和内核修复能力的企业来说,使用自建 ClickHouse的ROI 将会非常低。云数据库ClickHouse 社区兼容版架构图阿里云数据库ClickHouse 云原生版本阿里云数据库 ClickHouse 云原生版是在开源内核版本基础上,基于云的基础设施进行架构和能力升级。集成云企业级运维能力,增强易用性,降低运维成本;并进行资源解耦,提供更细粒度的资源使用控制,并提高资源的利用率和弹性效率,实现实时企业分析场景的降本增效,提高决策效率和业务收益。云原生版运维能力云原生版提供全面运维能力,满足企业客户 ClickHouse 运维需求,部分能力如下:PAAS级服务,免部署轻运维,开箱即用。企业级数据链路对接。包含离线的 OSS,ODPS ,HDFS ,HIVE ,MaxCompute 以及实时的MySQL,Kafka ,Flink 数据源对接。生产级MaterializedMySQL ,增强支持表级实时数据同步,增强容错处理和数据一致性保证。支持 DataWorks ,Spark ,SeaTunnel ,DataX 等企业级和开源数据集成和调度平台。数据安全性全面提升,支持存储加密,HTTS/SSL 存储加密,数据备份恢复。监控告警体系支持,提供资源层和数据库引擎层的监控告警和慢SQL的监控处理企业级资源管理能力,支持实时升降配和扩容,支持Terraform 等。内核稳定性支持,bug 发现后及时修复,保证稳定性。专家服务支持,给予稳定性保障和最佳实践的支持云原生版优势特性云原生版本进一步实现资源解耦,实现存储计算资源解耦,提高性价比和弹性效率。具体特性如下【存算分离】云原生版本采用存储计算解耦架构,可以根据生产需求独立进行计算或者存储计算的扩缩容,资源管控粒度更细,整体成本更加可控。【缓存加速+共享存储】计算层加入ESSD缓存层,缓存层加速写入和查询,根据业务负载需求可弹性扩展缓存层,保证实时查询效率。持久化数据存储使用更低成本的存储介质,按照30%的缓存和持久化存储配比,整体缓存+持久化存储成本下降60%。【存储使用】持久化存储使用低成本存储介质,按小时统计实际使用量,无需容量规划,存储资源使用率达到100%,更具性价比。【计算资源池化】云原生版本计算资源采用计算组资源服务化模式,直接根据需求选择计算组规格,无需关心计算组内部节点规格和节点数量,依据业务需要进行资源扩缩容,更简单。【高效弹性】云原生版本采用 ShareDisk 模式,计算资源扩容无持久化数据迁移过程,扩容稳定性提升,扩容效率提升10倍以上。云原生版的实例购买和使用方式第一步:选择计算资源,含内存和CPU资源。云原生版对计算资源进行的封装,用户无需选择节点规格和节点数量,只需选择整体依赖的计算资源即可。第二步:选择缓存资源。缓存加速写入和查询,根据写入量和查询性能表现选择,实例创建后可以根据性能调节缓存大小。第三步:进行数据写入和访问。存储资源无需提前购买,按需使用,根据实际数据写入量动态计量。云原生版实例购买模式示例云原生版本的几个疑问在云原生推出的过程中,收集到几个客户关心的问题,分享给大家。问题1 :云原生版本缓存和社区兼容版冷热分层的热数据层有什么区别?答: 云原生版本和社区兼容版冷热数据分层都有数据分层逻辑。区别在于云原生版本的持久化层数据为全量数据, 缓存为部分数据,按照实际查询结果自动选择缓存数据。而冷热分层及多盘是预设存储分层,根据用户根据业务规则预先将数据划分为冷数据和热数据,冷热数据都是非全量数据,业务定义为冷数据的存储在冷数据层,不会根据查询热度自动转变为热数据,冷热数据转换需要修改数据定义规则或者手工搬运分区数据。问题2:ClickHouse 使用大数据量的低成本的存储 ,能做到实时分析吗?答:云原生版本增加了缓存层,使用ESSD盘作缓存。 数据写入过程先写入到缓存层,保证写入效率,而后写入到全量的数据持久层存储。查询依赖数据也会缓存到缓存层,提高查询速度。缓存层根据特定的算法进行数据有效性控制和淘汰的机制。缓存层资源可以基于资源使用率监控和查询效率进行手动的扩缩容操作,整体保证查询效率。云原生版本未来的演进计划阿里云数据库ClickHouse 云原生的版本后续的产品将朝着提高资源利用率,提高性能,智能运维三个指标方向进行迭代。一是全面 Serverless ,实现无需进行计算资源的预设 ,根据负载实时进行动态资源的调整,充分提高资源利用率。二是进一步资源解耦,精细化资源使用粒度,资源配比的动态调整,实现不同业务场景对不同计算资源维度的差异化需求。 三是自动化智能运维,逐步从人工定位问题到自动巡检,人工优化到自动报告建议,部分实现智自动诊断和自优化,提高智能诊断优化的问题拦截率和满意度。邀测申请方式 阿里云数据库ClickHouse 云原生已经发布上线,并开启试用申请,欢迎您申请体验。点击 或扫描二维码填写公测表单 等待测试资格审核;收到测试资格审核通过通知后,发放测试代金券,创建实例并测试 试用支持区域:华北2(北京),华东2(上海),华东1(杭州),华南1(深圳)。
信息摘要: 分析型数据库 AnalyticDB for PostgreSQL 推出学习型小规格,低成本快速体验企实时数据仓库适用客户: 金融/新零售/数字政务/互联网金融/电子商务/版本/规格功能: AnalyticDB for PostgreSQL 兼容开源 Greenplum ,由阿里云深度扩展,兼容ANSI SQL 2003,兼容PostgreSQL/Oracle数据库生态,支持行存储和列存储模式。既提供高性能离线数据处理,也支持高并发在线分析查询,是各行业有竞争力的PB级实时数据仓库方案。 新发布存储密集型小规格实例采用本地 SDD 存储介质,提供160G有效存储空间,单节点 1core8GB,单实例集群 2个segment 节点 ,助力企业以低成本体验实时数仓服务。 新零售和电商企业可以将平台用户线上、线下各渠道的行为数据清洗沉淀到AnalyticDB for PostgreSQL,通过数仓提供在线客户标签和用户群体分析能力,圈选目标客户,进行针对性的广告投放和营销活动。 对于中小型互联网企业通过AnalyticDB for PostgreSQL 的混合事务分析(HTAP)能力构建混合事务分析型系统,实现单个数据库系统既可以满足在线业务数据处理又可以满足实时数分析需求。 首购首月1元体验活动,欢迎体验 https://promotion.aliyun.com/ntms/act/adbrdsdatawarnhouseshangyehua.html?wh_ttid=pc<br/><strong>产品文档: </strong>https://help.aliyun.com/document_detail/35387.html?spm=a2c4g.11186623.6.543.72d53de8O2IfTG<br/>
信息摘要: 分析型数据库 PostgreSQL6.0 商业化,新一代在线数据仓库服务,事务处理速度提升60倍适用客户: 金融/新零售/数字政务/互联网金融/电子商务/版本/规格功能: AnalyticDB PostgreSQL 6.0 产品性能和功能大幅提升。 首先 6.0 版本提升了在混合事务分析( HTAP)场景的服务性能,在线事务事务处理能力大幅提升,短查询性能相比较线上4.3版提高 70倍;同时 6.0 加强了对于半结构化数据类型的支持能力,支持存储,搜索、分析和查询半结构化文件,支持 JSONb和HSTORE Data Types 类型,大大拓展了大数据分析的业务应用领域和场景;另外 6.0 版本针对关联查询场景也提供了复制表功能,实现维度小表与本地数据表实时关联查询,避免数据在集群内迁移,分析性能达到进一步优化提升,是企业构建企业实时数仓的最佳解决方案! 架构案例:https://promotion.aliyun.com/ntms/act/adbrdsdatawarnhouseshangyehua.html?wh_ttid=pc技术深度解析:https://yq.aliyun.com/articles/741094产品文档: https://help.aliyun.com/document_detail/146972.html?spm=a2c4g.11174283.6.542.1b667dafrvoXQf
12月10日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会联合主办的《2019数据资产管理大会》在北京召开。大会汇集了国内外知名机构的数据资产管理领军专家,对政务、工业、金融等领域的数据资产管理问题展开深入探讨,并对中国信通院第九批大数据产品能力评测结果进行了公布和证书颁发。 其中阿里云分析型数据库产品 AnalyticDB for PostgreSQL 获得了分析型数据库基础能力和性能双料认证。尤其在大规模性能认证方面,本次评测采用了全球最大规模的 TPC-DS 100TB 测试标准,阿里云 AnalyticDB for PostgreSQL 完成了 640 节点的分布式分析型数据库性能测试,是迄今为止通过信通院评测认证的最大规模分布式分析型数据库集群,综合评测结果遥遥领先。 阿里云 AnalyticDB for PostgreSQL 是采用MPP架构的分布式集群数据库,完备支持SQL 2003,高度兼容Oracle语法,支持PL/SQL存储过程,触发器,支持标准数据库事务ACID。ADB PG通过行存储、列存储、多种分区表和索引等机制,可以支持海量数据的在线交付分析,也支持ETL批处理任务。相比较传统大数据产品AnalyticDB for PostgreSQL 具有开发简单,成本低,数据实时性高的突出优点。 目前 AnalyticDB for PostgreSQL 正在进行 6.0 新版本的公测,6.0 版本大幅提升并发事务处理能力,更好的满足实时数仓场景,同时通过事务锁等优化,完备支持HTAP业务,在既有JSON类型上,支持JSONB存储格式,实现高性能的JSON数据处理及更丰富的JSON函数等特性。 AnalyticDB for PostgreSQL 广泛应用于企业实时数仓构建,如电商&新零售大数据运营支撑平台,用户将平台业务线上、线下各渠道的行为数据清洗沉淀到实时数仓,通过数仓提供在线客户标签和用户群体分析能力,圈选目标客户,进行针对性的广告投放和营销活动。 想要了解更多 AnalyticDB for PostgreSQL 产品内容请 点击产品详情页面
信息摘要: 分析型数据库(PostgreSQL版)正式推出 Greenplum 6.0 兼容版。 免费公测中,邀您体验!适用客户: 互联网/游戏/政务/开发者 / 大型零售连锁商超 / 金融保险行业 / 考试认证的机构/版本/规格功能: 分析型数据库 AnalyticDB for PostgreSQL 6.0 公测发布,兼容 Greenplum 6.0 版。大幅提升并发事务处理能力,更好的满足实时数仓场景,同时通过事务锁等优化,完备支持HTAP业务,事务处理能力提升70倍,核心新特性包括: JSONB类型:在既有JSON类型上,支持JSONB存储格式,实现高性能的JSON数据处理及更丰富的JSON函数。UUID类型:支持 UUID 数据类型。GIN索引和SP-GiST索引:可以更高性能支持模糊匹配,以及中文检索。细粒度权限控制:支持了 schema 级别,以及 column 列级别权限控制和授权。高效Vacuum:Vacuum在做空间释放时,可以暂时跳过被加锁的页面,而稍后再次轮询访问对其Vacuum,从而整体减少被阻塞的状况。DBLink:支持跨库的查询访问。Recursive CTE:实现SQL的递归查询功能,用于处理逻辑上为层次化或树状结构的数据,方便对该类数据进行多级递归查询。PL/SQL 增强:支持RETURN QUERY EXECUTE语句,可以动态即刻执行SQL;支持 Anonymous blocks 匿名块定义。 OLAP 新功能特性支持复制表(replicated table):针对数仓中的维度表,通过建立复制表(DISTRIBUTED REPLICATED clause),可以大量减少数据传输,提升查询效率。支持zstandard压缩算法:ZSTD压缩算法,较之前 zlib 压缩算法,提升三倍的压缩和解压性能。 HTAP (OLAP+OLTP)能力提升通过引入全局死锁检查机制 (global deadlock detection),会动态的收集和分析锁的信息来检查和解除全局死锁。基于此,HEAP表的更新修改操作可以只借助细粒度行锁完成,支持大并发的更改删除查询,提高整个系统的并发度和吞吐量。同时还对事务锁进行了优化,减少了开始事务和结束事务时的锁竞争。ADB PG 6.0在既有高性能 OLAP分析基础上,也可以提供高吞吐交易事务处理。典型 OLTP 场景 TPC-C 达到 10w tpmc;Sysbench 支持 select 15w tps, insert 5w tps,update 2w tps。产品文档: https://yq.aliyun.com/articles/720538
信息摘要: 分析型数据库(PostgreSQL版)正式推出 Greenplum 6.0。 免费公测中,邀您体验!适用客户: 互联网/游戏/政务/开发者 / 大型零售连锁商超 / 金融保险行业 / 考试认证的机构/版本/规格功能: 分析型数据库 AnalyticDB for PostgreSQL 6.0 公测发布,基于 Greenplum 6.0内核。大幅提升并发事务处理能力,更好的满足实时数仓场景,同时通过事务锁等优化,完备支持HTAP业务,事务处理能力提升70倍,核心新特性包括: JSONB类型:在既有JSON类型上,支持JSONB存储格式,实现高性能的JSON数据处理及更丰富的JSON函数。UUID类型:支持 UUID 数据类型。GIN索引和SP-GiST索引:可以更高性能支持模糊匹配,以及中文检索。细粒度权限控制:支持了 schema 级别,以及 column 列级别权限控制和授权。高效Vacuum:Vacuum在做空间释放时,可以暂时跳过被加锁的页面,而稍后再次轮询访问对其Vacuum,从而整体减少被阻塞的状况。DBLink:支持跨库的查询访问。Recursive CTE:实现SQL的递归查询功能,用于处理逻辑上为层次化或树状结构的数据,方便对该类数据进行多级递归查询。PL/SQL 增强:支持RETURN QUERY EXECUTE语句,可以动态即刻执行SQL;支持 Anonymous blocks 匿名块定义。 OLAP 新功能特性支持复制表(replicated table):针对数仓中的维度表,通过建立复制表(DISTRIBUTED REPLICATED clause),可以大量减少数据传输,提升查询效率。支持zstandard压缩算法:ZSTD压缩算法,较之前 zlib 压缩算法,提升三倍的压缩和解压性能。 HTAP (OLAP+OLTP)能力提升通过引入全局死锁检查机制 (global deadlock detection),会动态的收集和分析锁的信息来检查和解除全局死锁。基于此,HEAP表的更新修改操作可以只借助细粒度行锁完成,支持大并发的更改删除查询,提高整个系统的并发度和吞吐量。同时还对事务锁进行了优化,减少了开始事务和结束事务时的锁竞争。ADB PG 6.0在既有高性能 OLAP分析基础上,也可以提供高吞吐交易事务处理。典型 OLTP 场景 TPC-C 达到 10w tpmc;Sysbench 支持 select 15w tps, insert 5w tps,update 2w tps。产品文档: https://yq.aliyun.com/articles/720538
信息摘要: MPP架构实时大数据平台,云数据库 ADB for PostgreSQL 6.0 限时免费公测,邀您体验!适用客户: 互联网/游戏/政务/开发者 / 大型零售连锁商超 / 金融保险行业 / 考试认证的机构/版本/规格功能: 云数据库 ADB for PostgreSQL 6.0 正式发布,基于 Greenplum 最新6.0内核。ADB PG 6.0 版本大幅提升并发事务处理能力,更好的满足实时数仓场景,同时通过事务锁等优化,完备支持HTAP业务,事务处理能力提升70倍。ADB PG 6.0的内核从PostgreSQL 8.2升级到9.4,更好的兼容PostgreSQL社区生态。大量PostgreSQL新特性包括: JSONB类型:在既有JSON类型上,支持JSONB存储格式,实现高性能的JSON数据处理及更丰富的JSON函数。UUID类型:支持 UUID 数据类型。GIN索引和SP-GiST索引:可以更高性能支持模糊匹配,以及中文检索。细粒度权限控制:支持了 schema 级别,以及 column 列级别权限控制和授权。高效Vacuum:Vacuum在做空间释放时,可以暂时跳过被加锁的页面,而稍后再次轮询访问对其Vacuum,从而整体减少被阻塞的状况。DBLink:支持跨库的查询访问。Recursive CTE:实现SQL的递归查询功能,用于处理逻辑上为层次化或树状结构的数据,方便对该类数据进行多级递归查询。PL/SQL 增强:支持RETURN QUERY EXECUTE语句,可以动态即刻执行SQL;支持 Anonymous blocks 匿名块定义。 OLAP 新功能特性支持复制表(replicated table):针对数仓中的维度表,通过建立复制表(DISTRIBUTED REPLICATED clause),可以大量减少数据传输,提升查询效率。支持zstandard压缩算法:ZSTD压缩算法,较之前 zlib 压缩算法,提升三倍的压缩和解压性能。 HTAP (OLAP+OLTP)能力提升通过引入全局死锁检查机制 (global deadlock detection),会动态的收集和分析锁的信息来检查和解除全局死锁。基于此,HEAP表的更新修改操作可以只借助细粒度行锁完成,支持大并发的更改删除查询,提高整个系统的并发度和吞吐量。同时还对事务锁进行了优化,减少了开始事务和结束事务时的锁竞争。ADB PG 6.0在既有高性能 OLAP分析基础上,也可以提供高吞吐交易事务处理。典型 OLTP 场景 TPC-C 达到 10w tpmc;Sysbench 支持 select 15w tps, insert 5w tps,update 2w tps。产品文档: https://yq.aliyun.com/articles/720538
产品介绍: 阿里云数据库 InfluxDB® 版正式启动商业化 。 InfluxDB 是 DBengine 官网时序数据库类目上排名第一的数据库产品,是当前业界最流行,使用最广泛的时序数据库。云数据库 InfluxDB 广泛应用于互联网基础资源监控,容器监控,业务运营监控分析,物联网设备远程实时监控,工业安全生产监控,生产质量评估和故障回溯。提供时序数据自动化采集,压缩存储,类SQL查询,多维聚合计算和数据可视化分析能力,具有免运维,稳定可靠,可弹性伸缩的优势。适用客户: 物联网/应用服务监控/电商/新零售/直播/工业生产/能源/电力发布功能: 时序数据很简单,构成具有三个要素,主体,时间戳,和指标数据。比如: xxx公司的(主体)2019年8月26日上午10时,11时, 12时(时间戳)的股价分别是:160 USD,165 USD,180 USD(指标值)。概括来说,区别于关系数据库关心的是“最终结果”。时序数据表示的是资产或者过程是如何随着时间变化的,体现的是“变化”的过程价值。 时序数据和企业业务密切相关,不可或缺。任何一家企业都需要一套高效的运维系统保证实时发现应用和业务问题,通过监控,故障告警的手段,进行故障定位,保证在线业务的稳定,减少不可用时常。业务运营人员依赖运营系统,保证有充足的数据进行业务分析判断,便于更准确的做出业务决策。物联网企业和工业企业都需要能够实时掌握设备的运行状态,对生产过程进行监控,实时判故障预警,故障定位,故障回溯以及业务。以上业务场景都需要时序数据作为“数据证据”来表示指标“变化”过程,进而达到告警,诊断,修复和预测的业务目的。 时序数据主要应用在:运维监控,运营分析,设备监控,BI分析,工业安全生产监控场景。这些场景上,产生的核心数据是时序数据,业务特征表现在 写多读少 ,无事务性要求,数据分析强关联时间维度,且实时性要求的业务场景。 时序数据库针对时序数据业务特征进行针对性的数据存储结构设计,以及存储方式的优化,在监控等时序业务场景下数据的写入,读取,分析能力相比较传统的关系型数据库如 MySQL ,具有百倍的性能提升。 从数据存储架构上看,关系数据库通常按照行来记录一条时间记录数据,且顺序记录之间无主体关联性,单个主体的记录数据随机分散在多行,如果是分布式数据库甚至分布在多个分分库上,记录之间也没有时间顺序组织数据,连续时间戳的数据,分散在不连续的存储上,这样就造成按照主体和时间维度的数据写入和存储的效率大大降低。 阿里云 InfluxDB 完全兼容开源 InfluxDB ,面向开发友好, 为了方便传统关系数据库开发者能够快速适应Influx DB开发, 提供给了类 SQL的查询语言 InfluxQL,在提供强大的时序分析能力的基础上,最大程度的沿用了SQL的开发模式,使得学习成本大大降低。 阿里云InfluxDB 相比较开源InfluxDB ,云 InfluxDB 提供云服务的方式,有行业顶级的专家支持服务,具有 免安装,免运维,稳定性高的优势。数据高可靠的优势。同时,使用云存储的方案,数据多副本存储,数据可靠性超过6个9 。 阿里云数据库 InfluxDB 继承了 Influx DB 良好的开源生态,具有完整的数据采集,存储和数据可视化监控告警体系 TICK Stack 支撑。 同时相比较开源产品,提供了产品化的数据采集服务,只需在控制台进行几步简单操作,“0” 代码完成各类监控源的监控数据自动采集 阿里云InfluxDB 针对金融,保险,银行,涉及数据和服务高可靠的研发了 HA高可用版本, 目前正在商业化上线的过程中,不久就可上线提供服务。付费方式: 按月付费,存储和计算资源分别计费。计算资源按照实例规格计费。详细计费规则参考:https://help.aliyun.com/document_detail/115447.html产品文档: https://help.aliyun.com/document_detail/113093.html?spm=a2c4g.11186623.6.706.9e1379c2Jx04iS
云数据库 InfluxDB® 版介绍 阿里云数据库 InfluxDB® 版已于近日正式启动商业化 。 云数据库 InfluxDB® 是基于当前最流行的开源数据库 InfluxDB 提供的在线数据库服务,相比较开源具有免运维,稳定可靠,可弹性伸缩的优势,广泛应用于互联网基础资源监控,容器监控,业务运营监控分析,物联网设备远程实时监控,工业安全生产监控,生产质量评估和故障回溯。提供时序数据自动化采集,压缩存储,类SQL查询,多维聚合计算和数据可视化分析能力。点击关注,InfluxDB 商业化活动 时序数据体现“数据变化”的价值 时序数据和企业业务密切相关,不可或缺。任何一家企业都需要一套高效的运维系统保证实时发现应用和业务问题,通过监控,故障告警的手段,进行故障定位,保证在线业务的稳定,减少不可用时常。业务运营人员依赖运营系统,保证有充足的数据进行业务分析判断,便于更准确的做出业务决策。物联网企业和工业企业都需要能够实时掌握设备的运行状态,对生产过程进行监控,实时判故障预警,故障定位,故障回溯以及业务。以上业务场景都需要时序数据作为“数据证据”来表示指标“变化”过程,进而达到告警,诊断,修复和预测的业务目的。 时序数据很简单,构成具有三个要素,主体,时间戳,和指标数据。比如: xxx公司(主体)2019年8月26日上午10时,11时, 12时(时间戳)的股价分别是:160 USD,165 USD,180 USD(指标值)。概括来说,区别于关系数据库关心的是“最终结果”。时序数据表示的是资产或者过程是如何随着时间变化的,体现的是“变化”的过程价值。  时序数据库相比关系型数据性能可达百倍提升 时序数据主要应用在:运维监控,运营分析,设备监控,BI分析,工业安全生产监控场景。这些场景上,产生的核心数据是时序数据,业务特征表现在 写多读少 ,无事务性要求,数据分析强关联时间维度,且实时性要求高。 时序数据库针对时序数据业务特征进行针对性的数据存储结构设计,以及存储方式的优化,在监控等时序业务场景下数据的写入,读取,分析能力相比较传统的关系型数据库如 MySQL ,具有百倍的性能提升。 从数据存储架构上看,关系数据库通常按照行来记录一条时间记录数据,且顺序记录之间无主体关联性,单个主体的记录数据随机分散在多行,如果是分布式数据库甚至分布在多个分分库上,记录之间也没有时间顺序组织数据,连续时间戳的数据,分散在不连续的存储上,这样就造成按照主体和时间维度的数据写入和存储的效率大大降低。  而时序数据库按照主体为维度进行数据存储和索引,完全按照业务使用场景组织数据,相同主体指标数据组织在一起,并且按照时间为度进行分片存储,只需要获取主体信息和时间分片信息就可以顺序进行写入和读取操作。单次IO请求磁盘寻道的时间和获取数据量比关系数据库寻道的效率和获取数据量都要高,查询的时间区间越大,查询主体越多,数据越多,效率差异越大,整体性能比关系数据库要高出十倍甚至百倍。  云InfluxDB® VS 开源InfluxDB 云InfluxDB® 相比较开源InfluxDB 优势明显。 云InfluxDB 提供云服务的方式,有行业顶级的专家支持服务,具有 免安装,免运维,稳定性高,数据高可靠的优势。使用云存储的方案,数据多副本存储,数据可靠性达到99.9999% 。  自建快速迁移上云 云 InfluxDB 提供了快速迁云的工具,只需动动鼠标就可以完成自建InfluxDB 到 云 InfluxDB 的迁移。  类SQL 开发友好,快速上手 阿里云 InfluxDB 完全兼容开源 InfluxDB ,面向开发友好, 为了方便传统关系数据库开发者能够快速适应Influx DB开发, 提供给了类 SQL的查询语言 InfluxQL,在提供强大的时序分析能力的基础上,最大程度的沿用了SQL的开发模式,使得学习成本大大降低。 集成数据采集,搭建监控更简单 阿里云数据库 InfluxDB 继承了 Influx DB 良好的开源生态,具有完整的数据采集,存储和数据可视化监控告警体系 TICK Stack 支撑。 同时相比较开源产品,提供了产品化的数据采集服务,只需在控制台进行几步简单操作,“0” 代码完成各类监控源的监控数据自动采集。  云InfluxDB® 金融高可用版即将推出 服务的高可靠和数据一致性对金融类企业至关重要,开源的InfluxDB 没有提供高可靠的HA 版本,阿里云InfluxDB 针对金融,保险,银行,涉及数据和服务高可靠的研发了 HA高可用版本, 目前正在商业化上线的过程中,不久就可上线提供服务。 云InfluxDB® 商业化限时优惠 当前商业化初期,10.26号之前推出云 InfluxDB® 年付6折的限时优惠活动。想了解更多产品和活动详情,[请点击]( https://promotion.aliyun.com/ntms/act/influxdbpublish.html?wh_ttid=pc )或者扫码关注: 
1. 前言 阿里时序时空数据库TSDB最新推出TSQL,支持标准SQL的语法和函数。用户使用熟悉的SQL,不仅仅查询更简单易用,用户还可以利用SQL强大的功能,实现更加复杂的计算分析。 2. 为什么需要用SQL做时序查询? 2.1 SQL拥有广泛用户基础 SQL作为一个诞生于上世纪70年代的编程语言已经存在几十年了。这是一个相对而言较“古老”的编程语言,但又是一个有着广泛用户基础的语言。在跟踪主要编程语言的流行程度的TIOBE index[1]中,SQL在2019年4月份的排名是第8。而如果把排名列在11-20之间的SQL的两个“兄弟”PL/SQL, Transact-SQL也合并进来的话,SQL的流行度应该更高。 根据stackoverflow网站的调查 [2],SQL在最流行的编程语言榜上排在第4位。 无论TIOBE index还是stackoverflow的编程语言排行榜,都从一个侧面反映了SQL的广泛用户基础。作为一个查询语言,SQL是用户和数据库系统交互的(直接或间接)主要方式。支持一个拥有广泛用户基础的查询语言,对于推广数据库系统来说,是非常重要的。 2.2 用户学习成本 最近几年出现的几个主要面向时序场景的数据库,除了TimescaleDB是在Postgres基础上所以支持PG生态包括SQL语言支持,其他几个比如InfluxDB, OpenTSDB, Prometheus都有各自不同的查询语言和接口:InfluxDB有InfluxQL,OpenTSDB有自己的Restful API, 而Prometheus有PromQL。每一个系统都可以声称自己的语言是独一无二的,更适合时序查询这样的场景;但不可否认的事实是用户需要去花时间去学习一种新的语言,并且如果这个语言为了功能完善,还在不断演进中,这样的学习成本对用户来说,尤其显得高了。举个例子,InfluxDB的InfluxQL并不支持Join,Subqueries, 以及SQL中很常见的UDF等功能,这意味着用户并不能在不同数据之间进行关联分析计算,也不能在系统函数基础上进行扩展开发。InfluxDB设计者在听到社区的意见后,做了一个很有“创意”的事情:在新版本里支持Join,UDF等功能,但并不是让InfluxQL变得更加接近于SQL,而是在一个全新的Flux(一个新的functional scripting language)里支持 [3]。用户想要做InfluxQL不能做的事情,那就再来学习一个新语言吧。一个很有意思的事情,10多年前开始出现的NoSQL系统,比如MapReduce/Hadoop, BigTable,Casandra,HBase等,一开始也是以各自不同的查询语言出现的。在经历了多年用户推广之后,NoSQL开始拥抱SQL,变成了NotOnlySQL或者NewSQL。时序数据库这样一个新兴的数据库领域,也有可能重复这样的历史。原因很简单,用户学习一个新语言的成本越高,越会阻碍一个系统被推广到大众接受的程度。 2.3 BI工具生态支持 时序数据库提供SQL的查询支持,一个很重要的原因是将时序数据库的应用场景扩展到商业分析(BI/Business Analysis),商业决策这样高附加值领域。当前几个主要的时序数据库,包括InfluxDB, OpenTSDB和Prometheus,主要侧重于基础性能监控这样的场景,利用Grafana这样的可视化工具,实现监控报警这一类基本功能。另一方面,监控报警还没有充分利用挖掘时序数据的商业价值。进一步的功能,需要充分利用现有SQL生态系统中的商业分析工具,比如Tableau, Qlik,Oracle BI, IBM Cognos等。这些BI工具,往往是以SQL的方式同后端数据库交互。从这个角度来说,时序数据库的SQL支持对于对接BI生态系统中的各种工具,尤为重要。 2.4 TSQL面向的用户群 在阿里时序数据库TSDB支持的兼容OpenTSDB查询协议之上推出的TSQL查询引擎,主要是面向以下两类用户: 时序数据库TSDB的新应用开发者 :这类用户往往以前使用关系数据库,因为关系数据库本身处理时序数据的性能和可扩展性的局限,而转而使用TSDB。这些新应用开发者,希望TSDB在提供比关系数据库更好的时序性能和扩展性的同时,能够用他们以前熟悉的查询语言进行应用开发,而不是去学习一个新的查询语言。 数据分析师:这类用户并不开发应用,他们的工作是利用已有的商业分析工具,对时序数据进行进一步的查询分析。他们本身并不直接使用SQL, 但所使用的工具以SQL作为和时序数据库TSDB交互的查询语言。 3. 现有时序数据库系统SQL查询能力比较 这里简单对比时序数据库系统中提供SQL查询,或SQL-like查询能力的InfluxDB, TimescaleDB, 阿里云TSDB。 4. TSQL系统架构 上图是TSQL的总体架构以及和TSDB引擎和存储之间的协调工作关系。简单来讲,TSQL是一个典型的MPP的SQL分析引擎,通过Connector同TSDB引擎和存储进行数据交换。Connector支持MetaAPI和DataAPI。 TSQL是在两个Apache开源项目基础上演进开发的: Apache Calcite作为SQL的解析器和计划生成和优化器。 Apache Drill提供分布式的SQL执行层。 Apache Calcite作为一个扩展性好,支持标准SQL语法和语义的SQL计划生成器,已经被很多数据处理相关的开源项目使用[6],包括大数据ETL的Apache Hive, HBase上的SQL解决方案Apache Phoenix, 也有流数据处理框架Apache Fink (阿里的Blink)和Apache Beam等。 TSQL使用Calcite作为SQL计划生成器,可以在兼容标准SQL方面,充分利用开源社区已有的成果。 4.1 时序数据Schema管理 InfluxDB, OpenTSDB和Prometheus都采用的是一种Schema-on-write的方式,也就是用户并不需要明确定义metric的schema, 而是将schema的信息隐藏在数据中,在数据写入的时候,同时管理着schema。这样做的好处是更高的灵活性: 在写入数据的时候,用户不需要事先必须用Create Table DDL来创建table; 在时序数据tag set出现变化的时候,用户不需要事先用Alter Table来修改table的schema。TimeScaleDB从PG上扩展而来,所以是采用的是严格的Schema的管理方式。在使用灵活性方面,不如上面其他3个时序数据库。 Calcite作为一个SQL计划生成器,很适合时序数据库这样的比较松散的Schema管理方式。 Calcite的Schema Adapter,可以支持 动态的Schema 发现, 任意一个数据集,只要实现Schema管理中的接口API, 就可以在计划解析生成阶段被当成一个Table来处理。 TSQL在Calcite的Schema Adapter基础上,利用TSDB引擎中新增加的MetaAPI,来完成SQL计划解析和生成。这免去了用户必须事先在一个集中式的catalog中预先定义Table DDL等繁琐工作,给用户带来了很多的灵活性。 4.2 时序数据查询执行 TSQL的执行层,利用了Apache Drill的runtime execution。Drill的runtime execution,具备以下特点 利用off-heap内存作为计算内存,减少Java heap内存GC所带来的延迟问题 基于Columnar格式的ValueVector (Apache Arrow的前身),提升查询执行效率 动态代码生成和编译UDF支持 5. TSQL时序查询功能 我们以一个基础性能监控场景来举例说明TSQL能完成的时序查询功能。利用一个时序数据库业界公开的时序性能Benchmark[5] 生成的模拟数据,按照DevOps这样的场景,产生了cpu相关的10不同的metric。每个metric对应了机房(datecenter),主机(hostname),rack等标签下所采集的服务器cpu相关的指标数据。 5.1 元数据查询 可以用下面的方式查询TSDB中所有的metric/table SHOW TABLES FROM tsdb 如果我们希望列出所有以cpu为前缀的metric/table,可以在上面的查询基础之上添加附带过滤条件. show TABLES from tsdb where TABLE_NAME like 'cpu%' 下图给出了命令的部分输出: 在获得metric/table 名字后,我们可以进一步用SQL中的'DESCRIBE'命令来查询这个metric/table的schema信息 describe tsdb.`cpu.usage_user` 下图显示了上面的'describe'命令的部分结果: 5.2 时序数据简单查询 用下面的SQL查询可以获得指定时间段内的'cpu.usage_user'的指标值,时间戳,以及对应的标签值。 select * from tsdb.`cpu.usage_user` where `timestamp` between '2019-05-01 16:00:00' and '2019-05-01 18:00:00' 这里, 将被转换成 metric/table下所有的列,包括指标值,时间戳,所有的标签列。可以以具体的列名的一个列表来代替。作为对比,如果把上面的查询转化成OpenTSDB协议来查询,相对应的查询如下: { "start": "1556726400000", "end": "1556733600000", "queries": [ { "aggregator": "none", "metric": "cpu.usage_user", "rate": null, "downsample": null, "filters": [] } ] } 可以在时间戳的过滤条件基础上,增加指标列上的条件。下面的查询,列出指定时间段内,3台主机上的指标值,并且使用limit, 把查询结果限制在100行。 select * from tsdb.`cpu.usage_user` where `timestamp` between '2019-05-01 16:00:00' and '2019-05-01 18:00:00' and hostname in ('host_1', 'host_5', 'host_10') limit 100 可以在查询中使用标准SQL中丰富的数值计算函数,字符串函数或时间戳函数。下面的SQL,我们分别使用了数值运算函数sqrt, 时间戳函数extract 和字符串lower。 5.3 时序降精度,聚合运算 如果我们要计算两小时之内,每台主机上每5分钟的指标cpu.usage_user的最大值,最小值,以及数据采样点的个数。这样的查询,代表了在时间维度上的降精度,并且在标签hostname上进行的聚合运算。用TSQL来表示这样的查询: select hostname, tumble(`timestamp`, interval '5' minute) ts, max(`value`) maxV, min(`value`) minV, count(`value`) cnt from tsdb.`cpu.usage_user` where `timestamp` between 1556726400000 and 1556733600000 and hostname in ('host_8','host_5','host_6') group by hostname, ts 如果用OpenTSDB的协议来查询: { "start": "1556726400000", "end": "1556733600000", "queries": [ { "aggregator": "max", "metric": "cpu.usage_user", "downsample": "5m-max", "tags":{ "hostname":"host_8|host_5|host_6" } }, { "aggregator": "min", "metric": "cpu.usage_user", "downsample": "5m-min", "tags":{ "hostname":"host_8|host_5|host_6" } }, { "aggregator": "sum", "metric": "cpu.usage_user", "rate": null, "downsample": "5m-count", "tags":{ "hostname":"host_8|host_5|host_6" } } ] } 可以看到,相比较原来Restful API的查询,TSQL能够用更简洁的方式来表示相同的查询语义;并且,如果用户本来就熟悉SQL的使用方法,节省用户去学习Restfule API里JSON各个字段的含义。从降低用户学习成本,增加易用性这个角度,TSQL带来了较明显的价值。TSQL不仅仅带来查询简洁,用户易用的优点,并且,更重要的是,用TSQL能够表达Restful API里不能直接表达的查询语义。在TSDB引入TSQL之前,如果用户需要进行这样的查询计算,则用户必须通过自己的应用程序,在Restful API获得数据后,再进行后计算,来满足业务需要。在自己的应用程序中进行后计算,往往需要付出很大的应用开发代价。 5.4 聚合后计算,过滤,排序 下面的例子,计算2个小时内,3台机器上每5分钟内,cpu.usage_user指标值的最大值和最小值的差异超过10.0的时段和hostname, 并按照差异值从大到小排序:在上面的例子中个,在获得最大值和最小值后,进一步计算两者的差异值,并根据差异值进行过滤和排序。这样的聚合后计算处理,无法用OpenTSDB的查询协议表示;用户如果要表达这样的语义,就必须在应用程序中计算。 select hostname, tumble(`timestamp`, interval '5' minute) ts, max(`value`) - min(`value`) as diffV from tsdb.`cpu.usage_user` where `timestamp` between '2019-05-01 16:00:00' and '2019-05-01 18:00:00' and hostname in ('host_1', 'host_5', 'host_10') group by hostname, ts HAVING diffV > 10.0 order by diffV DESC 5.5 任意复杂的条件表达式 TSDB的Restful API对于只提供有限的几种filter, 而并不支持任意filter通过AND/OR的组合。比如下面的例子,是一个TSQL业务中使用的查询。其中WHERE条件部分是并不能用Restful API来表示的,因为Restful下的filters是只有AND, 而OR只有在相同tag上通过'value1|value2|vale3'这样的形式来表达。 where ( (obj_id='ems30_NA62_183249003' and obj_type='ems30_NA62_20204' and room='ems30_NA62_C-T01.NA62' and building='ems30_NA62_C') or (obj_id='ems30_NA62_183249746' and obj_type='ems30_NA62_20204' and room='ems30_NA62_C-T01.NA62' and building='ems30_NA62_C') or (obj_id='ems30_NA62_183246962' and obj_type='ems30_NA62_20204' and room='ems30_NA62_C-T01.NA62' and building='ems30_NA62_C') or (obj_id='ems30_NA62_183248143' and obj_type='ems30_NA62_20204' and room='ems30_NA62_C-T01.NA62' and building='ems30_NA62_C') or (obj_id='ems30_NA62_183249191' and obj_type='ems30_NA62_20204' and room='ems30_NA62_C-T01.NA62' and building='ems30_NA62_C') or (obj_id='ems30_NA62_183249964' and obj_type='ems30_NA62_20204' and room='ems30_NA62_C-T01.NA62' and building='ems30_NA62_C') or (obj_id='ems30_NA62_183247148' and obj_type='ems30_NA62_20204' and room='ems30_NA62_C-T01.NA62' and building='ems30_NA62_C') ) and `timestamp` between '2019-04-25 18:20:21' and '2019-04-25 18:20:31' ... 支持任意组合的AND/OR的条件表达式,对于应用开发是很有意义的。在集团基础监控业务(raptor-pro)中,一个突出的亮点是“定制化监控报警”:允许业务方的用户来定制查询条件,并且查询条件可以是任意的AND/OR组合。TSQL为"定制化监控报警"的功能实现,提供了有力的技术保障。 5.6 多个metric之间join 这个查询,把cpu.usage_system和cpu.usage_idle在hostname和timestamp上做等值join, 然后计算每5分钟两个度量值之和的sum。 select t1.hostname, tumble(t1.`timestamp`, interval '5' minute ) ts, sum(t1.`value` + t2.`value`) as sumV from tsdb.`cpu.usage_system` t1, tsdb.`cpu.usage_idle` t2 where t1.`timestamp` >='2019-05-01' and t1.`timestamp` <= '2019-05-01 01:00:00' and t1.hostname = t2.hostname and t1.`timestamp`= t2.`timestamp` group by t1.hostname, ts 上面的查询,如果我们采用TSDB的多值模型,把cpu.usage_system和cpu.usage_idle处理成一个metric的不同的field, 则不需要join就可以完成。但如果我们需要在分组聚合后的结果上再做join, 多值模型也无法解决问题。 5.7 分组聚合后join计算 下面的查询,分别对cpu.usage_system和cpu.usage_idel按照5分钟计算聚合函数sum(), 再通过join, 对齐,计算相对应的比例。并且,每个子查询的Where条件,除了包括在tag上和时间戳上的条件,还包括值上的过滤条件。类似这样的查询,是无法直接在TSDB的RestAPI来实现的;用户只能在自己的应用程序中实现,增加了应用开发成本。 select f0.hostname, f0.ts, f0.sumV / f1.sumV as resultValue from ( select hostname, tumble(`timestamp`, interval '5' minute) ts, sum(`value`) as sumV from tsdb.`cpu.usage_system` where hostname in ('host_0', 'host_5', 'host_10') and `timestamp` between '2019-05-01 00:00:00' and '2019-05-01 01:00:00' and `value`<=50 group by hostname, ts ) as f1 join ( select hostname, tumble(`timestamp`, interval '5' minute ) ts, sum(`value`) as sumV from tsdb.`cpu.usage_idle` where hostname in ('host_0', 'host_5', 'host_10') and `timestamp` between '2019-05-01 00:00:00' and '2019-05-01 01:00:00' and `value`<=30 group by hostname, ts ) as f0 on f1.hostname = f0.hostname and f1.ts = f0.ts 5.8 UDF扩展功能 使用UDF来扩展功能,对于时序数据库这样聚焦特定领域的数据库来说,是非常必要的,因为往往SQL标准中定义的函数,并不能完全满足需要。TSQL有一个完善的UDF的体系,用户只要按照约定的接口,用Java语义就可以实现扩展。比如,我们在TSQL中引入的把时间戳分割成不重合的窗口的函数tumble,其实现就是由下面不到15行代码完成。用户可以用Java实现不同的scalar UDF或者aggregate UDF, 并把编译后的jar加入到TSQL的系统类库目录,就可以自行扩展TSQL的查询计算功能了。 @FunctionTemplate(name = "tumble", scope = FunctionTemplate.FunctionScope.SIMPLE, nulls = FunctionTemplate.NullHandling.NULL_IF_NULL) public static class Tumble implements DrillSimpleFunc { @Param TimeStampHolder timeStamp; @Param IntervalDayHolder interval; @Output TimeStampHolder out; @Override public void setup() { } @Override public void eval() { long intervalMs = interval.days * org.apache.drill.exec.vector.DateUtilities.daysToStandardMillis + interval.milliseconds; out.value = timeStamp.value - timeStamp.value % intervalMs; } } 6 TSQL可视化查询 阿里云TSDB已经提供了TSQL可视化交互式开发功能,通过web页面可以方便的进行TSQL的测试和开发,如下图Demo所示,。点击了解阿里云时序数据库
2022年03月
2020年03月
HybridDB 已经更名为AnanlyticDB for PostgreSQL 。主要面向金融,政务,ISV等企业级数仓构建 ,替代高昂的Oracle ,以及替代扩展性不足的单机PG
已经商业化,官网支持6.0 了,直接购买https://www.aliyun.com/product/gpdb?spm=5176.7937365.h2v3icoap.77.4d971f58BdaZR0&aly_as=eoaA517z
是的,详细可以参考文档 https://help.aliyun.com/document_detail/123333.html?spm=5176.11065259.1996646101.searchclickresult.321d12cby9lnXY
2019年10月
2019年09月
2019年07月
HybridDB 已经更名为AnanlyticDB for PostgreSQL 。主要面向金融,政务,ISV等企业级数仓构建 ,替代高昂的Oracle ,以及替代扩展性不足的单机PG
目前全部是基于原生云存储, 非本地盘,扩展实时性更强,性能不输本地盘
提交一个工单吧
支持,可以用Datawork 数据集成,也可以使用DTS 进行实时数据同步
10倍以上,ADB是全索引的列存
已经商业化,官网支持6.0 了,直接购买https://www.aliyun.com/product/gpdb?spm=5176.7937365.h2v3icoap.77.4d971f58BdaZR0&aly_as=eoaA517z
建议用专业的是时序数据库,阿里云官网搜索 TSDB,InfluxDB
是的,详细可以参考文档 https://help.aliyun.com/document_detail/123333.html?spm=5176.11065259.1996646101.searchclickresult.321d12cby9lnXY
多谢
单机始终会有瓶颈,不能水平扩展是致命的, 建议用分布式数据库服务 DRDS 可以解决扩展的问题 https://www.aliyun.com/product/drds
如果用DRDS中间件 ,就可以使用透明的读写分离,和应用配置解耦。https://help.aliyun.com/document_detail/29681.html?spm=5176.product29657.6.564.7sYuf4
有开源的版本 TDDL,内部使用的商业化版本DRDS 。
MNS 和MQ 不是同一个产品,MQ的官网 https://www.aliyun.com/product/ons?spm=5176.8142029.388261.81.LIr5d7
https://help.aliyun.com/document_detail/43467.html?spm=5176.doc29505.6.555.Bh8qfP 请参考安装文档,如果有问题可以提交工工单解决
可以进行资源授权, 运维必须有权限操作你的ECS
分布式框架的选择内部是为了保持统一,便于运维,目前EDAS已经全面兼容Dubbo ,,目前两种是没有差异的。