开发者社区 > 云原生 > 云原生可观测 > 正文

阿里云ARMS这两个差这么多吗?是不是没进行数据压缩啊?

我这边的prometheus只存了2天的数据,prometheus_tsdb_storage_blocks_bytes=90M,也就是平均每天45M的存储开销。prometheus数据使用remoteWrite机制上报到阿里云,为啥这里的写入量居然到了1小时三百多M?感觉超出好多。"写入Prometheus的实际指标量" 跟prometheus tsdb。lQLPJyIZLYbx9sHNAgTNBpawDXH4OPG4HTEGXtv29XDCAA_1686_516.png
阿里云ARMS这两个差这么多吗?是不是没进行数据压缩啊?

展开
收起
三分钟热度的鱼 2024-06-26 23:10:26 29 0
1 条回答
写回答
取消 提交回答
  • 这个存储侧的压缩策略;写入量是计算的实际的量; 数据链路接收到的promehtues指标量数据,而不是底层的influxdb的存储量;统计口径是写入链路里实现的。底层的压缩比是存储层策略,可观测还需要cover成本的,考虑的是数据处理量以及写入量的规模; 此回答整理自钉群“ARMS免费试用5群”

    2024-06-27 08:37:05
    赞同 3 展开评论 打赏

云原生可观测基于Prometheus、Grafana 、OpenTelemetry 等核心产品, 形成指标、链路存储分析、异构数据源集成的数据层, 通过标准PromQL和SQL提供大盘展示、告警与探索能力。

相关产品

  • 应用实时监控服务
  • 相关电子书

    更多
    构建微服务下的性能监控 立即下载
    微服务架构的应用性能监控 立即下载
    Elasticsearch全观测技术解析与应用(构建日志、指标、APM统一观测平台) 立即下载