开发者社区 问答 正文

日志服务如何采集公网数据?

对一些应用场景而言,需要实时收集公网数据 (例如,移动端、HTML 网页、PC、服务器、硬件设备、摄像头等)实时进行处理。
在传统的架构中,一般通过前端服务器 + Kafka 这样的搭配来实现如上的功能。现在 日志服务loghub 功能 能够代替这类架构,并提供更稳定、低成本、弹性、安全的解决方案。

场景


公网有移动端、外部服务器、网页和设备数据进行采集。采集完成后需要进行实时计算、数据仓库等数据应用。


方案 1:前端服务器 + Kafka


由于 Kafka 不提供 Resful 协议,更多是在集群内使用,因此一般需要架设 Nginx 服务器做公网代理,再通过 logstash 或 API 通过 Nginx 写 Kafka 等消息中间件。
需要的设施为:

设施数目配置作用价格
ECS 服务器2 台1 核 2GB前端机、负载均衡,互备108 元/台*Month
负载均衡1 台标准按量计费实例14.4 元/Month(租赁) + 0.8 元/GB (流量)
Kafka/ZK3 台1 核 2GB数据写入并处理108 元/台*Month


方案 2:使用 loghub


通过 Mobile SDK、logtail、Web Tracking JS 直接写入 loghub EndPoint。
需要的设施为:
设施作用价格
loghub实时数据采集< 0.2 元/GB,参见 计费规则


场景对比


场景 1:一天 10GB 数据采集,大约一百万次写请求。(这里 10GB 是压缩后的大小,实际数据大小一般为 50GB~100GB 左右。)



方案比较


从以上两个场景可以看到,使用 loghub 进行公网数据采集,成本是非常有竞争力的。除此之外,和方案 1 相比还有以下优势:
  • 弹性伸缩:MB-PB/Day 间流量随意控制
  • 丰富的权限控制:通过 ACL 控制读写权限
  • 支持 HTTPS:传输加密
  • 日志投递免费:不需要额外开发就能与数据仓库对接
  • 详尽监控数据:让您清楚业务的情况
  • 丰富的 SDK 与上下游对接:和 Kafka 一样拥有完整的下游对接能力,和阿里云及开源产品深度整合

有兴趣可以参见 日志服务主页 体验该服务。

展开
收起
轩墨 2017-10-23 12:44:33 2595 分享 版权
阿里云 AI 助理回答

在实时收集公网数据并进行实时处理的应用场景中,如涉及移动端、HTML网页、PC、服务器、硬件设备及摄像头等数据源,传统上采用前端服务器结合Kafka的消息队列架构来实现这一需求。然而,阿里云日志服务的LogHub功能为这类应用场景提供了更为高效、经济和安全的解决方案。

方案1:前端服务器 + Kafka

  • 设施需求
    • ECS服务器:2台,配置为1核2GB,作为前端机承担负载均衡与互备角色,成本约为108元/台*月。
    • 负载均衡:1台,标准配置,按量计费实例,基础租赁费用14.4元/月加上0.8元/GB的流量费用。
    • Kafka/ZooKeeper集群:3台,同样配置为1核2GB,负责数据写入与处理,总成本约为324元/月。

由于Kafka本身不直接支持公网访问,通常需要借助Nginx作为代理,并通过Logstash或自定义API将数据转发至Kafka,增加了架构的复杂度和维护成本。

方案2:使用LogHub

  • 设施需求
    • LogHub:直接用于实时数据采集,其计费依据实际数据量,价格小于0.18元/GB,具体根据[计费规则]而定。

LogHub方案的优势在于: - 弹性伸缩:轻松应对从MB到PB级别的日志数据量,无需预先规划资源。 - 权限控制:提供细致的ACL(访问控制列表),确保数据的安全性。 - HTTPS支持:保障数据传输过程中的安全性。 - 日志投递免费:无缝对接数据仓库,无需额外开发工作。 - 详尽监控:提供全面的监控指标,帮助用户实时掌握系统状态。 - 丰富的SDK与集成能力:与阿里云及开源生态深度整合,简化上下游对接流程。

综上所述,对于公网数据采集的需求,LogHub相比传统的前端服务器+Kafka架构,在成本控制、操作便捷性、安全性和可扩展性方面展现出显著优势,是更优的选择。用户可通过访问日志服务主页进一步了解并体验该服务。

计费规则详情请参考阿里云官方文档。

有帮助
无帮助
AI 助理回答生成答案可能存在不准确,仅供参考
0 条回答
写回答
取消 提交回答