如何将实时计算 Flink 版与自身环境打通|学习笔记

本文涉及的产品
对象存储 OSS,20GB 3个月
实时计算 Flink 版,5000CU*H 3个月
网络型负载均衡 NLB,每月750个小时 15LCU
简介: 快速学习 如何将实时计算 Flink 版与自身环境打通

开发者学堂课程【《实时计算 Flink 版产品入门与实操》:如何将实时计算  Flink 版与自身环境打通】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/334/detail/3741


如何将实时计算  Flink 版与自身环境打通


内容简介:

一、jar 存储与使用

二、典型数据源

三、Metrics

四、Logs

 

一、jar 存储 -OSS

VVP 支持两种方式将 jar 存储在 O SS 上

方法一∶使用 VVP 资源上传功能(100 M 以内)

方法二∶OSS 控制台上传

Jar 使用 -oss

VVP 支持两种方式使用 oss 上的 jar

方法一∶Deployment 配置面板中,直接选择

方法二∶Deployment 配置面板中,使用 OSS 提供的 jar 链接

PS∶使用方法二需要保证 VVP 与 jar 链接的网络连通性

VVP 打通公网参考∶

httos/help.aliyun.com/document detail/174840html

下面是实操界面:

图片23.png

解决方案

通过在 VPC 中 创建 NAT 网关,并创建 SNAT 条目,将 Flink 全托管集群所在的交换机绑定至弹性公网 I P(EIP),即可通过 EIP 公网。

具体配置方法请参见∶

>创建 NAT 网关。

>创建 SNAT 条目。

>绑定 EIP。

 

二、数据源-典型 connectors 使用

图片24.png

数据源-典型 connectors 使用

Sls | Kafka |Datahub

以 SQL 为例,分别以 SLS、Kafka、Datahub 作为数据源读写数据

·随机生成数据,写入 SLS 中

·从 SLS 读入数据,写入 Kafka 中

·从 Kafka 读入数据,写入 Datahub 中

图片25.png


三、Metrics

1.全托管 VVP 默认将 metrics 打入 arms

2.通过配置将 metrics 打入 prometheus

>保证 flink 作业与 pushgateway 之间的网络连通性

创建作业时,flink conf 配置 metricS.reporters

创建作业->显示高级配置->其他配置->配置

->填写 metric reporter 配置

vvp 打通公网参考∶

https∶//help.aliyun.com/documentdetail/

174840.html

metrics reporters 配置参考∶

https//ci.apache.org/projects/flink/flink-docs-release-1.11/monitoring/metrics.html

图片26.png


四、Logs 写入 oss/sls

1.将日志写入到 SLS 中

·点击创建作业·

· 点击高级配置

· 找到日志配置

· Logging Profile 选择为 Custom Template

· 写入 SLS log 配置

2.将日志写入到 OSS 中

点击创建作业

· 点击高级配置

· 找到日志配置

· Logging Profile 选择为 Custom Template

· 写入 OSS log 配置

配置参考文档∶

https∶/help.aliyun.com/document detail/173646.html

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
9天前
|
运维 数据处理 数据安全/隐私保护
阿里云实时计算Flink版测评报告
该测评报告详细介绍了阿里云实时计算Flink版在用户行为分析与标签画像中的应用实践,展示了其毫秒级的数据处理能力和高效的开发流程。报告还全面评测了该服务在稳定性、性能、开发运维及安全性方面的卓越表现,并对比自建Flink集群的优势。最后,报告评估了其成本效益,强调了其灵活扩展性和高投资回报率,适合各类实时数据处理需求。
|
2月前
|
SQL 消息中间件 Kafka
实时计算 Flink版产品使用问题之如何在EMR-Flink的Flink SOL中针对source表单独设置并行度
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
10天前
|
存储 运维 监控
阿里云实时计算Flink版的评测
阿里云实时计算Flink版的评测
42 15
|
9天前
|
运维 分布式计算 监控
评测报告:阿里云实时计算Flink版
本评测主要针对阿里云实时计算Flink版在用户行为分析中的应用。作为一名数据分析师,我利用该服务处理了大量日志数据,包括用户点击流和登录行为。Flink的强大实时处理能力让我能够迅速洞察用户行为变化,及时调整营销策略。此外,其卓越的性能和稳定性显著降低了运维负担,提升了项目效率。产品文档详尽且易于理解,但建议增加故障排查示例。
|
9天前
|
机器学习/深度学习 运维 监控
阿里云实时计算Flink版体验评测
阿里云实时计算Flink版提供了完善的产品内引导和丰富文档,使初学者也能快速上手。产品界面引导清晰,内置模板简化了流处理任务。官方文档全面,涵盖配置、开发、调优等内容。此外,该产品在数据开发和运维方面表现优秀,支持灵活的作业开发和自动化运维。未来可增强复杂事件处理、实时可视化展示及机器学习支持,进一步提升用户体验。作为阿里云大数据体系的一部分,它能与DataWorks、MaxCompute等产品无缝联动,构建完整的实时数据处理平台。
|
2月前
|
消息中间件 监控 Kafka
联通实时计算平台问题之Flink状态后端数据量较大时,问题排查要如何进行
联通实时计算平台问题之Flink状态后端数据量较大时,问题排查要如何进行
|
2月前
|
消息中间件 监控 Kafka
实时计算 Flink版产品使用问题之怎么调整Flink Web U显示的日志行数
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
SQL 存储 运维
如何降低 Flink 开发和运维成本?阿里云实时计算平台建设实践
本次分享主要介绍阿里云实时计算平台从 2.0 基于 Yarn 的架构到 3.0 云原生时代的演进,以及在 3.0 平台上一些核心功能的建设实践,如健康分,智能诊断,细粒度资源,作业探查以及企业级安全的建设等。
如何降低 Flink 开发和运维成本?阿里云实时计算平台建设实践
|
存储 SQL 分布式计算
《Apache Flink 案例集(2022版)》——2.数据分析——汽车之家-Flink 的实时计算平台 3.0 建设实践
《Apache Flink 案例集(2022版)》——2.数据分析——汽车之家-Flink 的实时计算平台 3.0 建设实践
249 0
|
存储 数据挖掘 Apache
《Apache Flink 案例集(2022版)》——2.数据分析——汽车之家-Flink 的实时计算平台 3.0 建设实践(2)
《Apache Flink 案例集(2022版)》——2.数据分析——汽车之家-Flink 的实时计算平台 3.0 建设实践(2)
263 0
下一篇
无影云桌面