dataworks只支持Blink独享和共享集群(这两种已停售),flink全托管建议直接使用flink控制台中自带的开发工具。 此答案整理自钉群“DataWorks交流群(答疑@机器人)”
在DataWorks接入Flink项目,需要完成以下步骤:
创建Flink项目:在Flink集群中创建一个项目,并根据需要添加需要的资源,如JAR包、配置文件等;
配置Flink项目的运行参数:根据业务需要,设置Flink作业运行的参数,例如streaming data源、转换算子、sink 数据汇等相关参数;
导入Flink项目:在DataWorks中导入Flink项目,按照步骤进行配置和上传JAR包;
创建DataWorks节点:在DataWorks工作流中创建一个节点,选择Flink项目作为数据处理引擎,并配置相关参数;
调度运行DataWorks节点:在DataWorks中配置好Flink项目的节点后,可以通过调度系统进行计划任务管理,调度节点完成相关数据处理任务。
以上是大致的步骤,具体需要根据实际情况进行调整和操作。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。