登录DataWorks控制台,选择需要添加数据源的项目空间。
在左侧导航栏中,点击“数据源管理”,进入数据源管理页面。
点击右上角的“新建数据源”按钮,进入数据源创建页面。
在数据源创建页面中,选择要添加的数据源类型,例如MySQL、Hive、MaxCompute等。
在数据源参数配置页面中,填写数据源的相关信息,例如数据库地址、数据库用户名、数据库密码、数据库名称等。
点击“提交”按钮,将数据源提交到DataWorks。
在DataWorks中添加数据源的步骤如下:
登录DataWorks控制台:打开浏览器,访问DataWorks控制台(https://workbench.data.aliyun.com/console)。使用您的阿里云账号登录。
进入项目空间:在DataWorks控制台的首页,选择您要添加数据源的项目空间。
打开数据集成页面:在项目空间页面,点击左侧导航栏中的"数据集成"选项。
添加数据源:在数据集成页面,点击页面右上角的"新建数据源"按钮。根据需要选择要添加的具体数据源类型,例如MySQL、MaxCompute、OSS等。
配置数据源参数:在新建数据源页面,填写相应的参数来配置数据源连接。参数包括主机名、端口号、用户名、密码等,具体参数根据所选数据源类型而定。
测试和保存数据源:完成参数配置后,可以选择执行测试以验证数据源连接是否正常。如果测试通过,点击"确定"或"保存"按钮保存数据源配置。
管理数据源:在数据集成页面,您可以管理已添加的数据源。可以查看、编辑、删除、测试和复制数据源配置。根据需要,进行适当的操作。
新增OSS数据源。详情请参见配置OSS数据源。在DataWorks上新建数据表,用于存储迁移的JSON数据。登录DataWorks控制台。在新建表页面,选择引擎类型并输入表名。在表的编辑页面,单击DDL模式。在DDL模式对话框,输入如下建表语句,单击生成表结构。create table mqdata (mq_data string);单击提交到生产环境。新建离线同步节点。进入数据开发页面,右键单击指定业务流程,选择新建 > 数据集成 > 离线同步。在新建节点对话框中,输入节点名称,并单击提交。在顶部菜单栏上,单击
图标。在脚本模式下,单击顶部菜单栏上的
图标。在导入模板对话框中选择来源类型、数据源、目标类型及数据源,并单击确定。修改JSON代码后,单击
按钮。示例代码如下。{"type": "job","steps": [{"stepType": "oss","parameter": {"fieldDelimiterOrigin": "^","nullFormat": "","compress": "","datasource": "OSS_userlog","column": [{"name": 0,"type": "string","index": 0}],"skipHeader": "false","encoding": "UTF-8","fieldDelimiter": "^","fileFormat": "binary","object": ["applog.txt"]},"name": "Reader","category": "reader"},{"stepType": "odps","parameter": {"partition": "","isCompress": false,"truncate":
https://help.aliyun.com/document_detail/98133.html,此回答整理自钉群“DataWorks交流群(答疑@机器人)”
添加 DataWorks 数据源的步骤如下:
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。