开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

dataworks添加其他阿里云账号下的ecs自建hive数据源?

dataworks添加其他阿里云账号下的ecs自建hive数据源?

展开
收起
真的很搞笑 2023-10-16 21:13:19 41 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看

    在DataWorks中添加其他阿里云账号下的ECS自建Hive数据源,需要按照以下步骤操作:

    1. 在DataWorks控制台中,选择需要添加数据源的工作空间。
    2. 在左侧导航栏中,选择“数据源”。
    3. 在数据源页面中,点击“添加数据源”按钮。
    4. 在弹出的添加数据源对话框中,选择“Hive”作为数据源类型。
    5. 在“Hive数据源”页面中,输入数据源名称、连接描述和连接类型等信息,然后点击“下一步”按钮。
    6. 在“Hive元数据信息”页面中,输入Hive元数据信息,包括数据库名称、用户名、密码等,然后点击“下一步”按钮。
    7. 在“数据源属性”页面中,配置数据源属性,包括驱动类型、数据库地址、端口等信息,然后点击“下一步”按钮。
    8. 在“数据源验证”页面中,验证数据源是否可以正常连接,如果可以正常连接,点击“完成”按钮完成数据源添加。

    在添加其他阿里云账号下的ECS自建Hive数据源时,需要注意以下几点:

    1. 需要使用与ECS实例所属的阿里云账号相同的RAM角色进行操作。
    2. 需要在“Hive元数据信息”页面中,输入正确的Hive元数据信息,包括数据库名称、用户名、密码等。
    3. 需要在“数据源属性”页面中,配置正确的数据源属性,包括驱动类型、数据库地址、端口等信息。
    2023-10-17 14:58:35
    赞同 展开评论 打赏
  • 可以正常创建自建hive数据源 网络打通可以参考,【网络打通解决方案】 >选择网络连通方案文档
    step1:选择网络打通方式
    image.png

    step2:在配置资源组与网络连通文档中搜索对应的场景,并参考案例图示打通。

    云企业网使用场景示例,请参见云企业网。
    高速通道使用场景示例,请参见高速通道。
    VPN网关使用场景示例,请参见VPN网关。,此回答整理自钉群“DataWorks交流群(答疑@机器人)”

    2023-10-17 07:14:03
    赞同 展开评论 打赏
  • 在DataWorks中添加其他阿里云账号下的ECS自建Hive数据源,可以按照以下步骤操作:

    1. 登录DataWorks控制台,点击左侧菜单栏的“数据源管理”。
    2. 在数据源管理页面,点击“添加数据源”。
    3. 在弹出的对话框中,选择“自建Hive数据源”。
    4. 输入数据源名称和描述,然后点击“下一步”。
    5. 在“数据源连接信息”页面,输入ECS实例的公网IP地址、Hive的版本、Hive的端口号、Hive的用户名和密码,然后点击“下一步”。
    6. 在“元数据信息”页面,可以选择是否自动同步元数据,然后点击“下一步”。
    7. 在“数据源测试”页面,可以测试数据源的连接是否成功,测试成功后点击“完成”。

    注意:在添加数据源时,需要确保ECS实例的公网IP地址和Hive的版本、端口号、用户名和密码是正确的,否则会无法连接到Hive。

    2023-10-16 21:50:20
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

相关产品

  • 大数据开发治理平台 DataWorks
  • 热门讨论

    热门文章

    相关电子书

    更多
    被窝里的运维——DataWorks移动版公测-2020飞天大数据平台实战应用第一季 立即下载
    DataWorks数据集成实时同步最佳实践(含内测邀请)-2020飞天大数据平台实战应用第一季 立即下载
    DataWorks调度任务迁移最佳实践-2020飞天大数据平台实战应用第一季 立即下载