问题一:DataWorks这是什么问题?
DataWorks这是什么问题?
参考回答:
根据您给出的信息,您遇到了一个 DPS-042061 错误,表示在获取结果时遇到一个例外:HTTP 请求中的 mvald 参数超过了渲染限制。这意味着您尝试提取的数据量或列数超出了 DataWorks 所能处理的最大值。
为了避免这种问题的发生,建议您在提取数据时尽量减小要提取的数据量或列数。您可以通过调整筛选条件、限制返回的结果数量等方式来实现这一目的。
另外,如果您需要频繁提取大量的数据,也可以考虑使用 DataWorks 中的自定义 SQL 功能,通过编写 SQL 查询来更高效地提取所需的数据。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566904
问题二:DataWorks提交失败: 提交节点的源码内容到TSP(代码库)失败?
DataWorks提交失败: 提交节点的源码内容到TSP(代码库)失败:ResultGeneralModel [returnCode=101, returnMessage=系统异常, returnErrorStackTrace=null, returnErrorOper=null, returnValue=null]?
参考回答:
skynet_packageid is null 报错的主要原因是没有获取到具体运行sql的ak,可能的原因有几个点:
如果是在数据开发界面直接运行的话,需要检查一下个人的ak是否不存在
如果是在运维中心运行时报错的话,需要去查看这个任务对应的任务责任人,检查这个责任人的ak是否存在
如果是在新版本的生产环境运行报错的话,需要去检查主账号的ak是否存在,如果不存在需要去更新主账号的ak情况
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566981
问题三:DataWorks连通性诊断工具,是通的?
DataWorks连通性诊断工具,是通的?
就是不通
此数据源无法被当前资源组连通,请使用“自助排查解决”,将引导您完成对应的连通设置。
具体错误信息为:
ErrorMessage:[Exception:Could not open client transport with JDBC Uri: jdbc:hive2://10.161.2.58:8415/lsq_test;auth=noSasl: application must be set ,detail version info:hive_3_1_2]
Request id: 791ce91b-fab1-48a4-832f-a3f52d45404djdbc:hive2://10.161.2.58:8415/lsq_test;auth=noSasl;?application_id=infinity.lsq-dataworks-test.app.sensorsdata.cloud;business=dataworks 我填的是这个,但是看异常信息用的是这个 jdbc:hive2://10.161.2.58:8415/lsq_test;auth=noSasl
参考回答:
这个jdbc地址beeline之类的 其他客户端能访问吗
右边主要测的网络等 不一定能覆盖全所有的,确认了一下 是后面部分被安全拦截了
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566979
问题四:DataWorksjdbc服务器端的异常是报缺少必要的参数?
DataWorksjdbc服务器端的异常是报缺少必要的参数?就是说dataworks在建连接的时候没有按我填的jdbc uri去创建
参考回答:
需要做一下网络打通 可以参考一,【网络打通解决方案】 >选择网络连通方案文档
step1:选择网络打通方式
step2:在配置资源组与网络连通文档中搜索对应的场景,并参考案例图示打通。
云企业网使用场景示例,请参见云企业网。
高速通道使用场景示例,请参见高速通道。
VPN网关使用场景示例,请参见VPN网关。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566978
问题五:DataWorks检查连通性的时候创建jdbc连接没有传这些参数?
DataWorks中jdbc uri 配置了参数,但是检查连通性的时候创建jdbc连接没有传这些参数?
因为这个jdbc service 需要这些参数才能创建连接,不传的话会导致创建连接失败,不传参数正常的吗?
参考回答:
这里直接测试 数据集成 资源组的连通性看下报什么错
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566976