问题一:帮忙看一下大数据计算MaxCompute这个问题, 在本地运行正常是什么原因?
帮忙看一下大数据计算MaxCompute这个问题, 使用ODPS spark 运行jar , 发送消息到钉钉, 链接超时, 但在本地运行正常是什么原因?
参考回答:
MC Spark访问外网需要走下申请
通过后加一下配置再执行
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/581858
问题二:DataWorks数据同步: 报错有解决办法么?
DataWorks数据同步: SQL Server --- > MaxCompute ,报错有解决办法么?
xception":"InvalidData: The string's length is more than 8388608 bytes.","message":"写入 ODPS 目的表时遇到了脏数据
参考回答:
默认8m不建议设置太大,会导致内存溢出。
setproject odps.sql.cfile2.field.maxsize=16384; 这个flag是用来项目级别限制每列字符串类型最大能写入的长度,单位为KB,默认8192(也就是8M),最大值262144。需要说明的是,String size在极端比较大的场景下,会有OOM问题的风险,所以是不建议设置比较大的值,目前设置到16384,是相对可控的
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/581677
问题三:大数据计算MaxCompute这样网络不同的情况该怎么解决 ?
大数据计算MaxCompute这样网络不同的情况该怎么解决 ?
参考回答:
数据源里面测试连通性,如果选择公共数据集成资源组,只能走公网链接。
建议采用独享数据集成资源组。至于公网配置看你数据源的数据库公网是多少。配置到数据源地址里面。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/580966
问题四:大数据计算MaxCompute报错了,是什么原因?
大数据计算MaxCompute报错了,是什么原因?
参考回答:
大数据计算 MaxCompute 报错的原因有很多,包括但不限于以下几种:
数据源连接错误。如果数据源连接错误,MaxCompute 无法访问数据源,就会报错。你可以检查数据源连接配置是否正确。
数据源权限不足。如果数据源权限不足,MaxCompute 无法访问数据源,就会报错。你可以检查数据源权限是否足够。
作业配置错误。如果作业配置错误,MaxCompute 无法运行作业,就会报错。你可以检查作业配置是否正确。
MaxCompute 服务异常。如果 MaxCompute 服务异常,MaxCompute 无法运行作业,就会报错。你可以检查 MaxCompute 服务是否正常。
你可以参考以下步骤来排查问题:
检查数据源连接配置是否正确。
检查数据源权限是否足够。
检查作业配置是否正确。
检查 MaxCompute 服务是否正常。
如果这四步都无法解决问题,你可以联系阿里云技术支持寻求帮助。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/580957
问题五:sql-flink中大数据计算MaxComputemy运行正常没有报错,为什么一条数据都没有进表里?
sql-flink-中大数据计算MaxComputemy运行正常没有报错,一条数据都没有进表里,是什么问题?
用的是自建的flink
在其中手动执行sql,maxcompute就有变化。但用mysql-cdc就一直不变, flink控制台也正常显示数据变化了。这种情况怎么回事?
参考回答:
SQL-Flink 运行正常没有报错,但一条数据都没有进表,可能有以下原因:
数据源问题。如果数据源连接配置错误,或者数据源本身存在问题,则可能导致数据无法写入表中。
SQL 语句问题。如果 SQL 语句存在语法错误,或者语句设计不合理,则可能导致数据无法写入表中。
Flink 运行环境问题。如果 Flink 运行环境配置错误,或者 Flink 本身存在问题,则可能导致数据无法写入表中。
可以参考以下步骤排查问题:
检查数据源连接配置是否正确,并确保数据源本身没有问题。
检查 SQL 语句是否存在语法错误,或者语句设计是否合理。
检查 Flink 运行环境配置是否正确,并确保 Flink 本身没有问题。
如果以上都无法解决问题,可以联系阿里云技术支持寻求帮助
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/580947