请问我今天从hive做一个数据离线集成,数据量是三千多万条,并发16分布式处理,跑了几乎6,7个小时,最后报错了 ERROR RetryUtil - Exception when calling callable. Exception Msg: javax.net.ssl.SSLException: Connection reset java.util.concurrent.ExecutionException: javax.net.ssl.SSLException: Connection reset;有没有什么好的解决方式呀?
建议配置一下defaultFS后 任务改用 "readMode":"hdfs"模式读取。当前任务使用jdbc方式读取 实际生效1并发(此答案整理自DataWorks交流群(答疑@机器人))
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。