Elastic-Job读取一批任务(1000个任务),有3台机器执行,分为9片,如果用SimpleJob处理,在execute()里面:0-2处理一种逻辑,3-5处理一种逻辑,6-8处理一种逻辑,框架会自动将读取的数据分片到这些逻辑里面处理吗?
这种先读取一批任务,然后不同逻辑处理的,是否用DataflowJob好一点?
是的,框架会自动读取分片,但需要业务代码根据获取到的分片调用相应的处理逻辑。
DataflowJob是用于处理数据的,不太适合这种场景,用SimpleJob就好,灵活些。
######你这1000个任务然道只有这3种逻辑吗?你说的这1000个任务应该指的是1000个不同的业务场景吧。每一个业务场景都分成9片均分到3台服务器吧?是吗?我的理解对吗。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。