脚本中有个变量的,,现在单独放在资源组里面,赋值节点调用的时候能传参进去吗
可以的,在shell脚本设置了环境变量,如export LIBRARY_PATH=./lib/,执行了此脚本后, 在执行生成的可执行文件,提示错误 error while loading shared libraries: libww.so: cannot open shared object file: No such file or directory 但是如果把export那句话单独在命令行运行,在gcc编译代码后不会出现问题
是可以的,但是必须是标准版及以上版本的DataWorks才支持使用赋值节点,这里需要注意的是赋值节点(fuzhi_python、fuzhi_sql、fuzhi_shell)需将待赋值给下游的参数添加为节点上下文中的本节点输出参数,下游引用赋值参数的节点需将待引用的赋值参数添加为节点上下文中的本节点输入参数。其中部分数据开发节点,可直接在节点的上下游参数中手动添加赋值参数(outputs参数),无需通过赋值节点即可将参数透传给下游节点引用,另外关于添加赋值参数的操作详情参考文档:https://help.aliyun.com/document_detail/137553.htm,而关于赋值节点的其他使用疑问,可以参考文档:https://help.aliyun.com/document_detail/137534.html
可以的,单独放在资源组后,在调用的时候,需要指定到这个资源组,不然还是读取不到的,指定好后就可以读取了
一般的传参,可以先把参数配置到文件里面,然后读取文件内的数据,进行占位符的处理,这样可以把参数的数据值传入进去。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。