DataWorks中OSS ReaderORC或Parquet文件读取OSS?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
在DataWorks中,可以使用OSS Reader来读取OSS上的ORC或Parquet格式的文件。这种方式是复用HDFS Reader的方式来实现的,需要在OSS Reader的参数中增加Path和FileFormat等扩展配置参数,具体的参数含义可以参考HDFS Reader。
在DataWorks中,可以使用OSS Reader组件来读取OSS上的ORC或Parquet文件。OSS Reader是DataWorks提供的一种数据处理组件,它支持读取多种数据格式,包括ORC和Parquet。
在DataWorks中,可以通过OSS Reader组件读取ORC或Parquet文件。此组件是一个通用的数据源,可以将阿里云对象存储服务(OSS)中的各种格式数据加载到DataWorks中进行处理和分析。用户只需提供OSS Bucket和Object名称,即可快速访问和处理其中的ORC或Parquet文件。
目前通过复用HDFS Reader的方式完成OSS读取ORC或Parquet格式的文件,在OSS Reader已有参数的基础上,增加了Path、FileFormat等扩展配置参数,参数含义请参见HDFS Reader。以ORC文件格式读取OSS,示例如下。 {"stepType": "oss","parameter": {"datasource": "","fileFormat": "orc","path": "/tests/case61/orc__691b6815_9260_40379899**","column": [{"index": 0,"type": "long"},{"index": "1","type": "string"},{"index": "2","type": "string"}]}}以Parquet文件格式读取OSS,示例如下。{"stepType": "oss","parameter": {"datasource": "","fileFormat": "parquet","path": "/tests/case61/parquet","parquetSchema": "message test { required int64 int64_col;required binary str_col (UTF8);required group params (MAP) {repeated group key_value {required binary key (UTF8);required binary value (UTF8);}}required group params_arr (LIST) {repeated group list {required binary element (UTF8);}}required group params_struct {required int64 id;required binary name (UTF8);}required group params_arr_complex (LIST) {repeated group list {required group element {required int64 id;required binary name (UTF8);}}}requir
https://help.aliyun.com/document_detail/137726.html,此回答整理自钉群“DataWorks交流群(答疑@机器人)”
在DataWorks中,您可以通过复用HDFS Reader的方式来读取OSS中的ORC或Parquet文件。具体而言,您需要在OSS Reader的参数中添加Path和FileFormat等扩展配置参数。这些参数的具体含义可以参见HDFS Reader的帮助文档。
另外,您可以使用ORC和Parquet文件格式来存储大数据。这两种文件格式都可以将数据以二进制方式存储,因此无法直接读取。ORC文件包含多个stripe,每个stripe包含多条记录,这些记录按照列进行独立存储;而Parquet文件则是自解析的,包含了该文件的数据和schema。
总之,在DataWorks中,您可以使用HDFS Reader的方式来读取OSS中的ORC或Parquet文件。您可以参考HDFS Reader的帮助文档来了解如何设置相关参数。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。