【回答】
提供两种方式: 手动上传和 代码上传
手动上传,总共分5步:
1、进入dataworks网页进入数据开发页面,点击左侧的资源管理
2、点击左侧的上传按钮
3、输入附件别名和附件进行上传;
4、看到附件上传成功,新的附件显示出来
5、右键点击然后选择引用即可使用文件jar
代码上传
# -*- coding: utf-8 -*-
import pandas as pd
from odps import ODPS
from odps.df import DataFrame
o = ODPS(
access_id='********',
secret_access_key='***********',
project='**************',
endpoint='http://service.odps.aliyun.com/api'
)
#写入的时候是按照列名匹配的,所以对这个dataframe重命名
dewu_offline = pd.read_csv("./data/test.csv",sep='\t',header=0,
names=['order_no',
'sub_order_no',
'....' ])
dewu_offline_all = DataFrame(dewu_offline)
print(dewu_offline_all.head(5))
#如果这里是个非分区表
#dewu_offline_all.persist('tmp_shihuo_du_order_from_dewu_offline',odps=o)
dewu_offline_all.persist('tmp_shihuo_du_order_from_dewu_offline_all', partition='dt=20230511',odps=o,create_partition=True)
要将文件上传到ODPS集群上,可以通过以下几种方式:
1、使用ODPS提供的odpscmd命令行工具
安装odpscmd命令行工具
运行odpscmd命令行工具,使用“tunnel upload”命令上传文件
2、使用ODPS提供的DataWorks数据集成工具
在DataWorks中创建数据集成任务
配置数据源和目标表
选择上传文件的方式(例如上传到本地或HDFS)
配置上传的文件路径和文件名
3、使用Hadoop的hdfs命令行工具
连接到ODPS集群的Hadoop
使用hdfs命令上传文件到HDFS上
在ODPS上创建外部表,将外部表与上传的文件关联起来
以上是三种常见的将文件上传到ODPS集群的方法,根据实际情况选择适合自己的方式。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。