开发者社区> 开发者小助手> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

【MaxCompute 常见问题】 安全管理

简介: MaxCompute可以对单个表授权吗? MaxCompute 提供了 ACL(基于对象)、跨项目数据分享和项目数据保护等多种授权方式。我们推荐您优先使用ACL 授权,而非 Policy(基于策略)授权。
+关注继续查看

安全管理


MaxCompute 权限、授权、白名单等相关问题


1.  MaxCompute中的权限粒度最小能到什么级别?

MaxCompute 通过基于标签的安全策略(LabelSecurity)实现用户对列级别敏感数据的访问。

LabelSecurity 是项目级别的一种强制访问控制策略。可以参考文档


2.  如何处理在 Datastudio 中屏显数据带***的问题?

DataStuido 界面左下角设置->工作空间配置->关闭启用页面查询内容脱敏。


3.  收集一个月内访问 MaxCompute 的用户,应该使用什么功能?

可以使用审计日志来查看,MaxCompute 完整地记录用户的各项操作行为,并通过阿里云 ActionTr ail 服务将用户行为日志实时推送给 ActionTrail。

注意 ActionTrail 默认只保留 15 天的数据,若需要长期保留需自行到 ActionTrail 上进行日志存储设置。参考文档


4.  如何查看成员用户 A,是否有对其它成员的授权权限?对其它成员的授权的权限管理的“客体(Object)”和“操作(Action)"是什么?

可以使用主账号或者拥有 MaxCompute 管理角色(super_administrator 或者 admin)的账号来给其他的子账号做授权操作。

MaxCompute使用 ACL 授权、授权一般涉及到三个要素,主体(Subject,可以是用户也可以是角色)、客体(Object)和操作(Action)介绍参考官方文档

MaxCompute 和 DataWorks 权限关系可以看本篇文档就很清晰了。


5.  MaxCompute可以对单个表授权吗?

MaxCompute 提供了 ACL(基于对象)、跨项目数据分享和项目数据保护等多种授权方式。我们推荐您优先使用ACL 授权,而非 Policy(基于策略)授权。可以使用ACL 授权,参考官网文档


6.  一般都是子账号登录使用 MaxCompute,是否有工具可以查到用户行为,如对表的增、删、改、查等操作?

可以通过审计日志功能和元数据功能配合使用,查到用户行为记录。可以参考本篇文章


7.  MaxCompute和 DataWorks 的权限关系?

通过 MaxCompute 的安全模型进行权限控制,并不会影响成员在 DataWorks 任何界面操作。而通过 DataWorks 的用户角色分配,则有可能影响成员 MaxCompute 资源权限。也可以通过视频来了解两者的关系。


8.  需要从 MaxCompute 数据导入到 mysql,但是受到数据保护,无法导出,如何解决?

可以通过关闭数据保护者配置 exception policy 来完成。


9.  如何赋予 MaxCompute 操作表的权限?

MaxCompute 可以通过授权式对其中的表、任务、资源等客体的某种操作权限,包括读、写、查看等。


10.  MaxCompute-VPC IP 白名单是否支持设置地址段?

支持,如:setproject odps.security.vpc.whitelist=cn-beijing_125179[100.116.0.0/16];可参考官方文档


>>快来点击免费下载《阿里云MaxCompute百问百答》了解更多详情!<<


版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
MaxCompute Spark 使用及常见问题|学习笔记
快速学习 MaxCompute Spark 使用及常见问题
0 0
【MaxCompute 常见问题】 UDF
查看资源信息 假设资源名称为 pyudf_test.py,在 odpscmd 客户端执行 desc resource pyudf_test.py;,或在 datastudio 中新建 SQL 节点后输入 desc resource pyudf_test.py;执行。
0 0
【MaxCompute 常见问题】 MaxCompute Spark
如何将开源 Spark 代码迁移到 Spark on MaxCompute?分以下三种情形: 作业无需访问 MaxCompute 表和 OSS。您的 Jar 包可直接运行,具体步骤请参见搭建开发环境。注意,对于 Spark 或 Hadoop 的依赖必须设成 provided。
0 0
【MaxCompute 常见问题】Tunnel SDK
使用 Tunnel SDK 上传数据时,上传的数据可以自动分配到各个分区吗? Tunnel SDK 上传数据时,是无法自动分配到各个分区的。每一次上传只支持将数据上传到一张表或表的一个分区,有分区的表一定要指定上传的分区,多级分区一定要指定到末级分区。
0 0
【MaxCompute 常见问题】 Java SDK
如何在 MaxCompute Java SDK 上使用 Logview 排错? MaxCompute Java SDK 提供了 Logview 接口 i = SQLTask.run(odps, sql); String logview = odps.logview().generateLogView(i, 7 * 24);
0 0
【MaxCompute 常见问题】 PyODPS
1. PyODPS数据类型如何设置? 如果您使用 PyODPS,可以通过下列方法打开新数据类型开关: 如果通过 execute_sql 方式打开新数据类型,可以执行 o.execute_sql('setodps.sql.type.system.odps2=true;query_sql', hints={"od ps.sql.submit.mode" : "script"})。 如果通过 Dataframe 打开新数据类型
0 0
【MaxCompute 常见问题】 SQL
请问删除表的所有数据 sql 怎么写? 可以通过删除(DROP)表达到数据删除目的。 非分区表可以通过 TRUNCATE TABLE table_name;语句清空表数据。 分区表可以通过 ALTER TABLE table_name DROP IF EXISTS PARTITION(分区名=‘具体分区值’)删除分区达到删除整个分区数据的目的。
0 0
【MaxCompute 常见问题】 元数据
通过数据源数据增量同步后,如何查看某一条数据具体被同步到MaxCompute 中的时间? 不支持,查看不了,可以看表元数据的 LastModifiedTime 时间,但具体某个记录看不到时间。
0 0
【MaxCompute 常见问题】 外部表
使用 OSS 外部表怎么样将多个小文件,输出为一个文件? 查看 Logview 日志,看 SQL 的执行计划,看最后一个是 Reducer 还是 Joiner, 如果是 Reducer 则设置参数为 set odps.stage.reducer.num=1, 如果是 Joiner,则设置为 set odps.stage.joiner.num =1。
0 0
【MaxCompute 常见问题】 内建函数
如何将 UNIX 时间转换为 MaxCompute 所需日期? 使用 MaxCompute 中的内建函数 FROM_UNIXTIME。此函数是将数字型的 UNIX 时间日期值 unixtime 转为日期值。
0 0
文章
问答
来源圈子
更多
开发者免费资源中心,技术电子书、会议PPT、论文资料持续供应中
+ 订阅
文章排行榜
最热
最新
相关电子书
更多
阿里云MaxCompute百问百答
立即下载
大数据处理-原理和MaxCompute实践
立即下载
MaxCompute重磅发布
立即下载