• 关于

    bucket数量

    的搜索结果

问题

OSS能否不限制bucket的数量,我们这种需求有别的处理方案吗?

我们的需求是,为我们的用户提供存储服务,用户数量不断增长,希望用户存储的文件有安全的隔离,我们想一个用户一个bucket,可以利用OSS中bucket的安全控制,但我们不想注册很多阿里云账号,并一个账号创建十个bucket,并管理不同最终用...
窗外有风 2019-12-01 20:02:50 3409 浏览量 回答数 6

问题

spark SQL 的bucketBy设置bucket数量

spark SQL 的bucketBy怎么设bucket数量比较好啊?感觉bucket少了join起来并发度太低,bucket多了又是一大堆小文件,有推荐值不?...
hbase小助手 2019-12-01 19:35:53 676 浏览量 回答数 1

问题

bucket数量问题

为什么需要限制bucket的数量? 业务上有需要图片打上不同的水印,分发的不同的bucket中,所以需要创建比较多的bucket...
gtspoon 2019-12-01 22:00:06 4856 浏览量 回答数 2

回答

4.1.2 Bucket          bucket是oss上的命名空间,每个bucket中可以存储任意数量的object ,但bucket本身并不直接包含任何数据。bucket相当于单机系统中的一块硬盘,而object相当于硬盘中存放的文件。         存储在oss上的每个object必须都包含在某个bucket中。bucket名在整个OSS系统中具有全局唯一性,且不能修改。如果一个bucket名已经被某个用户使用,那么其他用户都不能再使用这个bucket名。为了防止一个用户占用过多bucket名,oss限制一个用户最多可创建10个bucket。        一个应用,例如图片分享网站,可以使用一个或多个bucket。由于每个bucket中存放的object的数量和大小总和没有限制,用户无须考虑数据的可扩展性问题。        bucket的命名需要符合一下规范。        1.只能包括小写字母、数字和短横线“-”        2.必须以小写字母或者数字开头        3.长度必须在3~63字节。 ------------------------- 4.1.3 访问控制       OSS目前只提供bucket级别的权限访问控制,bucket有三种访问权限:public-read-write ,public-read 和 private ,他们的含义如下。       public-read-write:任何人(包括匿名访问)都可以对该bucket中的object进行put、Get和Delete操作。由于任何人都可以修改bucket中的object,且所有这些操作产生的费用都有bucket的创建者承担,所以需要审慎使用这以权限。       public-read:只有该bucket的创建者可以对该bucket内的object进行写操作(包括Put和Delete)。其他任何人(包括匿名访问)可以对该bucket中的object进行该操作(GET)。       private:只有该bucket的创建者可以对该bucket内的object基尼系那个读写操作(包括put、Delete和GET),其他人无法访问该bucket内的object。       用户创建一个新的bucket 时,如果不指定bucket 权限,oss会自动为该bucket设置private 权限。对于一个已经存在的bucket ,只有它的创建者可以修改该bucket 的权限。 ------------------------- 4.1.4 外链规则 ------------------------- 4.1.5 Access ID 和 Access Key ------------------------- 4.1.6 使用oss
asky8 2019-12-02 01:49:38 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档OSSCreateBucketRequest * create = [OSSCreateBucketRequest new];create.bucketName = @"<bucketName>";create.xOssACL = @"public-read";create.location = @"oss-cn-hangzhou";OSSTask * createTask = [client createBucket:create];[createTask continueWithBlock:^id(OSSTask *task) { if (!task.error) { NSLog(@"create bucket success!"); } else { NSLog(@"create bucket failed, error: %@", task.error); } return nil;}]; 上述代码在创建bucket时,指定了Bucket的ACL和所在的数据中心。 每个用户的Bucket数量不能超过30个。每个Bucket的名字全局唯一,也就是说创建的Bucket不能和其他用户已经在使用的Bucket同名,否则会创建失败。创建的时候可以选择Bucket ACL权限,如果不设置ACL,默认是private。创建成功结果返回Bucket所在数据中心。
2019-12-01 23:14:13 0 浏览量 回答数 0

回答

PhotoStore的相关限制 限制项 限制值 备注 单个账号允许创建的PhotoStore的数量 5个 NA 单个PhotoStore中允许的照片库(Library)的数量 无限制 NA 单个照片库中可以存放的照片数量 无限制 NA 单个照片库中可以建立的相簿数量 无限制 NA PhotoStore名称的限制 长度为6-32个字符;只支持数字和英文小写字母和连字符(-),其中连字符不能在开头和结尾 NA OSS Bucket的访问权限 必须为私有 为了安全起见,PhotoStore关联的OSS Bucket的访问权限必须为私有。如果用户在创建PhotoStore后自行将Bucket的访问权限修改为非私有,由此造成的数据泄露风险和损失由用户自行承担。 OSS Bucket的存储类型 标准存储 后续会逐步支持其他存储类型的Bucket PhotoStore中照片库的默认存储配额 5-2048GB 创建PhotoStore时,可指定该PhotoStore中的照片库的默认存储配额。
1934890530796658 2020-03-31 13:19:24 0 浏览量 回答数 0

问题

PhotoStore的相关限制

限制项限制值备注单个账号允许创建的PhotoStore的数量5个NA单个PhotoStore中允许的照片库(Library)的数量无限制NA单个照片库中可以存放的照片数量无限制NA单个照片库中可以建立的相簿数量无...
云栖大讲堂 2019-12-01 21:11:18 910 浏览量 回答数 0

问题

oos创建bucket失败提示To many buckets

我总共也就建了10个Bucket,oss对Bucket数量有限制嘛?那我要再创建得怎么办?...
省道 2019-12-01 21:35:26 1856 浏览量 回答数 2

问题

bucket数量不能超过30个吗

bucket数量不能超过30个吗...
martin-1120 2019-12-01 19:14:09 68 浏览量 回答数 1

问题

oss bucket数量只有30个

oss bucket数量只有30个,希望能放开限制...
1895711873493050 2019-12-01 18:59:23 241 浏览量 回答数 1

问题

bucket绑定的域名有没有数量限制?

oss的bucket绑定的域名有没有数量限制?...
墨白羽 2019-12-01 18:53:45 90 浏览量 回答数 1

回答

client版本的dict是 没有dictht的概念。加入dictht的概念存在2个ht的目的是为了在rehash的时候可以平滑的迁移bucket里的数据,而不像client 的dict要把老的hash table里的一次性的全部数据迁移到新的hash table,这在造成一个密集型的操作,在业务高峰期不可取。ht是hashtable的简称,实际上是一个指针数组,数组的个数由dictht->size决定,是 DICT_HT_INITIAL_SIZE的整数倍。每个元素(bucket)指向一个dictEntry的单链表来解决hash的conflict。查询某个key,需要先hash,定位到bucket,再通过链表遍历。key经过hash函数后,与dictht->sizemask求与均分到ht的每个bucket上。dictht->used表示这 个ht里包含的key的个数,也就是dictEntry的个数,每次dictAdd成功+1。链表的加入为头指针的方法加入,这样dictAdd更加的方 便。随着key不断的添加,bucket下的单链表越来越长,查找、删除效率越来越低,需要对ht进行expand,增加bucket个数,让链表的长度减少。bucket数量的增多,原有bucket的key需要迁移到新的bucket上,于是有了rehash的这个过程。ht[1]就是为了rehash而产生,新的ht size是ht[0]的两倍2, 随着dictAdd,dictFind函数的调用,ht[0]的每个bucket会rehash加入到ht[1]里。 dict->rehashidx 是ht[0] 需要rehash就是迁移到ht[1]的bucket的索引,从0开始直到ht->used==0。rehash除了每次伴随dictAdd,dcitFind而迁移一个bucket的所有dictEntry,还有一种一次hash100个bucket,直到消耗了某个时间点为止的做法。rehash的步骤:拿到一个bucket, 遍历这个链表的每个kv,对key进行hash然后于sizemask求与,定位ht[1]的新bucket位置,加入到链表,迁移后ht[0].used–,ht[1].used++。直到ht[0].used=0,释放ht[0]的table,再赋值ht[0]= ht[1],再把则ht[1]reset。rehash的期间:由于ht[1]是ht[0]size的2倍,每次dictAdd的时候都会rehash一次,不会出现后ht[1] 满了,而ht[0]还有数据的事情。查询会先查ht[0]再查询ht[1],在rehash的过程中,不会出现再次expand。新的key加到ht[1]。expand的条件:table的位置已经满了,糟糕的hash函数造成的skrew导致永远不会expand。key的个数除以table的大小,超过了dict_force_resize_ratio。
落地花开啦 2019-12-02 01:48:40 0 浏览量 回答数 0

问题

Android-SDK之如何实现管理Bucket?

Bucket 是 OSS 上的命名空间,也是计费、权限控制、日志记录等高级功能的管理实体;Bucket 名称在整个 OSS 服务中具有全局唯一性,且不能修改;存储在 OSS 上的每个 ...
青衫无名 2019-12-01 21:41:40 962 浏览量 回答数 0

问题

用oss做镜像想把一个网站放到Bucket下面的子目录里怎么实现?

用oss做镜像想把一个网站放到Bucket下面的子目录里怎么实现? Bucket 绑定的2级域名是 img.oss域名.com,回源地址是www.网站.com,但是我想把回源到Bucket下...
休闲 2019-12-01 21:58:39 4122 浏览量 回答数 3

回答

概述 1.1 媒体工作流的作用 媒体工作流支持截图、转码、转封装、水印、剪辑等功能,使您可以快速、灵活、按需搭建云端音视频处理流程;在媒体工作流开始执行和完成执行时,支持向指定的消息队列或消息通知发送工作流执行信息。具体包括以下功能:输入bucket路径,转码配置,截图配置,发布配置及消息通知配置。 消息服务检测到输入bucket路径中存在资源增量输入,就会触发媒体工作流中的转码或者截图任务进行转码及截图,对应的任务完成,如果您的输入配置中配置了消息服务的通知或者队列即会在工作流执行实例的开始和结束时通过消息服务发送消息供用户业务逻辑判断,而对应的转码或者截图结果将存储到工作流配置的输出bucket中。 1.2 媒体工作流配置流程 用户可以登陆控制台,在工作流管理中选择配置方案—>输入设置—>转码设置/截图设置/分析及转码设置—>发布设置—>配置cdn加速; 1 1.3 配置方案介绍 2 预置配置方案包括了:M3U8切片工作流,预置智能模板工作流,多码率多格式工作流,FLV多码率工作流,M3U8多码率工作流,MP4多码率工作流,以上工作流其实就是分析转码截图任务节点的组合,用户可以根据需求选择对应的组合或者自定义组合。 3 输入设置 2.1 输入设置基础设置 点击输入节点上的“铅笔”按钮—>进入输入配置页面—>选择输入bucket,转码管道,消息类别,填入输入路径,基础配置就完成了。 45 2.2 输入bucket设置 点击“选择”按钮可以进入到OSS文件管理页面,用户可以选择需求的bucket及bucket下的某个文件夹作为输入路径(文件夹选定后,会自动补全到输入路径的文本框中)。 6 输入bucket选择注意事项 在哪个区域新建工作流,对应的输入bucket也只能是对应区域的bucket,别的区域的bucket不能选择; 输入bucket中的可选择bucket,必须源自媒体bucket的输入bucket,媒体bucket如何添加,请看视频点播初始化设置文档; 输入路径是可编辑的,但注意目录的设置不需要以/结尾,如想存储资源到1目录下的2目录,那么对应的输入路径便为1/2/,而不是1/2; 目前工作流只支持在华东1,华东2,华北1,华南1 区域; 2.3 转码管道设置 转码管道,是处理转码作业的管道,选择对应的管道即可。关于管道的具体意义请参考:《视频点播的初始化设置》。 转码管道限制: 目前每个用户在每个服务可用域拥有1个管道; 每个管道可最多可容纳10000个排队作业; 每个管道最多可同时处理的作业不超过分配给该管道的转码资源数; 2.4 消息类别设置 其中消息类别分为:队列和通知。消息类别可以不进行设置。队列创建看【队列创建】; 通知创建看【通知创建】;队列与通知的区别请看【队列与通知的区别】;队列与通知的消息消费看【队列与通知的消息消费】;选择通知后,可以选择对应的通知名称,也可以增加通知。7选择队列后,可以选择对应的队列,也可以增加队列。8 转码设置 3.1 转码设置基础设置 点击转码按钮上的“铅笔”按钮—>进入基础配置页面—>选择转码模板,输出bucket,是否使用水印,填入输出路径,基础配置就完成了。1011 3.2 转码模板设置 点击选择按钮—>进入转码模板页面—>选择转码模板。转码模板分为预置静态模板及自定义模板。视频点播的转码模板源自媒体转码MTS的转码模板,也可以在视频点播初始化设置的时候添加。预置静态模板介绍看【预置静态模板】 12 转码模板选择注意事项 转码为不同的格式,建议选择转码模板,而不是转码封装模板,否则可能会有转码失败的可能。 3.3 输出bucket设置 点击选择按钮—>进入OSS文件管理页面—>选择输出bucket及对应的输出文件夹。13 输出bucket选择注意事项 在哪个区域新建工作流,对应的输出bucket也只能是对应区域的bucket,别的区域的bucket不能选择; 输出bucket中的可选择bucket,必须源自媒体bucket的输出bucket,媒体bucket如何添加,请看视频点播初始化设置文档; 输出路径是可编辑的,但注意目录的设置不需要以/结尾,如想存储资源到1目录下的2目录,那么对应的输出路径便为1/2/,而不是1/2; 目前工作流只支持在华东1,华东2,华北1和华南1 四个区域; 3.4 使用水印设置 水印设置是为用户的转码视频添加水印,用户可以选择对应的水印模板或者不使用水印。水印模板选择后,选择对应的水印图片—>进入OSS管理页面—>选择bucket中的图片。水印模板源自媒体转码MTS的水印模板,也可以在视频点播初始化设置的时候添加。14 注意: 水印图片所在bucket源自媒体bucket中的输出bucket。 4. 截图设置 4.1 截图设置基础设置 点击截图按钮上的“铅笔”标识—>进入截图页面—>选择是否进行多张截图,输出bucket,开始时间,是否设置为封面,是否截取关键帧,设置截图时间间隔,截图数量,输出路径,图片宽度,高度。1516 截图基础配置注意事项: 多张截图:表示是否开启多张截图,多张截图开启后,可以设置截图数量及截图间隔; 开始时间,表示从什么时间点开启截图,注意设置开始时间不要大于视频总时长,不然是不会截图的; 设置封面:表示对应的截图是否设置为封面,如果开启多张截图,默认第一张截图设置为封面; 关键帧:表示是否只截取关键帧的图片,截取非关键帧的图片,图片可能会存在模糊损坏的现象; 图片宽度高度表示截取图片的宽高; 4.1 输出bucket设置 点击选择按钮—>进入OSS文件管理页面—>选择输出bucket及对应的输出文件夹。17 输出bucket选择注意事项 在哪个区域新建工作流,对应的输出bucket也只能是对应区域的bucket,别的区域的bucket不能选择; 输出bucket中的可选择bucket,必须源自媒体bucket的输出bucket,媒体bucket如何添加,请看视频点播初始化设置文档; 输出路径是可编辑的,在选择bucket并选择文件夹后,对应的输出路径默认为:文件夹名称/ {RunId}/{SnapshotTime}/{Count}.jpg,{RunId}表示转码实例id, {SnapshotTime} 为截图时间点,单位为毫秒,此例中对视频第5秒截图,则变量取值为 5000,如果使用多张图片需要使用{Count}占位符,反之不需要; 目前工作流只支持在华东1,华东2,华北1和华南1 四个区域; 5. 分析/转码设置 5.1 分析/转码设置基础设置 点击转码按钮上的“铅笔”标识—>进入基础配置页面—>选择转码模板,输出bucket,是否使用水印,填入输出路径,基础配置就完成了。1819 5.2 转码模板设置 点击选择按钮—>进入转码模板页面—>选择转码模板。转码模板为预置智能模板,对应的转码任务要生效,得转码之前的分析作业执行后,分析得到到适用该视频的转码模板包含了转码设置中选择的模板,对应的转码任务才能执行,否则是不会执行,在执行实例中出现“跳过”的图示结果。预置智能模板介绍看【预置智能模板介绍】;如果想转码任务一定执行,请直接添加转码任务,不要加分析/转码任务并且使用MTS静态模板,不要使用MTS智能模板。 20 转码模板选择注意事项 转码为不同的格式,建议选择转码模板,而不是转码封装模板 5.3 输出bucket设置 点击选择按钮—>进入OSS文件管理页面—>选择输出bucket及对应的输出文件夹。21 输出bucket选择注意事项 在哪个区域新建工作流,对应的输出bucket也只能是对应区域的bucket,别的区域的bucket不能选择; 输出bucket中的可选择bucket,必须源自媒体bucket的输出bucket,媒体bucket如何添加,请看视频点播初始化设置文档; 输出路径是可编辑的,但注意目录的设置不需要以/结尾,如想存储资源到1目录下的2目录,那么对应的输出路径便为1/2/,而不是1/2; 目前工作流只支持在华东1,华东2,华北1和华南1 四个区域; 5.4 使用水印设置 水印设置是为用户的转码视频添加水印,用户可以选择对应的水印模板或者不使用水印。水印模板选择后,选择对应的水印图片—>进入OSS管理页面—>选择bucket中的图片。水印模板源自媒体转码MTS的水印模板,也可以在视频点播初始化设置的时候添加。22 注意: 水印图片所在bucket源自媒体bucket中的输出bucket。 6. 发布设置 点击发布边上的铅笔按钮—>进入发布页面—>选择媒体发布类型,基础配置就完成了。媒体发布类型分为自动及手动,默认为手动。2324 发布设置注意事项: 自动与手动的区别为:自动表示工作流处理后生成的object的acl 为default状态,这个状态表示object的权限继承自bucket的权限,当bucket是公共读的时候,object的acl 也是公共读,bucket私有,object acl 也是私有的;手动表示工作流处理后生成的object的acl为私有的,必须通过鉴权才能访问该object资源; 已有的媒体视频要修改发布状态,可以在媒体库中点击发布,进行发布;25 7. 配置cdn加速 点击下一步按钮—>进入配置内容分发网络(CDN)页面—>如果不存在cdn域名就点击添加,快速添加点播加速域名。26 注意:只有在新建工作流配置中有cdn 域名,对应转码输出后的资源才会带cdn域名地址的链接,如果当时创建工作流不存在CDN域名,之后在bucket中手动绑定域名并进行加速,这样的域名是不会在输出媒体地址中显示的。27
保持可爱mmm 2020-03-30 11:56:10 0 浏览量 回答数 0

问题

需要删除某一bucket, 但该bucket下文件数量较多

...
2019-12-01 18:43:28 286 浏览量 回答数 1

回答

我先来提一些需求 1.list_buckets的同时返回acl属性(提供批量acl接口),批量get_bucket_acl将消耗与BUCKET数量相等的请求。 2.在国外(主要是欧、美)设前端,优化服务器在国外的应用使用OSS的速度。 3.用户的key的启用、禁用、访问权限可以指派到具体某个bucket,便于同账户不同应用权限分离。 (不同应用一般BUCKET是分开的,但为管理、结算方便都在同一账户下创建BUCKET)。 ------------------------- 回 6楼(liming837) 的帖子 PHPWind是阿里云官方的市场,其实阿里云论坛早实现了整合OSS。 只是他们迟迟没发布而已。
enj0y 2019-12-01 23:29:40 0 浏览量 回答数 0

问题

iOS-SDK之如何实现 管理Bucket?

创建bucket OSSCreateBucketRequest * create = [OSSCreateBucketRequest new];create.bucketName = @"<buc...
青衫无名 2019-12-01 21:42:30 1060 浏览量 回答数 0

回答

OSS Object Storage Service 阿里云对象存储 媒体处理服务对用户存储于OSS的媒体文件进行转码,并将转码输出文件保存在MediaBucket中或者OutputBucket中。 Bucket OSS Bucket OSS Bucket 遵守OSS Bucket定义,只能包括小写字母,数字和短横线(-),必须以小写字母或者数字开头,长度必须在3-255字节之间。 Location OSS Location OSS 数据中心 遵守OSS Location定义。 Object OSS Object OSS Object 遵守OSS Object定义,使用UTF-8编码,长度必须在1-1023字节之间,不能以“/”或者“\”字符开头。 LocalFile Local File 本地媒体文件 用户本地存储的媒体文件,还没有上传到OSS。 Input Job Input 作业输入 作业输入,包括InputFile以及其它一些转码作业输入配置参数 InputFile Input File 输入文件 本地文件上传到OSS后,就转变成一个输入文件。 Output Job Output 作业输出配置 作业输出配置由模板ID、水印列表、OutputFile、输出文件等属性构成。 OutputFile Output File 输出文件 作业输出文件,存储于OSS上,由OutputLocation、OutputBucket、OutputObject唯一标识一个输出文件。 OutputBucket Output Bucket 转码输出Bucket 用户指定的转码输出Bucket,“OSS文件转码流程”中提交作业时需要指定的参数,用户必须通过媒体处理服务的控制台资源管理页面的Bucket授权频道授予OutputBucket给媒体处理服务有写权限。 OutputLocation Output Location 转码输出Bucket所在的OSS Location 转码输出Bucket所在的数据中心,“OSS文件转码流程”中提交转码作业时可以指定的参数。 Template Transcode Template 自定义模板 自定义模板是指用户自行定义转码参数的转码模板,它是转码参数(音频、视频、容器等)的集合。每个自定义模板有一个唯一ID。 PresetTemplate Preset Transcode Template 预置模板 预置模版是媒体处理服务内置的智能转码模板,能根据输入文件的特点动态调整转码设置,从而为用户提供在一定带宽条件下的最优转码输出。由于输入文件本身有差异(分辨率、码率等),不一定所有的预置模板都适合于该输入文件。输入文件的转码使用预置模板时,需要调用“提交模板分析作业”接口(SubmitAnalysisJob)来触发模板分析;调用“查询模板分析作业”接口(QueryAnalysisJobList)来获取该输入文件可用的预置模板列表。媒体转码服务支持的预置模板详见附录 预置模板。 WaterMarkTemplate WaterMark Template 水印模板 水印包括两部分参数:水印内容为可变参数;水印位置、偏移量、大小等为相对稳定的参数;相对稳定的参数构成水印模板,每个水印模板有一个唯一的ID。 Job Transcode Job 转码作业 转码作业,一个转码作业由一路输入及一路输出构成,作业会被加入到管道中,管道中的作业会被调度引擎调度到转码系统进行转码。 AnalysisJob Analysis Job 预置模板分析作业 预置模板分析作业由输入文件及分析配置构成,分析得到可用的预置模板。 SnapshotJob Snapshot Job 截图作业 截图作业由输入文件及截图配置构成,得到输入文件按截图配置截取的图片。 MediaInfoJob MediaInfo Job 媒体信息作业 媒体信息作业需指定输入文件,得到输入文件的媒体信息。 Pipeline Job pipeline 管道 管道是一作业队列,转码作业加入到管道中,才会被媒体处理服务调度到转码执行;如果管道中作业数量过多,会排队等待。管道有激活、暂停两种状态;管道被暂停时,媒体转码服务不再调度此管道中的作业执行转码,直到管道被重新激活为止,已经在执行转码的作业不受影响。 MediaRepository Media Repository 媒体库 所有媒体的集合。 Media Media Resource 媒体 媒体是媒体库的最小管理单元。包含一个输入(视频/音频的多媒体文件)和相关的所有输出(例如,转码/截图)。由MediaId唯一标识,并且多媒体输入文件和媒体是一一对应的。 MediaWorkflow Media Workflow 媒体工作流 媒体工作流是生产媒体的工厂。从输入媒体Bucket的多媒体文件开始,执行自定义的处理流程,把处理结果存储到输出媒体Bucket。由MediaWorkflowId唯一标识。 Activity Media Workflow Activity 媒体工作流活动 媒体工作流的组成单位。媒体工作流的处理流程实际是一个有向无环的拓扑图,图中的每个节点叫活动,支持的活动有:转码、截图、元信息获取等。每个媒体工作流中的活动有唯一的名字标识。 MediaWorkflowExecution Media Workflow Execution Instance 媒体工作流执行实例 媒体工作流的每次执行叫媒体工作流执行实例。由实例执行的Id(RunId)唯一标识。 MediaBucket Media Bucket 媒体Bucket 媒体库关联多个媒体Bucket,所有媒体相关的文件都保存在媒体Bucket中。媒体Bucket又分为输入媒体bucket和输出媒体bucket,输入和输出之间不能重叠,必须是独立的OSS Bucket。 InputMediaBucket Input Media Bucket 输入媒体Bucket 在输入媒体Bucket中新增的多媒体文件,会自动加入媒体库,如果匹配了媒体工作流的输入条件,会自动触发媒体工作流的执行。 OutputMediaBucket Output Media Bucket 输出媒体Bucket 存储媒体工作流处理后的输出文件。
保持可爱mmm 2020-03-30 10:28:49 0 浏览量 回答数 0

回答

ConvertOfficeFormat 该接口实现 OFFICE 文档格式的转换,用于文档打印、预览等场景。 它采用 同步请求 方式执行,执行完毕返回转换成功的页数。注意,同步转换超时时间为 5秒,如果大于 5秒 的转换需要使用异步接口 CreateOfficeConversionTask 。 请求参数 名称 类型 是否必填 描述 Project String 是 项目名 Action String 是 ConvertOfficeFormat SrcUri String 是 源数据的存储位置, OSS 资源采用如下格式”oss://bucket1/object” SrcType String 否 源数据的后缀类型,当前文档转换根据 OSS 对象的后缀名来确定源数据类型,当 OSS 对象没有后缀名时,可以设置该值 TgtType String 是 转换输出目标文件类型: vector,转成向量文件,需要使用 js 引擎来进行渲染 png,转成 png 格式的图片文件 jpg,转成 jpg 格式的图片文件 pdf,转成 pdf 文件 text,转成只包含文本内容的文件,主要用来提取文件的文本内容,注意只支持演示和表格文件类型 TgtUri String 是 转换输出内容到目标位置,建议 TgtUri 和 SrcUri 在同一个桶,便于权限管理 例如 OSS 桶的指定前缀”oss://bucket1/converttasks/session123/“ Password String 否 Office 文档的打开密码,如果需要转换有密码的文档,请设置该字段 StartPage int 否 从第 x 页开始转换,默认为1 EndPage int 否 转换至第 x 页,默认为200,如果需要转换全部页,设置为-1 MaxSheetRow int 否 表格文件转换最大行数,默认为1000。如果需要转换所有行,设置为-1 MaxSheetCol int 否 表格文件转换最大列数,默认为100,如果需要转换所有行,设置为-1 MaxSheetCount int 否 表格文件转换最多 sheet 数,如果需要转换所有Sheet,设置为-1 FitToPagesTall bool 否 表格文件转 pdf 时,将行全部输出到一页,默认为 false,只有设置 TgtType 为 pdf 时才会生效 FitToPagesWide bool 否 表格文件转 pdf 时,将列全部输出在一页,默认为 false,只有设置 TgtType 为 pdf 时才会生效 TgtFilePrefix String 否 转换后的文件名称前缀,在目标类型为 jpg, png, pdf 时才生效,可以是英文,数字,横划线,下划线,长度不超过256个字符,参考自定义目标文件名称 TgtFileSuffix String 否 转换后的文件名称后缀,在目标类型为 jpg, png, pdf 时才生效,可以是英文,数字,横划线,下划线,点号,长度不超过256个字符,参考自定义目标文件名称 TgtFilePages String 否 转换后输出指定文件页数,在目标类型为 jpg, png, pdf时才生效,默认输出所有页。例如:[1, 2, 100],只会输出1,2,100页到 TgtUri,最多指定100个页数,如果超过100页,请分多次转换进行提交 PdfVector bool 否 pdf 转换成 vector 时,是否使用向量模式,默认为 false true:使用向量模式,预览效果比较清晰,转换耗时较长 false:使用图片模式,预览效果一般,转换耗时较短 Hidecomments bool 否 word, ppt 转换成 vector, jpg, png 时,是否隐藏批注和应用修订,默认为 false true:隐藏批注,应用修订 false:显示批注和修订 DisplayDpi int 否 转换 jpg,png 时,设置图片分辨率,取值范围[96, 2048] 目前支持的 输入文件类型 包含如下 48 种格式: 演示文件:pptx、ppt、pot、potx、pps、ppsx、dps、dpt、pptm、potm、ppsm。 表格文件:xls、xlt、et、ett、xlsx、xltx、csv、xlsb、xlsm、xltm。 文字文件:doc、dot、wps、wpt、docx、dotx、docm、dotm。 其他格式文件: pdf、 lrc、 c、 cpp、 h、 asm、 s、 java、 asp、 bat、 bas、 prg、 cmd、 rtf、 txt、 log、 xml、 htm、 html。 目前支持的 输出文件类型 有如下 4 种: vector 向量模式,使用智能媒体管理产品提供的 前端渲染引擎,更好的支持翻页、缩放。 jpg 模式,按文件样式每页生成一张 jpg 图片。 png 模式,按文件样式每页生成一张 png 图片。 pdf 模式,每个文件生成一个 pdf 文件。 text 模式,按文件样式每页生成一个 text 文件 返回参数 名称 类型 描述 RequestId String 用户发送的每次接口调用请求,无论成功与否,系统都会返回一个唯一识别码 RequestId 给用户 PageCount Integer 转换成功的页数 基于TgtUri返回TgtLoc,在OSS对象存储中的命名规则 基于 TgtUri 参数指定的前缀,比如/bucket1/imm-format-convert-tgt/session123/,根据转换目标类型的不同,那么生成的目标文件也有所不同: 目标类型为 vector 时 如果源文件为非 excel 类型 /bucket1/imm-format-convert-tgt/session123/doc/meta.json /bucket1/imm-format-convert-tgt/session123/doc/fp1.json /bucket1/imm-format-convert-tgt/session123/doc/fp2.json /bucket1/imm-format-convert-tgt/session123/doc/fp[...].json /bucket1/imm-format-convert-tgt/session123/doc/I/1 /bucket1/imm-format-convert-tgt/session123/doc/I/2 /bucket1/imm-format-convert-tgt/session123/doc/I/[...] 如果源文件为 excel 类型 /bucket1/imm-format-convert-tgt/session123/doc/meta.json /bucket1/imm-format-convert-tgt/session123/doc/s1/meta.json /bucket1/imm-format-convert-tgt/session123/doc/s1/fp1.json /bucket1/imm-format-convert-tgt/session123/doc/s1/fp2.json /bucket1/imm-format-convert-tgt/session123/doc/s1/fp[...].json /bucket1/imm-format-convert-tgt/session123/doc/s2/meta.json /bucket1/imm-format-convert-tgt/session123/doc/s2/fp1.json /bucket1/imm-format-convert-tgt/session123/doc/s2/fp2.json /bucket1/imm-format-convert-tgt/session123/doc/s2/fp[...].json /bucket1/imm-format-convert-tgt/session123/doc/s[...] /meta.json /bucket1/imm-format-convert-tgt/session123/doc/s[...]/fp1.json /bucket1/imm-format-convert-tgt/session123/doc/s[...]/fp2.json /bucket1/imm-format-convert-tgt/session123/doc/s[...]/fp[...].json 注意:vector 模式需要使用特定的 js 引擎进行渲染。 目标类型为 jpg 时 如果源文件为非 excel 类型 /bucket1/imm-format-convert-tgt/session123/1.jpg /bucket1/imm-format-convert-tgt/session123/2.jpg /bucket1/imm-format-convert-tgt/session123/[...].jpg 如果源文件为 excel 类型 /bucket1/imm-format-convert-tgt/session123/s1/1.jpg /bucket1/imm-format-convert-tgt/session123/s1/2.jpg /bucket1/imm-format-convert-tgt/session123/s1/[...].jpg /bucket1/imm-format-convert-tgt/session123/s2/1.jpg /bucket1/imm-format-convert-tgt/session123/s2/2.jpg /bucket1/imm-format-convert-tgt/session123/s2/[...].jpg /bucket1/imm-format-convert-tgt/session123/s[...]/1.jpg /bucket1/imm-format-convert-tgt/session123/s[...]/2.jpg /bucket1/imm-format-convert-tgt/session123/s[...]/[...].jpg 注意:源文件为 excel 类型时,会先根据 excel 的表格数,生成对应数量的文件夹,再在对应的文件夹下,生成对应数量的 jpg 文件 目标类型为 png 时 如果源文件为非 excel 类型 /bucket1/imm-format-convert-tgt/session123/1.png /bucket1/imm-format-convert-tgt/session123/2.png /bucket1/imm-format-convert-tgt/session123/[...].png 如果源文件为 excel 类型 /bucket1/imm-format-convert-tgt/session123/s1/1.png /bucket1/imm-format-convert-tgt/session123/s1/2.png /bucket1/imm-format-convert-tgt/session123/s1/[...].png /bucket1/imm-format-convert-tgt/session123/s2/1.png /bucket1/imm-format-convert-tgt/session123/s2/2.png /bucket1/imm-format-convert-tgt/session123/s2/[...].png /bucket1/imm-format-convert-tgt/session123/s[...]/1.png /bucket1/imm-format-convert-tgt/session123/s[...]/2.png /bucket1/imm-format-convert-tgt/session123/s[...]/[...].png 注意:源文件为 excel 类型时,会先根据 excel 的表格数,生产对应数量的文件夹,再在对应的文件夹下,生成对应数量的 png 文件 目标类型为 pdf 时 /bucket1/imm-format-convert-tgt/session123/1.pdf 注意:转换 pdf 时,无论源文件是什么类型,都只会生成一个 pdf 文件 目标类型为 text 时 /bucket1/imm-format-convert-tgt/session123/1.text /bucket1/imm-format-convert-tgt/session123/2.text /bucket1/imm-format-convert-tgt/session123/[...].text 注意:只支持演示类型和文字类型的源文件 重复请求处理 基于幂等性的要求, 两次相同操作以最后执行的请求为准。 如果两次执行操作的内容相同或者重复请求(内容相同,SignatureNonce 也相同),并且系统已经存在该任务,则后续的请求直接返回成功,避免消耗计算资源做相同的任务。 转换生成目标文件 生成的目标文件会持久化保存,推荐为某个桶下的 /imm-format-convert-tgt/${name} 路径,从而便于维护管理。 您可以主动删除转换后的目标文件,如果不主动删除则会长期保留以备使用,但是会占用存储空间。如果希望自动的删除目标文件,您也可以在 /imm-format-convert-tgt 前缀下配置 OSS 的生命周期,这样目标文件在到期后,会根据策略被清除。 自定义目标文件名称 当前文档转换通过设置 TgtFilePrefix 和 TgtFileSuffix 来支持自定义文件名称 假设 TgtType 为 jpg,则目标文件名称规则如下: TgtFilePrefix 和 TgtFileSuffix 都为空的条件下,目标文件名称为:[x].jpg TgtFilePrefix 为空,TgtFileSuffix 为 aa,则目标文件名称为:[x]aa TgtFilePrefix 为 aa,TgtFileSuffix 为空,则目标文件名称为:aa[x] TgtFilePrefix 为 aa,TgtFileSuffix 为 bb,则目标文件名称为:aa[x]bb 备注:[x] 表示多个目标文件,从1开始,如果转换后的文件有8页,则所有的目标文件为: aa[1]bb, aa[2]bb, …, aa[8]bb 示例 请求示例 POST https://imm.cn-shanghai.aliyuncs.com ?Action=ConvertOfficeFormat &Project=test &SrcUri="oss://bucket1/test.pptx" &TgtType=vector &TgtUri="oss://bucket1/imm-format-convert-tgt/session123/" ... 此处的示例,目的是展示关键参数,还需要其他的公共参数才能正常调用,推荐使用 SDK 来发送 API。 成功返回示例 { "RequestId": "FF3B7D81-66AE-47E0-BF69-157DCF187514", "PageCount": 10 } 特殊错误码 如果转换出错,在返回的 JSON 中会包含如下字段 { "RequestId": "7DA1FCD1-004C-4EB4-B039-C6BBDCEB0701", "HostId": "imm.cn-shanghai.aliyuncs.com", "Code": "DocumentConvertFailed.NeedPassword", "Message": "The conversion has been failed, need password to open file." } 错误代码 说明 OSSAccessError OSS 访问失败,请检查 SrcUri,TgtUri 对应的 bucket,路径是否存在,所在 Region 是否和 IMM Region 一致 InvalidParameter.SrcType.NotSupported 不支持的文件类型,当前文档转换根据文件后缀名来判断文件类型,请检查文件后缀名,SrcType 参数 DocumentConvertFailed.ExceedFileSizeLimit 当前文档转换默认支持 40 MB 文件大小,超过该大小的文件转换时会抛出该错误 DocumentConvertFailed.OpenFileError 转换时,打开文件失败,请检查源文档后缀和内容是否匹配 DocumentConvertFailed.ExportFileError 转换时,处理文件内容失败,请检查源文档是否能够正常打开 DocumentConvertFailed.NeedPassword 该文档需要密码才能打开,请设置 Password 参数 ExecutionTimeout 执行超时,请检查文档大小,页数,如果确实需要转换,请使用异步接口 CreateOfficeConversionTask InternalError 内部错误,请开工单并提供 RequestId
1934890530796658 2020-03-31 12:46:55 0 浏览量 回答数 0

问题

如何将云端灾难恢复

前往 工作流程→建立云端整合卷→执行 选择设备 在下拉式选项中选择一个已连接的设备。 新增云端供应商 若要取得bucket信息,系统需要云端供应商存取权限。选择云端供应商,输入身份信息后点击从...
云栖大讲堂 2019-12-01 21:16:16 1162 浏览量 回答数 0

问题

如何一次性获取bucket里超过1000个的object?

我的一个bucket里包括文件和文件夹的数量超过1000,那么如何一次性都让他们显示出来?还有就是listObjectRequest的setMarker()的用法。谢谢...
soccer 2019-12-01 21:53:21 4175 浏览量 回答数 2

回答

步骤 1: 路径 工作流程 > 建立云端整合卷 > 执行 步骤 2: 选择设备 在下拉式选项中选择一个已连接的设备。 步骤 3: 新增云端供应商 若要取得bucket信息,系统需要云端供应商存取权限。选择云端供应商,输入身份信息后点击从云端获得bucket信息。 此时会列出bucket信息。使用者可有点击预览按键看到详细的bucket信息。 Bucket预览画面将显示中卷的信息。可以点击箭头来查看卷的快照。 步骤 4: 设定存储池 选择一个现有的存储池或新增。灾难恢复过程中将会建立新的卷,此卷将会从存储池获取空间。而后快照镜像会写入此卷。 存储池名称:预设的存储池名称为“存储池”加上索引码。例如存储池-1和存储池-2。可以依照喜好做修正。 存储分层/分层索引:停用或启用。 RAID等级:选择保护资料的RAID等级,可适用的RAID等级取决于硬盘数量。 RAID等级 最小硬盘数量 RAID 0 1 RAID 1 2 RAID 3 3 RAID 5 3 RAID 6 4 写入原则 指定写入原则:预设、写回、写透。 预设:写入原则取决于控制器的缓存模式和事件触发机制。 写回:在写入缓存后,被视为写入完成。 写透:在写入磁盘后才被视为写入完成。选择写透可增强数据保护,但会降低性能。 分配:指定新存储池所属的控制器插槽。 条带大小:指定阵列条带大小。若不确定修改过后是否可增强性能,请不要变更此数据。 SED安全:指定要以SED(自加密硬盘)安全保护的磁盘成员。在启用这个选项之前,需满足以下条件 已建立SED安全认证密钥 所有硬盘支持SED安全 步骤 5: 设定卷 可以选择原选定bucket中的所有数据,或选择特定卷。
1934890530796658 2020-03-30 16:56:38 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档通过Bucket.ListObjects来列出当前Bucket下的文件。主要的参数如下: 参数 说明 Delimiter 用于对Object名字进行分组的字符。所有名字包含指定的前缀且第一次出现delimiter字符之间的object作为一组元素CommonPrefixes Prefix 限定返回的object key必须以prefix作为前缀。注意使用prefix查询时,返回的key中仍会包含prefix MaxKeys 限定此次返回object的最大数,如果不设定,默认为100,max-keys取值不能大于1000 Marker 设定结果从marker之后按字母排序的第一个开始返回 提示: ListObjects的示例代码在sample/list_objects.go 使用默认参数获取存储空间的文件列表,默认返回100条Object import "fmt" import "github.com/aliyun/aliyun-oss-go-sdk/oss" client, err := oss.New("Endpoint", "AccessKeyId", "AccessKeySecret") if err != nil { // HandleError(err) } bucket, err := client.Bucket("my-bucket") if err != nil { // HandleError(err) } lsRes, err := bucket.ListObjects() if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects) 指定最大返回数量,最多不能超过1000条 lsRes, err := bucket.ListObjects(oss.MaxKeys(200)) if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects) 返回指定前缀的Object,默认最多返回100条 lsRes, err := bucket.ListObjects(oss.Prefix("my-object-")) if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects) 指定从某个Object(my-object-xx)后返回,默认最多100条 lsRes, err := bucket.ListObjects(oss.Marker("my-object-xx")) if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects) 分页获取所有Object,每次返回200条 marker := oss.Marker("") for { lsRes, err := bucket.ListObjects(oss.MaxKeys(200), marker) if err != nil { HandleError(err) } marker = oss.Marker(lsRes.NextMarker) fmt.Println("Objects:", lsRes.Objects) if !lsRes.IsTruncated { break } } 分页所有获取从特定Object后的所有的Object,每次返回50条 marker = oss.Marker("my-object-xx") for { lsRes, err := bucket.ListObjects(oss.MaxKeys(50), marker) if err != nil { // HandleError(err) } marker = oss.Marker(lsRes.NextMarker) fmt.Println("Objects:", lsRes.Objects) if !lsRes.IsTruncated { break } } 分页所有获取指定前缀为的Object,每次返回80个。 prefix := oss.Prefix("my-object-") marker := oss.Marker("") for { lsRes, err := bucket.ListObjects(oss.MaxKeys(80), marker, prefix) if err != nil { // HandleError(err) } prefix = oss.Prefix(lsRes.Prefix) marker = oss.Marker(lsRes.NextMarker) fmt.Println("Objects:", lsRes.Objects) if !lsRes.IsTruncated { break } } 模拟目录结构 OSS是基于对象的存储服务,没有目录的概念。存储在一个Bucket中所有文件都 是通过文件的key唯一标识,并没有层级的结构。这种结构可以让OSS的存储非常 高效,但是用户管理文件时希望能够像传统的文件系统一样把文件分门别类放到 不同的“目录”下面。通过OSS提供的“公共前缀”的功能,也可以很方便地模拟目录 结构。公共前缀的概念请参考 列出Object 。 假设Bucket中已有如下文件: foo/x foo/y foo/bar/a foo/bar/b foo/hello/C/1 foo/hello/C/2 通过ListObjects,列出指定目录下的文件和子目录: lsRes, err := bucket.ListObjects(oss.Prefix("foo/"), oss.Delimiter("/")) if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects,"SubDir:", lsRes.CommonPrefixes) 结果中lsRes.Objects为文件,包括foo/x、foo/y;lsRes.CommonPrefixes即子目录,包括foo/bar/、foo/hello/。
2019-12-01 23:14:52 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档通过Bucket.ListObjects来列出当前Bucket下的文件。主要的参数如下: 参数 说明 Delimiter 用于对Object名字进行分组的字符。所有名字包含指定的前缀且第一次出现delimiter字符之间的object作为一组元素CommonPrefixes Prefix 限定返回的object key必须以prefix作为前缀。注意使用prefix查询时,返回的key中仍会包含prefix MaxKeys 限定此次返回object的最大数,如果不设定,默认为100,max-keys取值不能大于1000 Marker 设定结果从marker之后按字母排序的第一个开始返回 提示: ListObjects的示例代码在sample/list_objects.go 使用默认参数获取存储空间的文件列表,默认返回100条Object import "fmt" import "github.com/aliyun/aliyun-oss-go-sdk/oss" client, err := oss.New("Endpoint", "AccessKeyId", "AccessKeySecret") if err != nil { // HandleError(err) } bucket, err := client.Bucket("my-bucket") if err != nil { // HandleError(err) } lsRes, err := bucket.ListObjects() if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects) 指定最大返回数量,最多不能超过1000条 lsRes, err := bucket.ListObjects(oss.MaxKeys(200)) if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects) 返回指定前缀的Object,默认最多返回100条 lsRes, err := bucket.ListObjects(oss.Prefix("my-object-")) if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects) 指定从某个Object(my-object-xx)后返回,默认最多100条 lsRes, err := bucket.ListObjects(oss.Marker("my-object-xx")) if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects) 分页获取所有Object,每次返回200条 marker := oss.Marker("") for { lsRes, err := bucket.ListObjects(oss.MaxKeys(200), marker) if err != nil { HandleError(err) } marker = oss.Marker(lsRes.NextMarker) fmt.Println("Objects:", lsRes.Objects) if !lsRes.IsTruncated { break } } 分页所有获取从特定Object后的所有的Object,每次返回50条 marker = oss.Marker("my-object-xx") for { lsRes, err := bucket.ListObjects(oss.MaxKeys(50), marker) if err != nil { // HandleError(err) } marker = oss.Marker(lsRes.NextMarker) fmt.Println("Objects:", lsRes.Objects) if !lsRes.IsTruncated { break } } 分页所有获取指定前缀为的Object,每次返回80个。 prefix := oss.Prefix("my-object-") marker := oss.Marker("") for { lsRes, err := bucket.ListObjects(oss.MaxKeys(80), marker, prefix) if err != nil { // HandleError(err) } prefix = oss.Prefix(lsRes.Prefix) marker = oss.Marker(lsRes.NextMarker) fmt.Println("Objects:", lsRes.Objects) if !lsRes.IsTruncated { break } } 模拟目录结构 OSS是基于对象的存储服务,没有目录的概念。存储在一个Bucket中所有文件都 是通过文件的key唯一标识,并没有层级的结构。这种结构可以让OSS的存储非常 高效,但是用户管理文件时希望能够像传统的文件系统一样把文件分门别类放到 不同的“目录”下面。通过OSS提供的“公共前缀”的功能,也可以很方便地模拟目录 结构。公共前缀的概念请参考 列出Object 。 假设Bucket中已有如下文件: foo/x foo/y foo/bar/a foo/bar/b foo/hello/C/1 foo/hello/C/2 通过ListObjects,列出指定目录下的文件和子目录: lsRes, err := bucket.ListObjects(oss.Prefix("foo/"), oss.Delimiter("/")) if err != nil { // HandleError(err) } fmt.Println("Objects:", lsRes.Objects,"SubDir:", lsRes.CommonPrefixes) 结果中lsRes.Objects为文件,包括foo/x、foo/y;lsRes.CommonPrefixes即子目录,包括foo/bar/、foo/hello/。
2019-12-01 23:14:52 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 OSS监控服务入口 OSS监控服务处于云监控控制台中。可以通过如下两种方式进入。 登录OSS管理控制台,在OSS概览页右边单击设置报警规则,进入OSS监控服务。 直接进入云监控控制台查看OSS监控服务。 OSS监控服务页面 OSS监控服务主页的主体由如下三部分组成。 用户概况 Bucket列表 报警规则 该页面没有自动刷新功能,可以单击右上角的刷新按钮自动更新数据信息。 单击 前往OSS控制台可以直接进入OSS控制台界面。 用户概况 用户概况页面从用户层级监控用户相关的信息。主要包括用户监控信息、当月计量统计和用户层级监控指标三大部分。 用户监控信息 该模块主要展示该账号所拥有的Bucket总数以及相关的报警规则情况。 单击Bucket数量的数字,链接到Bucket列表Tab页。 单击报警规则总数的数字,链接到报警规则Tab页。 单击处于告警状态的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 单击已禁用规则数的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均被禁用。 单击警铃图标下面的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 当月计量统计 当月计量统计展示了从当月1号0点开始,到采集截止时间为止,这段时间内所使用的OSS服务的计费相关的资源信息,包括如下指标: 存储大小 公网流出流量 Put类请求数 Get类请求数 各个计量框中展示的数据根据量级自动调整单位,鼠标停留在数字上方会显示精确的数值。 用户层级监控指标 该模块主要展示具体的用户层级的监控图表,主要包括服务监控总览和请求状态详情两部分,下面会详细介绍。 图表展现提供了快速时间范围选择按钮和自定义时间框。 快速时间范围选择按钮提供1小时、6小时、12小时、1天和7天的时间范围选择,默认为1小时。 自定义时间框可以自定义起始时间和结束时间,精确到分钟级别。注意,不支持查询8天以前的数据。 图表展示还支持以下功能: 单击相关图例可以将该指标曲线隐去,如下图: 单击图形右上图标可以将图形放大展示。注意,表格不支持放大展示。 单击图形右上图标可以对该图中展示的指标项设置相关报警规则。详见报警服务使用指南。注意,表格和计量参考指标不支持报警设置。 鼠标按住图形曲线区域拖放,可以进行时间范围快速调整放大,单击恢复缩放回归到拖放之前的时间范围。 服务监控总览 服务监控总览页面主要包括下面监控指标图: 用户层级可用性/有效请求率: 包括可用性和有效请求率两项指标。 用户层级总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 用户层级流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、CDN流出流量、CDN流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 用户层级请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 请求状态详情是对请求状态分布统计的一个具体监控,主要包括下面的监控指标图: 用户层级服务端错误请求数。 用户层级服务端错误请求占比。 用户层级网络错误请求数。 用户层级网络错误请求占比。 用户层级客户端错误请求数:包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 用户层级客户端错误请求占比:包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 用户层级有效请求数: 包括成功请求数和重定向请求数两项指标。 用户层级有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 Bucket列表 Bucket列表信息 列表展现该账号所拥有的Bucket的名称、所属地域、创建时间、当月计量数据统计信息以及相关操作。 当月计量统计包括每个Bucket的存储量、公网流出流量、Put类请求数和Get类请求数。 单击监控图表或者对应的Bucket名称,能够进入具体的Bucket监控视图页。 单击报警规则,进入报警规则Tab页,并且展现所有属于该Bucket的报警规则。 通过上面的搜索框能够模糊匹配快速找到具体的Bucket。 选中Bucket复选框,并单击设置报警规则可以批量设置报警规则,详见报警服务使用指南。 Bucket层级监控视图 单击Bucket列表中具体的Bucket行中的监控图表,就能进入对应的Bucket的监控视图页,如下图: Bucket监控视图页按指标分组进行展示监控图,主要包含六个指标分组: 服务监控总览 请求状态详情 计量参考 平均延时 最大延时 成功请求操作分类 除了计量参考,所有的指标项都是分钟级别聚合展示的。不同于用户层级默认时间展现为最近1小时,Bucket层级的监控展示默认为6小时。单击上方的返回Bucket列表能够回到Bucket列表Tab页。 服务监控总览 该指标分组同用户层级的服务监控总览,只是从具体的Bucket进行监控,主要包括下面监控指标图: 可用性/有效请求率: 包括可用性和有效请求率两项指标。 总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、cdn流出流量、cdn流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 该指标分组同用户层级的请求状态详情,只是从具体的Bucket进行监控,主要包括下面监控指标图: 服务端错误请求数 服务端错误请求占比 网络错误请求数 网络错误请求占比 客户端错误请求数: 包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 客户端错误请求占比: 包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 有效请求数: 包括成功请求数和重定向请求数两项指标。 有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 计量参考 计量参考分组展示各个计量相关的指标信息,以小时粒度收集展现,如下图所示:包含以下计量指标监控图: 存储大小 公网流出流量 计费请求数:包括Get类请求数和Put类请求数两项指标项。 如果新建Bucket,需要到当前时间点的下一个整小时点才会采集到新数据,然后在半个小时内展示出来。 平均延时 该分组包含分API类型监控的各项平均延时指标,包含如下几个指标图: GetObject请求平均延时 HeadObject请求平均延时 PutObject请求平均延时 PostObject请求平均延时 AppendObject请求平均延时 UploadPart请求平均延时 UploadPartCopy请求平均延时 每个指标图中都包含对应的平均E2E延时和平均服务器延时,如下图所示: 最大延时 该分组包含分API类型监控的各项最大延时指标,包含如下几个指标图: GetObject请求最大延时 HeadObject请求最大延时 PutObject请求最大延时 PostObject请求最大延时 AppendObject请求最大延时 UploadPart请求最大延时 UploadPartCopy请求最大延时 每个指标图中都包含对应的最大E2E延时和最大服务器延时,如下图所示: 成功请求操作分类 该分组包含分API类型监控的各项成功请求数指标,包含如下几个指标图: GetObject成功请求 HeadObject成功请求 PutObject成功请求 PostObject成功请求 AppendObject成功请求 UploadPart成功请求 UploadPartCopy成功请求 DeleteObject成功请求 DeleteObjects成功请求 如下图所示: 报警规则 报警规则Tab页能够展示和管理报警规则,如下图所示: 报警规则页的使用和相关说明请参见使用报警服务。 监控关注事项以及使用指导 监控关注点以及使用指南请参见监视诊断和故障排除。
2019-12-01 23:12:55 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 OSS监控服务入口 OSS监控服务处于云监控控制台中。可以通过如下两种方式进入。 登录OSS管理控制台,在OSS概览页右边单击设置报警规则,进入OSS监控服务。 直接进入云监控控制台查看OSS监控服务。 OSS监控服务页面 OSS监控服务主页的主体由如下三部分组成。 用户概况 Bucket列表 报警规则 该页面没有自动刷新功能,可以单击右上角的刷新按钮自动更新数据信息。 单击 前往OSS控制台可以直接进入OSS控制台界面。 用户概况 用户概况页面从用户层级监控用户相关的信息。主要包括用户监控信息、当月计量统计和用户层级监控指标三大部分。 用户监控信息 该模块主要展示该账号所拥有的Bucket总数以及相关的报警规则情况。 单击Bucket数量的数字,链接到Bucket列表Tab页。 单击报警规则总数的数字,链接到报警规则Tab页。 单击处于告警状态的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 单击已禁用规则数的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均被禁用。 单击警铃图标下面的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 当月计量统计 当月计量统计展示了从当月1号0点开始,到采集截止时间为止,这段时间内所使用的OSS服务的计费相关的资源信息,包括如下指标: 存储大小 公网流出流量 Put类请求数 Get类请求数 各个计量框中展示的数据根据量级自动调整单位,鼠标停留在数字上方会显示精确的数值。 用户层级监控指标 该模块主要展示具体的用户层级的监控图表,主要包括服务监控总览和请求状态详情两部分,下面会详细介绍。 图表展现提供了快速时间范围选择按钮和自定义时间框。 快速时间范围选择按钮提供1小时、6小时、12小时、1天和7天的时间范围选择,默认为1小时。 自定义时间框可以自定义起始时间和结束时间,精确到分钟级别。注意,不支持查询8天以前的数据。 图表展示还支持以下功能: 单击相关图例可以将该指标曲线隐去,如下图: 单击图形右上图标可以将图形放大展示。注意,表格不支持放大展示。 单击图形右上图标可以对该图中展示的指标项设置相关报警规则。详见报警服务使用指南。注意,表格和计量参考指标不支持报警设置。 鼠标按住图形曲线区域拖放,可以进行时间范围快速调整放大,单击恢复缩放回归到拖放之前的时间范围。 服务监控总览 服务监控总览页面主要包括下面监控指标图: 用户层级可用性/有效请求率: 包括可用性和有效请求率两项指标。 用户层级总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 用户层级流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、CDN流出流量、CDN流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 用户层级请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 请求状态详情是对请求状态分布统计的一个具体监控,主要包括下面的监控指标图: 用户层级服务端错误请求数。 用户层级服务端错误请求占比。 用户层级网络错误请求数。 用户层级网络错误请求占比。 用户层级客户端错误请求数:包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 用户层级客户端错误请求占比:包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 用户层级有效请求数: 包括成功请求数和重定向请求数两项指标。 用户层级有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 Bucket列表 Bucket列表信息 列表展现该账号所拥有的Bucket的名称、所属地域、创建时间、当月计量数据统计信息以及相关操作。 当月计量统计包括每个Bucket的存储量、公网流出流量、Put类请求数和Get类请求数。 单击监控图表或者对应的Bucket名称,能够进入具体的Bucket监控视图页。 单击报警规则,进入报警规则Tab页,并且展现所有属于该Bucket的报警规则。 通过上面的搜索框能够模糊匹配快速找到具体的Bucket。 选中Bucket复选框,并单击设置报警规则可以批量设置报警规则,详见报警服务使用指南。 Bucket层级监控视图 单击Bucket列表中具体的Bucket行中的监控图表,就能进入对应的Bucket的监控视图页,如下图: Bucket监控视图页按指标分组进行展示监控图,主要包含六个指标分组: 服务监控总览 请求状态详情 计量参考 平均延时 最大延时 成功请求操作分类 除了计量参考,所有的指标项都是分钟级别聚合展示的。不同于用户层级默认时间展现为最近1小时,Bucket层级的监控展示默认为6小时。单击上方的返回Bucket列表能够回到Bucket列表Tab页。 服务监控总览 该指标分组同用户层级的服务监控总览,只是从具体的Bucket进行监控,主要包括下面监控指标图: 可用性/有效请求率: 包括可用性和有效请求率两项指标。 总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、cdn流出流量、cdn流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 该指标分组同用户层级的请求状态详情,只是从具体的Bucket进行监控,主要包括下面监控指标图: 服务端错误请求数 服务端错误请求占比 网络错误请求数 网络错误请求占比 客户端错误请求数: 包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 客户端错误请求占比: 包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 有效请求数: 包括成功请求数和重定向请求数两项指标。 有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 计量参考 计量参考分组展示各个计量相关的指标信息,以小时粒度收集展现,如下图所示:包含以下计量指标监控图: 存储大小 公网流出流量 计费请求数:包括Get类请求数和Put类请求数两项指标项。 如果新建Bucket,需要到当前时间点的下一个整小时点才会采集到新数据,然后在半个小时内展示出来。 平均延时 该分组包含分API类型监控的各项平均延时指标,包含如下几个指标图: GetObject请求平均延时 HeadObject请求平均延时 PutObject请求平均延时 PostObject请求平均延时 AppendObject请求平均延时 UploadPart请求平均延时 UploadPartCopy请求平均延时 每个指标图中都包含对应的平均E2E延时和平均服务器延时,如下图所示: 最大延时 该分组包含分API类型监控的各项最大延时指标,包含如下几个指标图: GetObject请求最大延时 HeadObject请求最大延时 PutObject请求最大延时 PostObject请求最大延时 AppendObject请求最大延时 UploadPart请求最大延时 UploadPartCopy请求最大延时 每个指标图中都包含对应的最大E2E延时和最大服务器延时,如下图所示: 成功请求操作分类 该分组包含分API类型监控的各项成功请求数指标,包含如下几个指标图: GetObject成功请求 HeadObject成功请求 PutObject成功请求 PostObject成功请求 AppendObject成功请求 UploadPart成功请求 UploadPartCopy成功请求 DeleteObject成功请求 DeleteObjects成功请求 如下图所示: 报警规则 报警规则Tab页能够展示和管理报警规则,如下图所示: 报警规则页的使用和相关说明请参见使用报警服务。 监控关注事项以及使用指导 监控关注点以及使用指南请参见监视诊断和故障排除。
2019-12-01 23:12:54 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 OSS监控服务入口 OSS监控服务处于云监控控制台中。可以通过如下两种方式进入。 登录OSS管理控制台,在OSS概览页右边单击设置报警规则,进入OSS监控服务。 直接进入云监控控制台查看OSS监控服务。 OSS监控服务页面 OSS监控服务主页的主体由如下三部分组成。 用户概况 Bucket列表 报警规则 该页面没有自动刷新功能,可以单击右上角的刷新按钮自动更新数据信息。 单击 前往OSS控制台可以直接进入OSS控制台界面。 用户概况 用户概况页面从用户层级监控用户相关的信息。主要包括用户监控信息、当月计量统计和用户层级监控指标三大部分。 用户监控信息 该模块主要展示该账号所拥有的Bucket总数以及相关的报警规则情况。 单击Bucket数量的数字,链接到Bucket列表Tab页。 单击报警规则总数的数字,链接到报警规则Tab页。 单击处于告警状态的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 单击已禁用规则数的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均被禁用。 单击警铃图标下面的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 当月计量统计 当月计量统计展示了从当月1号0点开始,到采集截止时间为止,这段时间内所使用的OSS服务的计费相关的资源信息,包括如下指标: 存储大小 公网流出流量 Put类请求数 Get类请求数 各个计量框中展示的数据根据量级自动调整单位,鼠标停留在数字上方会显示精确的数值。 用户层级监控指标 该模块主要展示具体的用户层级的监控图表,主要包括服务监控总览和请求状态详情两部分,下面会详细介绍。 图表展现提供了快速时间范围选择按钮和自定义时间框。 快速时间范围选择按钮提供1小时、6小时、12小时、1天和7天的时间范围选择,默认为1小时。 自定义时间框可以自定义起始时间和结束时间,精确到分钟级别。注意,不支持查询8天以前的数据。 图表展示还支持以下功能: 单击相关图例可以将该指标曲线隐去,如下图: 单击图形右上图标可以将图形放大展示。注意,表格不支持放大展示。 单击图形右上图标可以对该图中展示的指标项设置相关报警规则。详见报警服务使用指南。注意,表格和计量参考指标不支持报警设置。 鼠标按住图形曲线区域拖放,可以进行时间范围快速调整放大,单击恢复缩放回归到拖放之前的时间范围。 服务监控总览 服务监控总览页面主要包括下面监控指标图: 用户层级可用性/有效请求率: 包括可用性和有效请求率两项指标。 用户层级总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 用户层级流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、CDN流出流量、CDN流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 用户层级请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 请求状态详情是对请求状态分布统计的一个具体监控,主要包括下面的监控指标图: 用户层级服务端错误请求数。 用户层级服务端错误请求占比。 用户层级网络错误请求数。 用户层级网络错误请求占比。 用户层级客户端错误请求数:包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 用户层级客户端错误请求占比:包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 用户层级有效请求数: 包括成功请求数和重定向请求数两项指标。 用户层级有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 Bucket列表 Bucket列表信息 列表展现该账号所拥有的Bucket的名称、所属地域、创建时间、当月计量数据统计信息以及相关操作。 当月计量统计包括每个Bucket的存储量、公网流出流量、Put类请求数和Get类请求数。 单击监控图表或者对应的Bucket名称,能够进入具体的Bucket监控视图页。 单击报警规则,进入报警规则Tab页,并且展现所有属于该Bucket的报警规则。 通过上面的搜索框能够模糊匹配快速找到具体的Bucket。 选中Bucket复选框,并单击设置报警规则可以批量设置报警规则,详见报警服务使用指南。 Bucket层级监控视图 单击Bucket列表中具体的Bucket行中的监控图表,就能进入对应的Bucket的监控视图页,如下图: Bucket监控视图页按指标分组进行展示监控图,主要包含六个指标分组: 服务监控总览 请求状态详情 计量参考 平均延时 最大延时 成功请求操作分类 除了计量参考,所有的指标项都是分钟级别聚合展示的。不同于用户层级默认时间展现为最近1小时,Bucket层级的监控展示默认为6小时。单击上方的返回Bucket列表能够回到Bucket列表Tab页。 服务监控总览 该指标分组同用户层级的服务监控总览,只是从具体的Bucket进行监控,主要包括下面监控指标图: 可用性/有效请求率: 包括可用性和有效请求率两项指标。 总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、cdn流出流量、cdn流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 该指标分组同用户层级的请求状态详情,只是从具体的Bucket进行监控,主要包括下面监控指标图: 服务端错误请求数 服务端错误请求占比 网络错误请求数 网络错误请求占比 客户端错误请求数: 包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 客户端错误请求占比: 包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 有效请求数: 包括成功请求数和重定向请求数两项指标。 有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 计量参考 计量参考分组展示各个计量相关的指标信息,以小时粒度收集展现,如下图所示:包含以下计量指标监控图: 存储大小 公网流出流量 计费请求数:包括Get类请求数和Put类请求数两项指标项。 如果新建Bucket,需要到当前时间点的下一个整小时点才会采集到新数据,然后在半个小时内展示出来。 平均延时 该分组包含分API类型监控的各项平均延时指标,包含如下几个指标图: GetObject请求平均延时 HeadObject请求平均延时 PutObject请求平均延时 PostObject请求平均延时 AppendObject请求平均延时 UploadPart请求平均延时 UploadPartCopy请求平均延时 每个指标图中都包含对应的平均E2E延时和平均服务器延时,如下图所示: 最大延时 该分组包含分API类型监控的各项最大延时指标,包含如下几个指标图: GetObject请求最大延时 HeadObject请求最大延时 PutObject请求最大延时 PostObject请求最大延时 AppendObject请求最大延时 UploadPart请求最大延时 UploadPartCopy请求最大延时 每个指标图中都包含对应的最大E2E延时和最大服务器延时,如下图所示: 成功请求操作分类 该分组包含分API类型监控的各项成功请求数指标,包含如下几个指标图: GetObject成功请求 HeadObject成功请求 PutObject成功请求 PostObject成功请求 AppendObject成功请求 UploadPart成功请求 UploadPartCopy成功请求 DeleteObject成功请求 DeleteObjects成功请求 如下图所示: 报警规则 报警规则Tab页能够展示和管理报警规则,如下图所示: 报警规则页的使用和相关说明请参见使用报警服务。 监控关注事项以及使用指导 监控关注点以及使用指南请参见监视诊断和故障排除。
2019-12-01 23:12:54 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 OSS监控服务入口 OSS监控服务处于云监控控制台中。可以通过如下两种方式进入。 登录OSS管理控制台,在OSS概览页右边单击设置报警规则,进入OSS监控服务。 直接进入云监控控制台查看OSS监控服务。 OSS监控服务页面 OSS监控服务主页的主体由如下三部分组成。 用户概况 Bucket列表 报警规则 该页面没有自动刷新功能,可以单击右上角的刷新按钮自动更新数据信息。 单击 前往OSS控制台可以直接进入OSS控制台界面。 用户概况 用户概况页面从用户层级监控用户相关的信息。主要包括用户监控信息、当月计量统计和用户层级监控指标三大部分。 用户监控信息 该模块主要展示该账号所拥有的Bucket总数以及相关的报警规则情况。 单击Bucket数量的数字,链接到Bucket列表Tab页。 单击报警规则总数的数字,链接到报警规则Tab页。 单击处于告警状态的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 单击已禁用规则数的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均被禁用。 单击警铃图标下面的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 当月计量统计 当月计量统计展示了从当月1号0点开始,到采集截止时间为止,这段时间内所使用的OSS服务的计费相关的资源信息,包括如下指标: 存储大小 公网流出流量 Put类请求数 Get类请求数 各个计量框中展示的数据根据量级自动调整单位,鼠标停留在数字上方会显示精确的数值。 用户层级监控指标 该模块主要展示具体的用户层级的监控图表,主要包括服务监控总览和请求状态详情两部分,下面会详细介绍。 图表展现提供了快速时间范围选择按钮和自定义时间框。 快速时间范围选择按钮提供1小时、6小时、12小时、1天和7天的时间范围选择,默认为1小时。 自定义时间框可以自定义起始时间和结束时间,精确到分钟级别。注意,不支持查询8天以前的数据。 图表展示还支持以下功能: 单击相关图例可以将该指标曲线隐去,如下图: 单击图形右上图标可以将图形放大展示。注意,表格不支持放大展示。 单击图形右上图标可以对该图中展示的指标项设置相关报警规则。详见报警服务使用指南。注意,表格和计量参考指标不支持报警设置。 鼠标按住图形曲线区域拖放,可以进行时间范围快速调整放大,单击恢复缩放回归到拖放之前的时间范围。 服务监控总览 服务监控总览页面主要包括下面监控指标图: 用户层级可用性/有效请求率: 包括可用性和有效请求率两项指标。 用户层级总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 用户层级流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、CDN流出流量、CDN流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 用户层级请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 请求状态详情是对请求状态分布统计的一个具体监控,主要包括下面的监控指标图: 用户层级服务端错误请求数。 用户层级服务端错误请求占比。 用户层级网络错误请求数。 用户层级网络错误请求占比。 用户层级客户端错误请求数:包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 用户层级客户端错误请求占比:包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 用户层级有效请求数: 包括成功请求数和重定向请求数两项指标。 用户层级有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 Bucket列表 Bucket列表信息 列表展现该账号所拥有的Bucket的名称、所属地域、创建时间、当月计量数据统计信息以及相关操作。 当月计量统计包括每个Bucket的存储量、公网流出流量、Put类请求数和Get类请求数。 单击监控图表或者对应的Bucket名称,能够进入具体的Bucket监控视图页。 单击报警规则,进入报警规则Tab页,并且展现所有属于该Bucket的报警规则。 通过上面的搜索框能够模糊匹配快速找到具体的Bucket。 选中Bucket复选框,并单击设置报警规则可以批量设置报警规则,详见报警服务使用指南。 Bucket层级监控视图 单击Bucket列表中具体的Bucket行中的监控图表,就能进入对应的Bucket的监控视图页,如下图: Bucket监控视图页按指标分组进行展示监控图,主要包含六个指标分组: 服务监控总览 请求状态详情 计量参考 平均延时 最大延时 成功请求操作分类 除了计量参考,所有的指标项都是分钟级别聚合展示的。不同于用户层级默认时间展现为最近1小时,Bucket层级的监控展示默认为6小时。单击上方的返回Bucket列表能够回到Bucket列表Tab页。 服务监控总览 该指标分组同用户层级的服务监控总览,只是从具体的Bucket进行监控,主要包括下面监控指标图: 可用性/有效请求率: 包括可用性和有效请求率两项指标。 总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、cdn流出流量、cdn流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 该指标分组同用户层级的请求状态详情,只是从具体的Bucket进行监控,主要包括下面监控指标图: 服务端错误请求数 服务端错误请求占比 网络错误请求数 网络错误请求占比 客户端错误请求数: 包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 客户端错误请求占比: 包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 有效请求数: 包括成功请求数和重定向请求数两项指标。 有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 计量参考 计量参考分组展示各个计量相关的指标信息,以小时粒度收集展现,如下图所示:包含以下计量指标监控图: 存储大小 公网流出流量 计费请求数:包括Get类请求数和Put类请求数两项指标项。 如果新建Bucket,需要到当前时间点的下一个整小时点才会采集到新数据,然后在半个小时内展示出来。 平均延时 该分组包含分API类型监控的各项平均延时指标,包含如下几个指标图: GetObject请求平均延时 HeadObject请求平均延时 PutObject请求平均延时 PostObject请求平均延时 AppendObject请求平均延时 UploadPart请求平均延时 UploadPartCopy请求平均延时 每个指标图中都包含对应的平均E2E延时和平均服务器延时,如下图所示: 最大延时 该分组包含分API类型监控的各项最大延时指标,包含如下几个指标图: GetObject请求最大延时 HeadObject请求最大延时 PutObject请求最大延时 PostObject请求最大延时 AppendObject请求最大延时 UploadPart请求最大延时 UploadPartCopy请求最大延时 每个指标图中都包含对应的最大E2E延时和最大服务器延时,如下图所示: 成功请求操作分类 该分组包含分API类型监控的各项成功请求数指标,包含如下几个指标图: GetObject成功请求 HeadObject成功请求 PutObject成功请求 PostObject成功请求 AppendObject成功请求 UploadPart成功请求 UploadPartCopy成功请求 DeleteObject成功请求 DeleteObjects成功请求 如下图所示: 报警规则 报警规则Tab页能够展示和管理报警规则,如下图所示: 报警规则页的使用和相关说明请参见使用报警服务。 监控关注事项以及使用指导 监控关注点以及使用指南请参见监视诊断和故障排除。
2019-12-01 23:12:53 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 OSS监控服务入口 OSS监控服务处于云监控控制台中。可以通过如下两种方式进入。 登录OSS管理控制台,在OSS概览页右边单击设置报警规则,进入OSS监控服务。 直接进入云监控控制台查看OSS监控服务。 OSS监控服务页面 OSS监控服务主页的主体由如下三部分组成。 用户概况 Bucket列表 报警规则 该页面没有自动刷新功能,可以单击右上角的刷新按钮自动更新数据信息。 单击 前往OSS控制台可以直接进入OSS控制台界面。 用户概况 用户概况页面从用户层级监控用户相关的信息。主要包括用户监控信息、当月计量统计和用户层级监控指标三大部分。 用户监控信息 该模块主要展示该账号所拥有的Bucket总数以及相关的报警规则情况。 单击Bucket数量的数字,链接到Bucket列表Tab页。 单击报警规则总数的数字,链接到报警规则Tab页。 单击处于告警状态的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 单击已禁用规则数的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均被禁用。 单击警铃图标下面的数字,链接到报警规则Tab页,并且此时该页展示的报警规则均处于告警状态。 当月计量统计 当月计量统计展示了从当月1号0点开始,到采集截止时间为止,这段时间内所使用的OSS服务的计费相关的资源信息,包括如下指标: 存储大小 公网流出流量 Put类请求数 Get类请求数 各个计量框中展示的数据根据量级自动调整单位,鼠标停留在数字上方会显示精确的数值。 用户层级监控指标 该模块主要展示具体的用户层级的监控图表,主要包括服务监控总览和请求状态详情两部分,下面会详细介绍。 图表展现提供了快速时间范围选择按钮和自定义时间框。 快速时间范围选择按钮提供1小时、6小时、12小时、1天和7天的时间范围选择,默认为1小时。 自定义时间框可以自定义起始时间和结束时间,精确到分钟级别。注意,不支持查询8天以前的数据。 图表展示还支持以下功能: 单击相关图例可以将该指标曲线隐去,如下图: 单击图形右上图标可以将图形放大展示。注意,表格不支持放大展示。 单击图形右上图标可以对该图中展示的指标项设置相关报警规则。详见报警服务使用指南。注意,表格和计量参考指标不支持报警设置。 鼠标按住图形曲线区域拖放,可以进行时间范围快速调整放大,单击恢复缩放回归到拖放之前的时间范围。 服务监控总览 服务监控总览页面主要包括下面监控指标图: 用户层级可用性/有效请求率: 包括可用性和有效请求率两项指标。 用户层级总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 用户层级流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、CDN流出流量、CDN流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 用户层级请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 请求状态详情是对请求状态分布统计的一个具体监控,主要包括下面的监控指标图: 用户层级服务端错误请求数。 用户层级服务端错误请求占比。 用户层级网络错误请求数。 用户层级网络错误请求占比。 用户层级客户端错误请求数:包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 用户层级客户端错误请求占比:包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 用户层级有效请求数: 包括成功请求数和重定向请求数两项指标。 用户层级有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 Bucket列表 Bucket列表信息 列表展现该账号所拥有的Bucket的名称、所属地域、创建时间、当月计量数据统计信息以及相关操作。 当月计量统计包括每个Bucket的存储量、公网流出流量、Put类请求数和Get类请求数。 单击监控图表或者对应的Bucket名称,能够进入具体的Bucket监控视图页。 单击报警规则,进入报警规则Tab页,并且展现所有属于该Bucket的报警规则。 通过上面的搜索框能够模糊匹配快速找到具体的Bucket。 选中Bucket复选框,并单击设置报警规则可以批量设置报警规则,详见报警服务使用指南。 Bucket层级监控视图 单击Bucket列表中具体的Bucket行中的监控图表,就能进入对应的Bucket的监控视图页,如下图: Bucket监控视图页按指标分组进行展示监控图,主要包含六个指标分组: 服务监控总览 请求状态详情 计量参考 平均延时 最大延时 成功请求操作分类 除了计量参考,所有的指标项都是分钟级别聚合展示的。不同于用户层级默认时间展现为最近1小时,Bucket层级的监控展示默认为6小时。单击上方的返回Bucket列表能够回到Bucket列表Tab页。 服务监控总览 该指标分组同用户层级的服务监控总览,只是从具体的Bucket进行监控,主要包括下面监控指标图: 可用性/有效请求率: 包括可用性和有效请求率两项指标。 总请求数/有效请求数: 包括总请求数和有效请求数两项指标。 流量: 包括公网流出流量、公网流入流量、内网流出流量、内网流入流量、cdn流出流量、cdn流入流量、跨区域复制流出流量和跨区域复制流入流量八项指标。 请求状态分布: 该表格中展示选定时间范围内各个请求类型的个数以及占比。 请求状态详情 该指标分组同用户层级的请求状态详情,只是从具体的Bucket进行监控,主要包括下面监控指标图: 服务端错误请求数 服务端错误请求占比 网络错误请求数 网络错误请求占比 客户端错误请求数: 包括资源不存在错误请求数、授权错误请求数、客户端超时错误请求数和客户端其他错误请求数四项指标。 客户端错误请求占比: 包括资源不存在错误请求占比、授权错误请求占比、客户端超时错误请求占比和客户端其他错误请求占比四项指标。 有效请求数: 包括成功请求数和重定向请求数两项指标。 有效请求占比: 包括成功请求占比和重定向请求占比两项指标。 计量参考 计量参考分组展示各个计量相关的指标信息,以小时粒度收集展现,如下图所示:包含以下计量指标监控图: 存储大小 公网流出流量 计费请求数:包括Get类请求数和Put类请求数两项指标项。 如果新建Bucket,需要到当前时间点的下一个整小时点才会采集到新数据,然后在半个小时内展示出来。 平均延时 该分组包含分API类型监控的各项平均延时指标,包含如下几个指标图: GetObject请求平均延时 HeadObject请求平均延时 PutObject请求平均延时 PostObject请求平均延时 AppendObject请求平均延时 UploadPart请求平均延时 UploadPartCopy请求平均延时 每个指标图中都包含对应的平均E2E延时和平均服务器延时,如下图所示: 最大延时 该分组包含分API类型监控的各项最大延时指标,包含如下几个指标图: GetObject请求最大延时 HeadObject请求最大延时 PutObject请求最大延时 PostObject请求最大延时 AppendObject请求最大延时 UploadPart请求最大延时 UploadPartCopy请求最大延时 每个指标图中都包含对应的最大E2E延时和最大服务器延时,如下图所示: 成功请求操作分类 该分组包含分API类型监控的各项成功请求数指标,包含如下几个指标图: GetObject成功请求 HeadObject成功请求 PutObject成功请求 PostObject成功请求 AppendObject成功请求 UploadPart成功请求 UploadPartCopy成功请求 DeleteObject成功请求 DeleteObjects成功请求 如下图所示: 报警规则 报警规则Tab页能够展示和管理报警规则,如下图所示: 报警规则页的使用和相关说明请参见使用报警服务。 监控关注事项以及使用指导 监控关注点以及使用指南请参见监视诊断和故障排除。
2019-12-01 23:12:53 0 浏览量 回答数 0

云产品推荐

上海奇点人才服务相关的云产品 小程序定制 上海微企信息技术相关的云产品 国内短信套餐包 ECS云服务器安全配置相关的云产品 开发者问答 阿里云建站 自然场景识别相关的云产品 万网 小程序开发制作 视频内容分析 视频集锦 代理记账服务