• 关于

    19买云存储

    的搜索结果

回答

您好,阿里云的很多产品是按使用量付费的,OSS是按使用量付费(存储量)和下行流量来计算费用的,如果您存储的数据量不大,那一天要要不要多少钱。主要看您的OSS是不是在用,或者对外开放连接..... 所以,建议您,如果存储量大,使用频率不高的文件,可以使用归档存储, 另外,建议您添加防盗链,避免别人使用您的资源,而带来流量被扣费。 针对您的问题:系统提示资源包2019年过期,说的是,您买的流量包还能使用到19年。

alvin.zhu 2019-12-02 00:41:25 0 浏览量 回答数 0

问题

云上三国展霸途

聚小编 2019-12-01 21:08:20 9683 浏览量 回答数 0

回答

本文介绍如何通过阿里云云存储网关控制台快速创建文件网关并完成共享设置。 前提条件 已注册阿里云账号,并完成实名认证,详情请参见阿里云账号注册流程。 说明 建议您使用RAM账户登录云存储网关控制台进行相关操作,详情请参见账号访问控制。 已开通云存储网关服务。 首次登录云存储网关控制台时,根据页面提示开通云存储网关服务。 在需要创建云上文件网关的地域,已有可用的专有网络VPC,详情请参见创建专有网络和交换机。 在需要创建云上文件网关的地域,已有可用的云服务器ECS,并将此云服务器ECS归属到已创建的专有网络VPC下,详情请参见创建ECS实例。 说明 如果您的本地主机已通过专线和阿里云专有网络连通,您也可以使用本地主机进行操作。 已创建OSS Bucket,详情请参见创建存储空间。 说明 云存储网关支持标准(Standard)类型、低频访问(IA)类型和归档存储类型的OSS Bucket。 对于归档文件,如果在创建共享时未开启归档支持功能,则在进行读操作时需要先手动解冻文件。 步骤一:创建文件网关 登录云存储网关控制台。 选择需要创建文件网关的地域。 在网关列表页面,选择目标网关集群,单击创建。 如果还未创建网关集群,请在概览页面,单击创建网关集群,完成网关集群的创建。 在网关信息页签中,完成如下配置并单击下一步。 参数 说明 名称 输入网关名称。 长度为60个字符,可以包含大小写字母、中文、数字、.、_或-,同时必须以大小写字母或者中文开头。 位置 包括本地数据中心和阿里云,请根据业务需求进行选择。 本地数据中心:选择本地数据中心,则部署本地文件网关。您可以通过阿里云云存储网关控制台部署本地文件网关,也可以通过本地文件网关控制台部署本地文件网关。 阿里云:选择阿里云,则部署云上文件网关。您只可以通过阿里云云存储网关控制台部署云上文件网关。 类型 选择文件网关。 在配置网关页签中,完成如下配置并单击下一步。 如果位置选择阿里云,则需要配置网关信息。 参数 说明 型号 包括基础型、标准型、增强型和性能型,具体规格详情请参见产品规格。 专有网络 选择所需的专有网络。 说明 必须与您创建的云服务器ECS或本地主机选择一样的专有网络。 虚拟交换机 选择所需的虚拟交换机。 说明 必须与您创建的云服务器ECS或本地主机选择一样的虚拟交换机。 如果当前的虚拟交换机所在的可用区没有可以分配的网关资源,请到其他可用区创建虚拟交换机。 在付费类型页签中,完成如下配置,并单击下一步。 参数 说明 付费类型 包括按量付费和包年包月,详情请参见计量项和计费项。 如果选择包年包月,完成文件网关创建后,将跳转至购买页面,请根据页面完成付费,详情请参见购买云存储网关。 到期后 包括转后付费和直接回收。 在总结页签中,确认信息无误后,单击完成。 如果您创建的是云上文件网关,则创建完成后,自动部署,大概需要5~10分钟,当状态显示为运行中,则表示文件网关已激活,部署完成。 如果您创建的是本地文件网关,则创建完成后,还需单击激活网关,进行手动激活。相关参数配置请参见激活网关。 步骤二:添加缓存 说明 此处介绍为云上文件网关创建缓存的步骤。本地文件网关的缓存需要在本地部署平台中创建,详情请参见添加磁盘。 登录云存储网关控制台。 选择目标文件网关所在的地域。 在网关列表页面,找到并单击目标文件网关,进入操作页面。 选择缓存页签,单击创建缓存。 在添加缓存对话框中,完成如下配置。 大小:缓存大小需大于等于40GB,小于等于32TB。 类型:包括高效云盘和SSD,请根据业务需求选择。 单击确认,完成创建。 如果您创建的是包年包月的文件网关,则创建缓存后,将跳转到云存储网关缓存盘(包年包月)页面支付费用,详情请参见购买缓存。 步骤三:创建共享 登录云存储网关控制台。 选择目标文件网关所在的地域。 在网关列表页面,找到并单击目标文件网关,进入操作页面。 选择共享页签,单击创建。 在Bucket设置页签中,完成如下配置并单击下一步。 参数 说明 允许跨域访问Bucket 选择是,可访问与云存储网关不同地域的Bucket。 选择否,只能访问与云存储网关相同地域的Bucket。 Bucket区域 选择Bucket区域。 Bucket名称 选择已创建的Bucket或者输入Bucket下的子目录。 子目录只支持英文和数字。 说明 从1.0.38版本开始支持将文件系统的根目录对接到OSS Bucket的某个子目录,便于用户做访问隔离。 子目录可以为OSS Bucket中已存在的目录也可以为OSS Bucket中还未创建的目录,创建共享完成后,将以该子目录为根目录,后续的文件和目录都会创建该目录下。 加密 包括不加密和服务端加密。 如果选择服务端加密,还需设置密钥ID。您可以在密钥管理服务控制台中创建密钥,详情请参见创建密钥。 开启OSS服务端加密后,允许用户自带密钥,目前支持从密钥管理服务中导入KMS密钥。 开启服务端加密后,通过共享目录上云的文件会在OSS端自动利用KMS密钥进行加密。您可以通过Get Object API验证当前文件是否已经加密,如果返回的Header中x-oss-server-side-encryption字段值为KMS,x-oss-server-side-encryption-key-id字段值为密钥ID,则表示已加密。 说明 白名单用户才能使用此功能。 在密钥管理服务控制台创建密钥时,需选择与OSS Bucket一样的区域。 使用SSL连接Bucket 如果选择是,则可通过SSL连接Bucket。 在基本信息页签中,完成如下配置并单击下一步。 参数 说明 共享名称 NFS或者SMB的共享名称。如果选择NFS协议,则此共享名称也是NFS v4的虚拟路径。 不能以数字开头,不能超过32个字符,可以为英文或者数字。 说明 1.0.35之前版本,如果使用NFS v3协议,则该名称无效,需要使用showmount –e <挂载网关的IP> 查看挂载路径进行挂载。 协议 根据业务需求,选择NFS或者SMB。 NFS协议适用于在Linux系统中对挂载的OSS资源进行访问 SMB协议适用于在Windows系统中对挂载的OSS资源进行访问。 缓存 选择已创建的缓存盘。 说明 5TB以下缓存盘,其20%的空间用于存放元数据;5TB以上的存储盘,1TB用于存放元数据。例如:创建40G的缓存盘,其实际可使用的缓存大小为32G。创建20TB的缓存盘,其实际可使用的缓存大小为19TB。 用户映射 设置NFS客户端用户与NFS服务器用户之间的映射关系,仅当协议类型选择NFS时可以配置。 none:NFS客户端用户不被映射为NFS服务器的nobody用户。 root_squash:限制root用户,当NFS客户端以root用户身份访问时,映射为NFS服务器的nobody用户。 all_squash:限制所有用户,无论NFS客户端以何种用户身份访问,均映射为NFS服务器的nobody用户。 all_anonymous:限制所有用户,无论NFS客户端以何种用户身份访问,均映射为NFS服务器的匿名用户。 归档支持 仅当协议类型选择NFS时可以配置。 选择是,开启归档支持功能。在已归档的文件上发起读操作请求时同步发起解冻请求,请求不会报错,但存在一定的时间延迟。 选择否,关闭归档支持功能。在已归档的文件上发起读操作请求时,需先手动解冻文件,否则请求会报错。 说明 基础型文件网关不支持归档支持功能。 加入同步组 开启该共享的极速同步功能,将其加入同步组,对该共享的Bucket中数据进行的任何改动都会自动同步至共享的本地客户端。开启该选项后,该共享的反向同步选项将自动关闭。 说明 要选择该选项,您必须提前创建一个同步组,且同步组的Bucket必须与共享的Bucket相同。有关创建同步组的详细步骤,请参见极速同步。 目前只有标准型、增强型及性能型的云存储网关支持极速同步功能。 极速同步功能依赖于阿里云消息服务 MNS 实现,因此将共享加入同步组会产生 MNS 服务的费用。计费详情请参见极速同步背景信息中的说明。 高级设置 勾选高级设置后,出现高级设置配置页。 在高级设置页签中,完成如下配置并单击下一步。 参数 说明 模式 复制模式:所有数据都会保存两份拷贝,一份保存在本地缓存,另一份保存在OSS。 缓存模式:本地缓存全量元数据和经常访问的用户数据。OSS侧保持全量数据。 传输加速 传输加速会提高跨域情况下的数据传输速度,充分利用网关的公网带宽,使用前请确保正在使用的OSS Bucket已开启了传输加速。 碎片优化 针对某些反复随机小IO读写的应用,启用此配置可提升性能,请根据场景谨慎选择。 上传优化 实时缓存回收,适用于数据纯备份上云场景。 反向同步 将OSS上的元数据同步回本地。适用于网关容灾和数据恢复/共享场景。 说明 反向同步会扫描Bucket下的所有对象,如果对象数量较多,会产生OSS API请求费用。具体费用,请参见对象存储 OSS 详细价格信息中的请求费用。 如果您在基本信息页签中勾选了加入同步组,则此选项不可用。 反向同步时间间隔 设置反向同步为是,可设置反向同步时间间隔。支持15s-36000s的反向同步间隔,缺省值为36000s。 说明 如果Bucket内的对象比较多,建议反向同步间隔大于3600s,否则会由于反复扫描产生大量的OSS API的请求费用。 忽略删除 文件删除操作不同步至OSS防止误操作。OSS侧保持全量数据。 同步延迟 设置同步延迟,在关闭文件会延迟一段时间再上传,防止频繁的本地修改操作造成OSS碎片。缺省值为5s,最大值120s。 在总结页签中,确认信息无误后,单击完成。 创建完成后,您可以通过客户端访问共享目录,详情请参见访问共享目录。

1934890530796658 2020-03-31 11:22:00 0 浏览量 回答数 0

阿里云爆款特惠专场,精选爆款产品低至0.95折!

爆款ECS云服务器8.1元/月起,云数据库低至1.5折,限时抢购!

回答

Re5M带宽快用完了,到底要升级阿里云哪个服务好? 谢谢楼上两位 ------------------------- 回10楼米蛋的帖子 这个怎么操作,有教程么? ------------------------- 回5楼文王之典的帖子 请问有什么教程可以学习么,如何配置? ------------------------- Re5M带宽快用完了,到底要升级阿里云哪个服务好? 总结了下,大致是3种啊: 1.直接加带宽(问题是5M之后每升级1M的价格太贵了); 2.oss存储,slb弄不来。。。 3.再买台云空间放图片,这个也不会。。。 方案3,谁有教程么? ------------------------- 回19楼woaj01的帖子 谢谢啊,暂时先用CDN顶上吧,不知道费用大概是多少

iamysh 2019-12-02 00:07:24 0 浏览量 回答数 0

问题

阿里云与Linode对比测试-阿里云与Linode选哪个好

roye888 2019-12-01 21:31:31 22266 浏览量 回答数 5

回答

Re:两个斑竹一直在说假话,cpu根本不是独享,性能差,阿里云官方叫“轮 .. 如果楼主一定要“独享”你只能是购买独立主机。否则任何云都是“共享”的。 何为云主机? 集群计算存储。其实云主机就是一个超大型的VPS,算法更先进,规模是集群的非单机的。 楼主还是用独立主机吧,我独立主机用了8年多了。 我托管的服务商算便宜的,1U  15M 电信线路4000一年。明年我打算全部搬到阿里云来。我自己托管的服务器已经坏了4个硬盘了,1500多一个硬盘,还不算好的。风扇这种就算小菜了。东西坏了还得自己跑机房。 如果按照这个理论,假设独享带宽10M,难道你真的独享10M了吗,一条10M网络拉遍全世界? 不都是从几G,千M,百M这样“共享”下来的吗?保证这个速度即叫独享。 ------------------------- Re:回19楼banian的帖子 引用第23楼elsawong于2014-04-17 14:58发表的 回19楼banian的帖子 : 十分同意,但LZ实际使用效果不如人意也确实是实在的问题,提高配置成本算算,期望成本内就不错了。 楼主的问题具体出在哪里也不知道,没有公布任何占用的资源情况,也没说明程序的使用情况。也有可能程序有太多循环的计算。曾经我这里有个员工做了一个管理后台,开始的时候使用速度很快,后来越来越慢。 我去看他的程序,发现他读取文章列表的时候是 select * from table. 把整个表都给读出来了,数据少的时候速度没感觉的。 一旦数据越来越多肯定很卡。 楼主之前好,并不代表没问题。 在另一个帖子里,我看到楼主询问我怎么看CPU频率显示。显然楼主并没好好的去了解云主机。

banian 2019-12-02 03:05:14 0 浏览量 回答数 0

问题

MaxCompute产品简介:通告

行者武松 2019-12-01 22:01:10 1613 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 MaxCompute中,需要计费的操作如下所示: 存储计费:按照存储在MaxCompute的数据的容量大小进行阶梯计费。 计算计费:MaxCompute分按量后付费和按CU预付费两种计算计费方式。 按量后付费:按量后付费方式针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费:即SQL任务按I/O后付费。 MapReduce按量后付费:即MapReduce任务按量进行计费。 按CU预付费:此方式仅在阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 下载计费: MaxCompute将按照下载的数据大小进行计费。 数据导入MaxCompute不计费。 结算说明:账单以Project为单位统计,结算周期为天。 报价速算器:MaxCompute报价速算器下载。 存储计费 存储到MaxCompute的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期为天。 MaxCompute以小时级别采集您每个项目空间下当前的存储使用情况,并以项目空间为基本单位,计算您当天的存储平均值再乘以单价。 项目的数据实际存储量大于0小于等于512MB时 MaxCompute将收取这个项目0.01元的费用。示例如下: 如果您在MaxCompute上,某个项目的存储的数据为100MB,MaxCompute会直接收取您0.01元/天的费用。 如果您有多个项目,且每个项目实际存储量小于512MB,MaxCompute会对每个项目收取0.01元。 项目的数据实际存储量大于等于512MB时 基础价格 大于100GB部分 大于1TB部分 大于10TB部分 大于100TB部分 1PB以上部分 0.0192元/GB/天 0.0096元/GB/天 0.0084元/GB/天 0.0072元/GB/天 0.006元/GB/天 请通过工单联系我们 您的某个项目的存储为50TB,则每天收取的费用如下: 100GB*0.0192 元/GB/天 +(1024-100)GB*0.0096 元/GB/天 +(10240-1024)GB*0.0084 元/GB/天 +(50*1024-10240)GB*0.0072 元/GB/天 =383.12 元/天 说明 由于MaxCompute会对您的数据进行压缩存储,计费依据的容量大小是压缩后的数据,因此多数情况下,它与上传数据之前您自己统计的数据文件大小不同,压缩比一般在5倍左右。 账单出账时间通常在当前计费周期结束后三小时内,最长不超过六个小时。例如前一天的账单一般会在第二天06:00以前生成,具体以系统出账时间为准, 账单生成后会自动从您的账户余额中扣除费用以结算账单。 若对账单有疑虑,可以进入费用中心查看消费明细。 计算计费 MaxCompute分为以下两种计算计费方式。 按量后付费方式:即以作业的消耗作为计量指标,在作业执行后收取费用。 按CU预付费方式:即您提前预定一部分资源,按CU预付费方式仅阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 目前MaxCompute开放的计算任务类型有SQL、UDF、MapReduce、Graph及 机器学习作业。其中SQL(不包括UDF)计算任务已经收费,New SQL(MaxCompute2.0)任务在 2018年5月底启动收费,其他类型暂无收费计划。 说明 有关UDF、Graph及机器学习的收费请关注阿里云相关公告。 按量后付费 按量后付费方式是针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费 SQL任务按量后付费即按I/O后付费:您每执行一条SQL作业,MaxCompute将根据该作业的输入数据及该SQL的复杂度进行计费。该费用在SQL执行完成后产生,并在下一天做一次性的计费结算。 MaxCompute SQL任务的按I/O后付费会针对每个作业产生一次计量。当天的所有计量信息将在第二天做一次性汇总收费。 SQL计算任务的计费公式为: 一次SQL计算费用 = 计算输入数据量 * SQL复杂度 * SQL价格 价格如下: 计费项 价格 SQL价格 0.3元/GB 计算输入数据量:指一条SQL语句实际扫描的数据量,大部分的SQL语句有分区过滤和列裁剪,所以一般情况下这个值会远小于源表数据大小。 列裁剪:例如您提交的SQL是select f1,f2,f3 from t1;,只计算t1表中f1,f2,f3三列的数据量,其他列不会参与计费。 分区过滤:例如SQL语句中含有where ds > 20130101,ds是分区列,则计费的数据量只会包括实际读取的分区,不会包括其他分区的数据。 SQL复杂度:先统计SQL语句中的关键字,再折算为SQL复杂度,具体如下: SQL关键字个数=Join个数+Group By个数+Order By个数+Distinct个数+窗口函数个数+max(insert个数-1, 1)。 SQL复杂度计算: SQL关键字个数小于等于3,复杂度为1。 SQL关键字个数小于等于6,且大于等于4,复杂度为1.5。 SQL关键字个数小于等于19,且大于等于7,复杂度为2。 SQL关键字个数大于等于20,复杂度为4。 复杂度计量命令格式: cost sql <SQL Sentence>; 示例如下: odps@ $odps_project >cost sql SELECT DISTINCT total1 FROM (SELECT id1, COUNT(f1) AS total1 FROM in1 GROUP BY id1) tmp1 ORDER BY total1 DESC LIMIT 100; Complexity:1.5 示例中SQL关键字的个数是4(该语句中有DISTINCT、COUNT、GROUP BY和ORDER),而SQL复杂度是1.5。如果表in1的数据量为1.7GB(对应账单为1.7GB*1024³=1825361100.8Byte),则实际消费为 1.7*1.5*0.3=0.76元。 说明 账单出账时间在第二天06:00前,在计算任务成功结束后,系统会统计该计算任务读取的数据量和SQL复杂度,账单生成后会自动从您的账户余额中扣除费用以结算账单。没有成功的计算任务不扣费。 与存储类似,SQL计算也以压缩后的数据大小计费。 账单和下载的使用记录中,输入数据量的单位是Byte,要计算费用,数据量需要先除以1024³换算成GB。 MapReduce按量后付费 2017年8月16日,MaxCompute开始对MapReduce任务进行计费。MaxCompute MapReduce采用的计费标准如下: MR任务当日计算费用=当日总计算时*0.46元(人民币) 一个MR任务一次执行成功的计算时=任务运行时间(小时)*任务调用的核数量。 如果一个MR任务一次执行成功是调用了100core并花费0.5小时,那么本次执行计算时为0.5小时*100核=50个计算时。 MR计算任务成功结束后,系统会统计该计算任务所消耗的计算时,当天所有计量信息将在第二天做一次性汇总收费,生成账单,直接体现在账号账单中,并自动从账号余额中扣除费用以结算账单。 说明 没有执行成功的计算任务不扣费。 任务排队时间不计入计量计时。 相同作业会受集群负载环境的影响而产生较小的费用波动。 资源的基本单位定义为CU(Compute Unit),1CU包含的计算资源为4GB内存加上1核CPU。为避免内存乱用的现象发生,当任务消耗的Memory大于4倍1核CPU时,取Memory除4倍作为CU计算时。 如果您购买了MaxCompute包年包月服务,则在您购买的服务范围内您可以免费使用MR计算任务,不会额外支付费用。 如果您对MapReduce计算任务收费有疑惑,可工单咨询或者到钉钉群咨询(群号11782374)。 按CU预付费 按CU预付费的方式仅阿里云大数据计算服务提供。您可以预先购买一部分资源,MaxCompute会为您预留您所购买的资源。 资源定义 内存 CPU 售价 1CU 4GB 1CPU 150元/月 如果您是新用户,建议您先采用按I/O后付费的方式进行结算。您初期使用MaxCompute时,消耗的资源较少,采购CU预留资源会出现资源闲置。相对而言,按I/O后付费方式成本会更低。 说明 当预付费购买60CU或以上,可以通过MaxCompute预付费资源监控工具-CU管家进行资源监控管理,目前该工具仅支持华北2、华东2、华南1和华东1四个Region,详情请参见MaxCompute预付费资源监控工具-CU管家。 下载计费 对于公网或者跨Region的数据下载,MaxCompute将按照下载的数据大小进行计费。计费公式为: 一次下载费用=下载数据量*下载价格 其中,具体价格如下: 计费项 价格 外网下载价格 0.8元/GB 说明 MaxCompute会按次推送您的下载计量信息,并在第二天给出您的下载费用消耗。 下载数据量:指一次下载请求的HTTP body的大小。承载数据的HTTP body使用protobuffer编码,因此一般比数据原始容量要小,但是比压缩后存储在MaxCompute上的数据量要大。 您通过不同的网络环境,例如公网、阿里云经典网络、VPC网络,或在不同的Region下,访问MaxCompute将有不同的计费行为。有关MaxCompute服务连接的详情请参见访问域名和数据中心。 如果该文档无法解决您在购买MaxCompute时对计量计费的困惑,欢迎加入购买咨询钉钉群。

2019-12-01 23:11:00 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 MaxCompute中,需要计费的操作如下所示: 存储计费:按照存储在MaxCompute的数据的容量大小进行阶梯计费。 计算计费:MaxCompute分按量后付费和按CU预付费两种计算计费方式。 按量后付费:按量后付费方式针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费:即SQL任务按I/O后付费。 MapReduce按量后付费:即MapReduce任务按量进行计费。 按CU预付费:此方式仅在阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 下载计费: MaxCompute将按照下载的数据大小进行计费。 数据导入MaxCompute不计费。 结算说明:账单以Project为单位统计,结算周期为天。 报价速算器:MaxCompute报价速算器下载。 存储计费 存储到MaxCompute的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期为天。 MaxCompute以小时级别采集您每个项目空间下当前的存储使用情况,并以项目空间为基本单位,计算您当天的存储平均值再乘以单价。 项目的数据实际存储量大于0小于等于512MB时 MaxCompute将收取这个项目0.01元的费用。示例如下: 如果您在MaxCompute上,某个项目的存储的数据为100MB,MaxCompute会直接收取您0.01元/天的费用。 如果您有多个项目,且每个项目实际存储量小于512MB,MaxCompute会对每个项目收取0.01元。 项目的数据实际存储量大于等于512MB时 基础价格 大于100GB部分 大于1TB部分 大于10TB部分 大于100TB部分 1PB以上部分 0.0192元/GB/天 0.0096元/GB/天 0.0084元/GB/天 0.0072元/GB/天 0.006元/GB/天 请通过工单联系我们 您的某个项目的存储为50TB,则每天收取的费用如下: 100GB*0.0192 元/GB/天 +(1024-100)GB*0.0096 元/GB/天 +(10240-1024)GB*0.0084 元/GB/天 +(50*1024-10240)GB*0.0072 元/GB/天 =383.12 元/天 说明 由于MaxCompute会对您的数据进行压缩存储,计费依据的容量大小是压缩后的数据,因此多数情况下,它与上传数据之前您自己统计的数据文件大小不同,压缩比一般在5倍左右。 账单出账时间通常在当前计费周期结束后三小时内,最长不超过六个小时。例如前一天的账单一般会在第二天06:00以前生成,具体以系统出账时间为准, 账单生成后会自动从您的账户余额中扣除费用以结算账单。 若对账单有疑虑,可以进入费用中心查看消费明细。 计算计费 MaxCompute分为以下两种计算计费方式。 按量后付费方式:即以作业的消耗作为计量指标,在作业执行后收取费用。 按CU预付费方式:即您提前预定一部分资源,按CU预付费方式仅阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 目前MaxCompute开放的计算任务类型有SQL、UDF、MapReduce、Graph及 机器学习作业。其中SQL(不包括UDF)计算任务已经收费,New SQL(MaxCompute2.0)任务在 2018年5月底启动收费,其他类型暂无收费计划。 说明 有关UDF、Graph及机器学习的收费请关注阿里云相关公告。 按量后付费 按量后付费方式是针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费 SQL任务按量后付费即按I/O后付费:您每执行一条SQL作业,MaxCompute将根据该作业的输入数据及该SQL的复杂度进行计费。该费用在SQL执行完成后产生,并在下一天做一次性的计费结算。 MaxCompute SQL任务的按I/O后付费会针对每个作业产生一次计量。当天的所有计量信息将在第二天做一次性汇总收费。 SQL计算任务的计费公式为: 一次SQL计算费用 = 计算输入数据量 * SQL复杂度 * SQL价格 价格如下: 计费项 价格 SQL价格 0.3元/GB 计算输入数据量:指一条SQL语句实际扫描的数据量,大部分的SQL语句有分区过滤和列裁剪,所以一般情况下这个值会远小于源表数据大小。 列裁剪:例如您提交的SQL是select f1,f2,f3 from t1;,只计算t1表中f1,f2,f3三列的数据量,其他列不会参与计费。 分区过滤:例如SQL语句中含有where ds > 20130101,ds是分区列,则计费的数据量只会包括实际读取的分区,不会包括其他分区的数据。 SQL复杂度:先统计SQL语句中的关键字,再折算为SQL复杂度,具体如下: SQL关键字个数=Join个数+Group By个数+Order By个数+Distinct个数+窗口函数个数+max(insert个数-1, 1)。 SQL复杂度计算: SQL关键字个数小于等于3,复杂度为1。 SQL关键字个数小于等于6,且大于等于4,复杂度为1.5。 SQL关键字个数小于等于19,且大于等于7,复杂度为2。 SQL关键字个数大于等于20,复杂度为4。 复杂度计量命令格式: cost sql <SQL Sentence>; 示例如下: odps@ $odps_project >cost sql SELECT DISTINCT total1 FROM (SELECT id1, COUNT(f1) AS total1 FROM in1 GROUP BY id1) tmp1 ORDER BY total1 DESC LIMIT 100; Complexity:1.5 示例中SQL关键字的个数是4(该语句中有DISTINCT、COUNT、GROUP BY和ORDER),而SQL复杂度是1.5。如果表in1的数据量为1.7GB(对应账单为1.7GB*1024³=1825361100.8Byte),则实际消费为 1.7*1.5*0.3=0.76元。 说明 账单出账时间在第二天06:00前,在计算任务成功结束后,系统会统计该计算任务读取的数据量和SQL复杂度,账单生成后会自动从您的账户余额中扣除费用以结算账单。没有成功的计算任务不扣费。 与存储类似,SQL计算也以压缩后的数据大小计费。 账单和下载的使用记录中,输入数据量的单位是Byte,要计算费用,数据量需要先除以1024³换算成GB。 MapReduce按量后付费 2017年8月16日,MaxCompute开始对MapReduce任务进行计费。MaxCompute MapReduce采用的计费标准如下: MR任务当日计算费用=当日总计算时*0.46元(人民币) 一个MR任务一次执行成功的计算时=任务运行时间(小时)*任务调用的核数量。 如果一个MR任务一次执行成功是调用了100core并花费0.5小时,那么本次执行计算时为0.5小时*100核=50个计算时。 MR计算任务成功结束后,系统会统计该计算任务所消耗的计算时,当天所有计量信息将在第二天做一次性汇总收费,生成账单,直接体现在账号账单中,并自动从账号余额中扣除费用以结算账单。 说明 没有执行成功的计算任务不扣费。 任务排队时间不计入计量计时。 相同作业会受集群负载环境的影响而产生较小的费用波动。 资源的基本单位定义为CU(Compute Unit),1CU包含的计算资源为4GB内存加上1核CPU。为避免内存乱用的现象发生,当任务消耗的Memory大于4倍1核CPU时,取Memory除4倍作为CU计算时。 如果您购买了MaxCompute包年包月服务,则在您购买的服务范围内您可以免费使用MR计算任务,不会额外支付费用。 如果您对MapReduce计算任务收费有疑惑,可工单咨询或者到钉钉群咨询(群号11782374)。 按CU预付费 按CU预付费的方式仅阿里云大数据计算服务提供。您可以预先购买一部分资源,MaxCompute会为您预留您所购买的资源。 资源定义 内存 CPU 售价 1CU 4GB 1CPU 150元/月 如果您是新用户,建议您先采用按I/O后付费的方式进行结算。您初期使用MaxCompute时,消耗的资源较少,采购CU预留资源会出现资源闲置。相对而言,按I/O后付费方式成本会更低。 说明 当预付费购买60CU或以上,可以通过MaxCompute预付费资源监控工具-CU管家进行资源监控管理,目前该工具仅支持华北2、华东2、华南1和华东1四个Region,详情请参见MaxCompute预付费资源监控工具-CU管家。 下载计费 对于公网或者跨Region的数据下载,MaxCompute将按照下载的数据大小进行计费。计费公式为: 一次下载费用=下载数据量*下载价格 其中,具体价格如下: 计费项 价格 外网下载价格 0.8元/GB 说明 MaxCompute会按次推送您的下载计量信息,并在第二天给出您的下载费用消耗。 下载数据量:指一次下载请求的HTTP body的大小。承载数据的HTTP body使用protobuffer编码,因此一般比数据原始容量要小,但是比压缩后存储在MaxCompute上的数据量要大。 您通过不同的网络环境,例如公网、阿里云经典网络、VPC网络,或在不同的Region下,访问MaxCompute将有不同的计费行为。有关MaxCompute服务连接的详情请参见访问域名和数据中心。 如果该文档无法解决您在购买MaxCompute时对计量计费的困惑,欢迎加入购买咨询钉钉群。

2019-12-01 23:11:01 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 MaxCompute中,需要计费的操作如下所示: 存储计费:按照存储在MaxCompute的数据的容量大小进行阶梯计费。 计算计费:MaxCompute分按量后付费和按CU预付费两种计算计费方式。 按量后付费:按量后付费方式针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费:即SQL任务按I/O后付费。 MapReduce按量后付费:即MapReduce任务按量进行计费。 按CU预付费:此方式仅在阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 下载计费: MaxCompute将按照下载的数据大小进行计费。 数据导入MaxCompute不计费。 结算说明:账单以Project为单位统计,结算周期为天。 报价速算器:MaxCompute报价速算器下载。 存储计费 存储到MaxCompute的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期为天。 MaxCompute以小时级别采集您每个项目空间下当前的存储使用情况,并以项目空间为基本单位,计算您当天的存储平均值再乘以单价。 项目的数据实际存储量大于0小于等于512MB时 MaxCompute将收取这个项目0.01元的费用。示例如下: 如果您在MaxCompute上,某个项目的存储的数据为100MB,MaxCompute会直接收取您0.01元/天的费用。 如果您有多个项目,且每个项目实际存储量小于512MB,MaxCompute会对每个项目收取0.01元。 项目的数据实际存储量大于等于512MB时 基础价格 大于100GB部分 大于1TB部分 大于10TB部分 大于100TB部分 1PB以上部分 0.0192元/GB/天 0.0096元/GB/天 0.0084元/GB/天 0.0072元/GB/天 0.006元/GB/天 请通过工单联系我们 您的某个项目的存储为50TB,则每天收取的费用如下: 100GB*0.0192 元/GB/天 +(1024-100)GB*0.0096 元/GB/天 +(10240-1024)GB*0.0084 元/GB/天 +(50*1024-10240)GB*0.0072 元/GB/天 =383.12 元/天 说明 由于MaxCompute会对您的数据进行压缩存储,计费依据的容量大小是压缩后的数据,因此多数情况下,它与上传数据之前您自己统计的数据文件大小不同,压缩比一般在5倍左右。 账单出账时间通常在当前计费周期结束后三小时内,最长不超过六个小时。例如前一天的账单一般会在第二天06:00以前生成,具体以系统出账时间为准, 账单生成后会自动从您的账户余额中扣除费用以结算账单。 若对账单有疑虑,可以进入费用中心查看消费明细。 计算计费 MaxCompute分为以下两种计算计费方式。 按量后付费方式:即以作业的消耗作为计量指标,在作业执行后收取费用。 按CU预付费方式:即您提前预定一部分资源,按CU预付费方式仅阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 目前MaxCompute开放的计算任务类型有SQL、UDF、MapReduce、Graph及 机器学习作业。其中SQL(不包括UDF)计算任务已经收费,New SQL(MaxCompute2.0)任务在 2018年5月底启动收费,其他类型暂无收费计划。 说明 有关UDF、Graph及机器学习的收费请关注阿里云相关公告。 按量后付费 按量后付费方式是针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费 SQL任务按量后付费即按I/O后付费:您每执行一条SQL作业,MaxCompute将根据该作业的输入数据及该SQL的复杂度进行计费。该费用在SQL执行完成后产生,并在下一天做一次性的计费结算。 MaxCompute SQL任务的按I/O后付费会针对每个作业产生一次计量。当天的所有计量信息将在第二天做一次性汇总收费。 SQL计算任务的计费公式为: 一次SQL计算费用 = 计算输入数据量 * SQL复杂度 * SQL价格 价格如下: 计费项 价格 SQL价格 0.3元/GB 计算输入数据量:指一条SQL语句实际扫描的数据量,大部分的SQL语句有分区过滤和列裁剪,所以一般情况下这个值会远小于源表数据大小。 列裁剪:例如您提交的SQL是select f1,f2,f3 from t1;,只计算t1表中f1,f2,f3三列的数据量,其他列不会参与计费。 分区过滤:例如SQL语句中含有where ds > 20130101,ds是分区列,则计费的数据量只会包括实际读取的分区,不会包括其他分区的数据。 SQL复杂度:先统计SQL语句中的关键字,再折算为SQL复杂度,具体如下: SQL关键字个数=Join个数+Group By个数+Order By个数+Distinct个数+窗口函数个数+max(insert个数-1, 1)。 SQL复杂度计算: SQL关键字个数小于等于3,复杂度为1。 SQL关键字个数小于等于6,且大于等于4,复杂度为1.5。 SQL关键字个数小于等于19,且大于等于7,复杂度为2。 SQL关键字个数大于等于20,复杂度为4。 复杂度计量命令格式: cost sql <SQL Sentence>; 示例如下: odps@ $odps_project >cost sql SELECT DISTINCT total1 FROM (SELECT id1, COUNT(f1) AS total1 FROM in1 GROUP BY id1) tmp1 ORDER BY total1 DESC LIMIT 100; Complexity:1.5 示例中SQL关键字的个数是4(该语句中有DISTINCT、COUNT、GROUP BY和ORDER),而SQL复杂度是1.5。如果表in1的数据量为1.7GB(对应账单为1.7GB*1024³=1825361100.8Byte),则实际消费为 1.7*1.5*0.3=0.76元。 说明 账单出账时间在第二天06:00前,在计算任务成功结束后,系统会统计该计算任务读取的数据量和SQL复杂度,账单生成后会自动从您的账户余额中扣除费用以结算账单。没有成功的计算任务不扣费。 与存储类似,SQL计算也以压缩后的数据大小计费。 账单和下载的使用记录中,输入数据量的单位是Byte,要计算费用,数据量需要先除以1024³换算成GB。 MapReduce按量后付费 2017年8月16日,MaxCompute开始对MapReduce任务进行计费。MaxCompute MapReduce采用的计费标准如下: MR任务当日计算费用=当日总计算时*0.46元(人民币) 一个MR任务一次执行成功的计算时=任务运行时间(小时)*任务调用的核数量。 如果一个MR任务一次执行成功是调用了100core并花费0.5小时,那么本次执行计算时为0.5小时*100核=50个计算时。 MR计算任务成功结束后,系统会统计该计算任务所消耗的计算时,当天所有计量信息将在第二天做一次性汇总收费,生成账单,直接体现在账号账单中,并自动从账号余额中扣除费用以结算账单。 说明 没有执行成功的计算任务不扣费。 任务排队时间不计入计量计时。 相同作业会受集群负载环境的影响而产生较小的费用波动。 资源的基本单位定义为CU(Compute Unit),1CU包含的计算资源为4GB内存加上1核CPU。为避免内存乱用的现象发生,当任务消耗的Memory大于4倍1核CPU时,取Memory除4倍作为CU计算时。 如果您购买了MaxCompute包年包月服务,则在您购买的服务范围内您可以免费使用MR计算任务,不会额外支付费用。 如果您对MapReduce计算任务收费有疑惑,可工单咨询或者到钉钉群咨询(群号11782374)。 按CU预付费 按CU预付费的方式仅阿里云大数据计算服务提供。您可以预先购买一部分资源,MaxCompute会为您预留您所购买的资源。 资源定义 内存 CPU 售价 1CU 4GB 1CPU 150元/月 如果您是新用户,建议您先采用按I/O后付费的方式进行结算。您初期使用MaxCompute时,消耗的资源较少,采购CU预留资源会出现资源闲置。相对而言,按I/O后付费方式成本会更低。 说明 当预付费购买60CU或以上,可以通过MaxCompute预付费资源监控工具-CU管家进行资源监控管理,目前该工具仅支持华北2、华东2、华南1和华东1四个Region,详情请参见MaxCompute预付费资源监控工具-CU管家。 下载计费 对于公网或者跨Region的数据下载,MaxCompute将按照下载的数据大小进行计费。计费公式为: 一次下载费用=下载数据量*下载价格 其中,具体价格如下: 计费项 价格 外网下载价格 0.8元/GB 说明 MaxCompute会按次推送您的下载计量信息,并在第二天给出您的下载费用消耗。 下载数据量:指一次下载请求的HTTP body的大小。承载数据的HTTP body使用protobuffer编码,因此一般比数据原始容量要小,但是比压缩后存储在MaxCompute上的数据量要大。 您通过不同的网络环境,例如公网、阿里云经典网络、VPC网络,或在不同的Region下,访问MaxCompute将有不同的计费行为。有关MaxCompute服务连接的详情请参见访问域名和数据中心。 如果该文档无法解决您在购买MaxCompute时对计量计费的困惑,欢迎加入购买咨询钉钉群。

2019-12-01 23:11:00 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 MaxCompute中,需要计费的操作如下所示: 存储计费:按照存储在MaxCompute的数据的容量大小进行阶梯计费。 计算计费:MaxCompute分按量后付费和按CU预付费两种计算计费方式。 按量后付费:按量后付费方式针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费:即SQL任务按I/O后付费。 MapReduce按量后付费:即MapReduce任务按量进行计费。 按CU预付费:此方式仅在阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 下载计费: MaxCompute将按照下载的数据大小进行计费。 数据导入MaxCompute不计费。 结算说明:账单以Project为单位统计,结算周期为天。 报价速算器:MaxCompute报价速算器下载。 存储计费 存储到MaxCompute的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期为天。 MaxCompute以小时级别采集您每个项目空间下当前的存储使用情况,并以项目空间为基本单位,计算您当天的存储平均值再乘以单价。 项目的数据实际存储量大于0小于等于512MB时 MaxCompute将收取这个项目0.01元的费用。示例如下: 如果您在MaxCompute上,某个项目的存储的数据为100MB,MaxCompute会直接收取您0.01元/天的费用。 如果您有多个项目,且每个项目实际存储量小于512MB,MaxCompute会对每个项目收取0.01元。 项目的数据实际存储量大于等于512MB时 基础价格 大于100GB部分 大于1TB部分 大于10TB部分 大于100TB部分 1PB以上部分 0.0192元/GB/天 0.0096元/GB/天 0.0084元/GB/天 0.0072元/GB/天 0.006元/GB/天 请通过工单联系我们 您的某个项目的存储为50TB,则每天收取的费用如下: 100GB*0.0192 元/GB/天 +(1024-100)GB*0.0096 元/GB/天 +(10240-1024)GB*0.0084 元/GB/天 +(50*1024-10240)GB*0.0072 元/GB/天 =383.12 元/天 说明 由于MaxCompute会对您的数据进行压缩存储,计费依据的容量大小是压缩后的数据,因此多数情况下,它与上传数据之前您自己统计的数据文件大小不同,压缩比一般在5倍左右。 账单出账时间通常在当前计费周期结束后三小时内,最长不超过六个小时。例如前一天的账单一般会在第二天06:00以前生成,具体以系统出账时间为准, 账单生成后会自动从您的账户余额中扣除费用以结算账单。 若对账单有疑虑,可以进入费用中心查看消费明细。 计算计费 MaxCompute分为以下两种计算计费方式。 按量后付费方式:即以作业的消耗作为计量指标,在作业执行后收取费用。 按CU预付费方式:即您提前预定一部分资源,按CU预付费方式仅阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 目前MaxCompute开放的计算任务类型有SQL、UDF、MapReduce、Graph及 机器学习作业。其中SQL(不包括UDF)计算任务已经收费,New SQL(MaxCompute2.0)任务在 2018年5月底启动收费,其他类型暂无收费计划。 说明 有关UDF、Graph及机器学习的收费请关注阿里云相关公告。 按量后付费 按量后付费方式是针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费 SQL任务按量后付费即按I/O后付费:您每执行一条SQL作业,MaxCompute将根据该作业的输入数据及该SQL的复杂度进行计费。该费用在SQL执行完成后产生,并在下一天做一次性的计费结算。 MaxCompute SQL任务的按I/O后付费会针对每个作业产生一次计量。当天的所有计量信息将在第二天做一次性汇总收费。 SQL计算任务的计费公式为: 一次SQL计算费用 = 计算输入数据量 * SQL复杂度 * SQL价格 价格如下: 计费项 价格 SQL价格 0.3元/GB 计算输入数据量:指一条SQL语句实际扫描的数据量,大部分的SQL语句有分区过滤和列裁剪,所以一般情况下这个值会远小于源表数据大小。 列裁剪:例如您提交的SQL是select f1,f2,f3 from t1;,只计算t1表中f1,f2,f3三列的数据量,其他列不会参与计费。 分区过滤:例如SQL语句中含有where ds > 20130101,ds是分区列,则计费的数据量只会包括实际读取的分区,不会包括其他分区的数据。 SQL复杂度:先统计SQL语句中的关键字,再折算为SQL复杂度,具体如下: SQL关键字个数=Join个数+Group By个数+Order By个数+Distinct个数+窗口函数个数+max(insert个数-1, 1)。 SQL复杂度计算: SQL关键字个数小于等于3,复杂度为1。 SQL关键字个数小于等于6,且大于等于4,复杂度为1.5。 SQL关键字个数小于等于19,且大于等于7,复杂度为2。 SQL关键字个数大于等于20,复杂度为4。 复杂度计量命令格式: cost sql <SQL Sentence>; 示例如下: odps@ $odps_project >cost sql SELECT DISTINCT total1 FROM (SELECT id1, COUNT(f1) AS total1 FROM in1 GROUP BY id1) tmp1 ORDER BY total1 DESC LIMIT 100; Complexity:1.5 示例中SQL关键字的个数是4(该语句中有DISTINCT、COUNT、GROUP BY和ORDER),而SQL复杂度是1.5。如果表in1的数据量为1.7GB(对应账单为1.7GB*1024³=1825361100.8Byte),则实际消费为 1.7*1.5*0.3=0.76元。 说明 账单出账时间在第二天06:00前,在计算任务成功结束后,系统会统计该计算任务读取的数据量和SQL复杂度,账单生成后会自动从您的账户余额中扣除费用以结算账单。没有成功的计算任务不扣费。 与存储类似,SQL计算也以压缩后的数据大小计费。 账单和下载的使用记录中,输入数据量的单位是Byte,要计算费用,数据量需要先除以1024³换算成GB。 MapReduce按量后付费 2017年8月16日,MaxCompute开始对MapReduce任务进行计费。MaxCompute MapReduce采用的计费标准如下: MR任务当日计算费用=当日总计算时*0.46元(人民币) 一个MR任务一次执行成功的计算时=任务运行时间(小时)*任务调用的核数量。 如果一个MR任务一次执行成功是调用了100core并花费0.5小时,那么本次执行计算时为0.5小时*100核=50个计算时。 MR计算任务成功结束后,系统会统计该计算任务所消耗的计算时,当天所有计量信息将在第二天做一次性汇总收费,生成账单,直接体现在账号账单中,并自动从账号余额中扣除费用以结算账单。 说明 没有执行成功的计算任务不扣费。 任务排队时间不计入计量计时。 相同作业会受集群负载环境的影响而产生较小的费用波动。 资源的基本单位定义为CU(Compute Unit),1CU包含的计算资源为4GB内存加上1核CPU。为避免内存乱用的现象发生,当任务消耗的Memory大于4倍1核CPU时,取Memory除4倍作为CU计算时。 如果您购买了MaxCompute包年包月服务,则在您购买的服务范围内您可以免费使用MR计算任务,不会额外支付费用。 如果您对MapReduce计算任务收费有疑惑,可工单咨询或者到钉钉群咨询(群号11782374)。 按CU预付费 按CU预付费的方式仅阿里云大数据计算服务提供。您可以预先购买一部分资源,MaxCompute会为您预留您所购买的资源。 资源定义 内存 CPU 售价 1CU 4GB 1CPU 150元/月 如果您是新用户,建议您先采用按I/O后付费的方式进行结算。您初期使用MaxCompute时,消耗的资源较少,采购CU预留资源会出现资源闲置。相对而言,按I/O后付费方式成本会更低。 说明 当预付费购买60CU或以上,可以通过MaxCompute预付费资源监控工具-CU管家进行资源监控管理,目前该工具仅支持华北2、华东2、华南1和华东1四个Region,详情请参见MaxCompute预付费资源监控工具-CU管家。 下载计费 对于公网或者跨Region的数据下载,MaxCompute将按照下载的数据大小进行计费。计费公式为: 一次下载费用=下载数据量*下载价格 其中,具体价格如下: 计费项 价格 外网下载价格 0.8元/GB 说明 MaxCompute会按次推送您的下载计量信息,并在第二天给出您的下载费用消耗。 下载数据量:指一次下载请求的HTTP body的大小。承载数据的HTTP body使用protobuffer编码,因此一般比数据原始容量要小,但是比压缩后存储在MaxCompute上的数据量要大。 您通过不同的网络环境,例如公网、阿里云经典网络、VPC网络,或在不同的Region下,访问MaxCompute将有不同的计费行为。有关MaxCompute服务连接的详情请参见访问域名和数据中心。 如果该文档无法解决您在购买MaxCompute时对计量计费的困惑,欢迎加入购买咨询钉钉群。

2019-12-01 23:10:59 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 MaxCompute中,需要计费的操作如下所示: 存储计费:按照存储在MaxCompute的数据的容量大小进行阶梯计费。 计算计费:MaxCompute分按量后付费和按CU预付费两种计算计费方式。 按量后付费:按量后付费方式针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费:即SQL任务按I/O后付费。 MapReduce按量后付费:即MapReduce任务按量进行计费。 按CU预付费:此方式仅在阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 下载计费: MaxCompute将按照下载的数据大小进行计费。 数据导入MaxCompute不计费。 结算说明:账单以Project为单位统计,结算周期为天。 报价速算器:MaxCompute报价速算器下载。 存储计费 存储到MaxCompute的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期为天。 MaxCompute以小时级别采集您每个项目空间下当前的存储使用情况,并以项目空间为基本单位,计算您当天的存储平均值再乘以单价。 项目的数据实际存储量大于0小于等于512MB时 MaxCompute将收取这个项目0.01元的费用。示例如下: 如果您在MaxCompute上,某个项目的存储的数据为100MB,MaxCompute会直接收取您0.01元/天的费用。 如果您有多个项目,且每个项目实际存储量小于512MB,MaxCompute会对每个项目收取0.01元。 项目的数据实际存储量大于等于512MB时 基础价格 大于100GB部分 大于1TB部分 大于10TB部分 大于100TB部分 1PB以上部分 0.0192元/GB/天 0.0096元/GB/天 0.0084元/GB/天 0.0072元/GB/天 0.006元/GB/天 请通过工单联系我们 您的某个项目的存储为50TB,则每天收取的费用如下: 100GB*0.0192 元/GB/天 +(1024-100)GB*0.0096 元/GB/天 +(10240-1024)GB*0.0084 元/GB/天 +(50*1024-10240)GB*0.0072 元/GB/天 =383.12 元/天 说明 由于MaxCompute会对您的数据进行压缩存储,计费依据的容量大小是压缩后的数据,因此多数情况下,它与上传数据之前您自己统计的数据文件大小不同,压缩比一般在5倍左右。 账单出账时间通常在当前计费周期结束后三小时内,最长不超过六个小时。例如前一天的账单一般会在第二天06:00以前生成,具体以系统出账时间为准, 账单生成后会自动从您的账户余额中扣除费用以结算账单。 若对账单有疑虑,可以进入费用中心查看消费明细。 计算计费 MaxCompute分为以下两种计算计费方式。 按量后付费方式:即以作业的消耗作为计量指标,在作业执行后收取费用。 按CU预付费方式:即您提前预定一部分资源,按CU预付费方式仅阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 目前MaxCompute开放的计算任务类型有SQL、UDF、MapReduce、Graph及 机器学习作业。其中SQL(不包括UDF)计算任务已经收费,New SQL(MaxCompute2.0)任务在 2018年5月底启动收费,其他类型暂无收费计划。 说明 有关UDF、Graph及机器学习的收费请关注阿里云相关公告。 按量后付费 按量后付费方式是针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费 SQL任务按量后付费即按I/O后付费:您每执行一条SQL作业,MaxCompute将根据该作业的输入数据及该SQL的复杂度进行计费。该费用在SQL执行完成后产生,并在下一天做一次性的计费结算。 MaxCompute SQL任务的按I/O后付费会针对每个作业产生一次计量。当天的所有计量信息将在第二天做一次性汇总收费。 SQL计算任务的计费公式为: 一次SQL计算费用 = 计算输入数据量 * SQL复杂度 * SQL价格 价格如下: 计费项 价格 SQL价格 0.3元/GB 计算输入数据量:指一条SQL语句实际扫描的数据量,大部分的SQL语句有分区过滤和列裁剪,所以一般情况下这个值会远小于源表数据大小。 列裁剪:例如您提交的SQL是select f1,f2,f3 from t1;,只计算t1表中f1,f2,f3三列的数据量,其他列不会参与计费。 分区过滤:例如SQL语句中含有where ds > 20130101,ds是分区列,则计费的数据量只会包括实际读取的分区,不会包括其他分区的数据。 SQL复杂度:先统计SQL语句中的关键字,再折算为SQL复杂度,具体如下: SQL关键字个数=Join个数+Group By个数+Order By个数+Distinct个数+窗口函数个数+max(insert个数-1, 1)。 SQL复杂度计算: SQL关键字个数小于等于3,复杂度为1。 SQL关键字个数小于等于6,且大于等于4,复杂度为1.5。 SQL关键字个数小于等于19,且大于等于7,复杂度为2。 SQL关键字个数大于等于20,复杂度为4。 复杂度计量命令格式: cost sql <SQL Sentence>; 示例如下: odps@ $odps_project >cost sql SELECT DISTINCT total1 FROM (SELECT id1, COUNT(f1) AS total1 FROM in1 GROUP BY id1) tmp1 ORDER BY total1 DESC LIMIT 100; Complexity:1.5 示例中SQL关键字的个数是4(该语句中有DISTINCT、COUNT、GROUP BY和ORDER),而SQL复杂度是1.5。如果表in1的数据量为1.7GB(对应账单为1.7GB*1024³=1825361100.8Byte),则实际消费为 1.7*1.5*0.3=0.76元。 说明 账单出账时间在第二天06:00前,在计算任务成功结束后,系统会统计该计算任务读取的数据量和SQL复杂度,账单生成后会自动从您的账户余额中扣除费用以结算账单。没有成功的计算任务不扣费。 与存储类似,SQL计算也以压缩后的数据大小计费。 账单和下载的使用记录中,输入数据量的单位是Byte,要计算费用,数据量需要先除以1024³换算成GB。 MapReduce按量后付费 2017年8月16日,MaxCompute开始对MapReduce任务进行计费。MaxCompute MapReduce采用的计费标准如下: MR任务当日计算费用=当日总计算时*0.46元(人民币) 一个MR任务一次执行成功的计算时=任务运行时间(小时)*任务调用的核数量。 如果一个MR任务一次执行成功是调用了100core并花费0.5小时,那么本次执行计算时为0.5小时*100核=50个计算时。 MR计算任务成功结束后,系统会统计该计算任务所消耗的计算时,当天所有计量信息将在第二天做一次性汇总收费,生成账单,直接体现在账号账单中,并自动从账号余额中扣除费用以结算账单。 说明 没有执行成功的计算任务不扣费。 任务排队时间不计入计量计时。 相同作业会受集群负载环境的影响而产生较小的费用波动。 资源的基本单位定义为CU(Compute Unit),1CU包含的计算资源为4GB内存加上1核CPU。为避免内存乱用的现象发生,当任务消耗的Memory大于4倍1核CPU时,取Memory除4倍作为CU计算时。 如果您购买了MaxCompute包年包月服务,则在您购买的服务范围内您可以免费使用MR计算任务,不会额外支付费用。 如果您对MapReduce计算任务收费有疑惑,可工单咨询或者到钉钉群咨询(群号11782374)。 按CU预付费 按CU预付费的方式仅阿里云大数据计算服务提供。您可以预先购买一部分资源,MaxCompute会为您预留您所购买的资源。 资源定义 内存 CPU 售价 1CU 4GB 1CPU 150元/月 如果您是新用户,建议您先采用按I/O后付费的方式进行结算。您初期使用MaxCompute时,消耗的资源较少,采购CU预留资源会出现资源闲置。相对而言,按I/O后付费方式成本会更低。 说明 当预付费购买60CU或以上,可以通过MaxCompute预付费资源监控工具-CU管家进行资源监控管理,目前该工具仅支持华北2、华东2、华南1和华东1四个Region,详情请参见MaxCompute预付费资源监控工具-CU管家。 下载计费 对于公网或者跨Region的数据下载,MaxCompute将按照下载的数据大小进行计费。计费公式为: 一次下载费用=下载数据量*下载价格 其中,具体价格如下: 计费项 价格 外网下载价格 0.8元/GB 说明 MaxCompute会按次推送您的下载计量信息,并在第二天给出您的下载费用消耗。 下载数据量:指一次下载请求的HTTP body的大小。承载数据的HTTP body使用protobuffer编码,因此一般比数据原始容量要小,但是比压缩后存储在MaxCompute上的数据量要大。 您通过不同的网络环境,例如公网、阿里云经典网络、VPC网络,或在不同的Region下,访问MaxCompute将有不同的计费行为。有关MaxCompute服务连接的详情请参见访问域名和数据中心。 如果该文档无法解决您在购买MaxCompute时对计量计费的困惑,欢迎加入购买咨询钉钉群。

2019-12-01 23:11:00 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 MaxCompute中,需要计费的操作如下所示: 存储计费:按照存储在MaxCompute的数据的容量大小进行阶梯计费。 计算计费:MaxCompute分按量后付费和按CU预付费两种计算计费方式。 按量后付费:按量后付费方式针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费:即SQL任务按I/O后付费。 MapReduce按量后付费:即MapReduce任务按量进行计费。 按CU预付费:此方式仅在阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 下载计费: MaxCompute将按照下载的数据大小进行计费。 数据导入MaxCompute不计费。 结算说明:账单以Project为单位统计,结算周期为天。 报价速算器:MaxCompute报价速算器下载。 存储计费 存储到MaxCompute的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期为天。 MaxCompute以小时级别采集您每个项目空间下当前的存储使用情况,并以项目空间为基本单位,计算您当天的存储平均值再乘以单价。 项目的数据实际存储量大于0小于等于512MB时 MaxCompute将收取这个项目0.01元的费用。示例如下: 如果您在MaxCompute上,某个项目的存储的数据为100MB,MaxCompute会直接收取您0.01元/天的费用。 如果您有多个项目,且每个项目实际存储量小于512MB,MaxCompute会对每个项目收取0.01元。 项目的数据实际存储量大于等于512MB时 基础价格 大于100GB部分 大于1TB部分 大于10TB部分 大于100TB部分 1PB以上部分 0.0192元/GB/天 0.0096元/GB/天 0.0084元/GB/天 0.0072元/GB/天 0.006元/GB/天 请通过工单联系我们 您的某个项目的存储为50TB,则每天收取的费用如下: 100GB*0.0192 元/GB/天 +(1024-100)GB*0.0096 元/GB/天 +(10240-1024)GB*0.0084 元/GB/天 +(50*1024-10240)GB*0.0072 元/GB/天 =383.12 元/天 说明 由于MaxCompute会对您的数据进行压缩存储,计费依据的容量大小是压缩后的数据,因此多数情况下,它与上传数据之前您自己统计的数据文件大小不同,压缩比一般在5倍左右。 账单出账时间通常在当前计费周期结束后三小时内,最长不超过六个小时。例如前一天的账单一般会在第二天06:00以前生成,具体以系统出账时间为准, 账单生成后会自动从您的账户余额中扣除费用以结算账单。 若对账单有疑虑,可以进入费用中心查看消费明细。 计算计费 MaxCompute分为以下两种计算计费方式。 按量后付费方式:即以作业的消耗作为计量指标,在作业执行后收取费用。 按CU预付费方式:即您提前预定一部分资源,按CU预付费方式仅阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 目前MaxCompute开放的计算任务类型有SQL、UDF、MapReduce、Graph及 机器学习作业。其中SQL(不包括UDF)计算任务已经收费,New SQL(MaxCompute2.0)任务在 2018年5月底启动收费,其他类型暂无收费计划。 说明 有关UDF、Graph及机器学习的收费请关注阿里云相关公告。 按量后付费 按量后付费方式是针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费 SQL任务按量后付费即按I/O后付费:您每执行一条SQL作业,MaxCompute将根据该作业的输入数据及该SQL的复杂度进行计费。该费用在SQL执行完成后产生,并在下一天做一次性的计费结算。 MaxCompute SQL任务的按I/O后付费会针对每个作业产生一次计量。当天的所有计量信息将在第二天做一次性汇总收费。 SQL计算任务的计费公式为: 一次SQL计算费用 = 计算输入数据量 * SQL复杂度 * SQL价格 价格如下: 计费项 价格 SQL价格 0.3元/GB 计算输入数据量:指一条SQL语句实际扫描的数据量,大部分的SQL语句有分区过滤和列裁剪,所以一般情况下这个值会远小于源表数据大小。 列裁剪:例如您提交的SQL是select f1,f2,f3 from t1;,只计算t1表中f1,f2,f3三列的数据量,其他列不会参与计费。 分区过滤:例如SQL语句中含有where ds > 20130101,ds是分区列,则计费的数据量只会包括实际读取的分区,不会包括其他分区的数据。 SQL复杂度:先统计SQL语句中的关键字,再折算为SQL复杂度,具体如下: SQL关键字个数=Join个数+Group By个数+Order By个数+Distinct个数+窗口函数个数+max(insert个数-1, 1)。 SQL复杂度计算: SQL关键字个数小于等于3,复杂度为1。 SQL关键字个数小于等于6,且大于等于4,复杂度为1.5。 SQL关键字个数小于等于19,且大于等于7,复杂度为2。 SQL关键字个数大于等于20,复杂度为4。 复杂度计量命令格式: cost sql <SQL Sentence>; 示例如下: odps@ $odps_project >cost sql SELECT DISTINCT total1 FROM (SELECT id1, COUNT(f1) AS total1 FROM in1 GROUP BY id1) tmp1 ORDER BY total1 DESC LIMIT 100; Complexity:1.5 示例中SQL关键字的个数是4(该语句中有DISTINCT、COUNT、GROUP BY和ORDER),而SQL复杂度是1.5。如果表in1的数据量为1.7GB(对应账单为1.7GB*1024³=1825361100.8Byte),则实际消费为 1.7*1.5*0.3=0.76元。 说明 账单出账时间在第二天06:00前,在计算任务成功结束后,系统会统计该计算任务读取的数据量和SQL复杂度,账单生成后会自动从您的账户余额中扣除费用以结算账单。没有成功的计算任务不扣费。 与存储类似,SQL计算也以压缩后的数据大小计费。 账单和下载的使用记录中,输入数据量的单位是Byte,要计算费用,数据量需要先除以1024³换算成GB。 MapReduce按量后付费 2017年8月16日,MaxCompute开始对MapReduce任务进行计费。MaxCompute MapReduce采用的计费标准如下: MR任务当日计算费用=当日总计算时*0.46元(人民币) 一个MR任务一次执行成功的计算时=任务运行时间(小时)*任务调用的核数量。 如果一个MR任务一次执行成功是调用了100core并花费0.5小时,那么本次执行计算时为0.5小时*100核=50个计算时。 MR计算任务成功结束后,系统会统计该计算任务所消耗的计算时,当天所有计量信息将在第二天做一次性汇总收费,生成账单,直接体现在账号账单中,并自动从账号余额中扣除费用以结算账单。 说明 没有执行成功的计算任务不扣费。 任务排队时间不计入计量计时。 相同作业会受集群负载环境的影响而产生较小的费用波动。 资源的基本单位定义为CU(Compute Unit),1CU包含的计算资源为4GB内存加上1核CPU。为避免内存乱用的现象发生,当任务消耗的Memory大于4倍1核CPU时,取Memory除4倍作为CU计算时。 如果您购买了MaxCompute包年包月服务,则在您购买的服务范围内您可以免费使用MR计算任务,不会额外支付费用。 如果您对MapReduce计算任务收费有疑惑,可工单咨询或者到钉钉群咨询(群号11782374)。 按CU预付费 按CU预付费的方式仅阿里云大数据计算服务提供。您可以预先购买一部分资源,MaxCompute会为您预留您所购买的资源。 资源定义 内存 CPU 售价 1CU 4GB 1CPU 150元/月 如果您是新用户,建议您先采用按I/O后付费的方式进行结算。您初期使用MaxCompute时,消耗的资源较少,采购CU预留资源会出现资源闲置。相对而言,按I/O后付费方式成本会更低。 说明 当预付费购买60CU或以上,可以通过MaxCompute预付费资源监控工具-CU管家进行资源监控管理,目前该工具仅支持华北2、华东2、华南1和华东1四个Region,详情请参见MaxCompute预付费资源监控工具-CU管家。 下载计费 对于公网或者跨Region的数据下载,MaxCompute将按照下载的数据大小进行计费。计费公式为: 一次下载费用=下载数据量*下载价格 其中,具体价格如下: 计费项 价格 外网下载价格 0.8元/GB 说明 MaxCompute会按次推送您的下载计量信息,并在第二天给出您的下载费用消耗。 下载数据量:指一次下载请求的HTTP body的大小。承载数据的HTTP body使用protobuffer编码,因此一般比数据原始容量要小,但是比压缩后存储在MaxCompute上的数据量要大。 您通过不同的网络环境,例如公网、阿里云经典网络、VPC网络,或在不同的Region下,访问MaxCompute将有不同的计费行为。有关MaxCompute服务连接的详情请参见访问域名和数据中心。 如果该文档无法解决您在购买MaxCompute时对计量计费的困惑,欢迎加入购买咨询钉钉群。

2019-12-01 23:11:00 0 浏览量 回答数 0

回答

详细解答可以参考官方帮助文档 MaxCompute中,需要计费的操作如下所示: 存储计费:按照存储在MaxCompute的数据的容量大小进行阶梯计费。 计算计费:MaxCompute分按量后付费和按CU预付费两种计算计费方式。 按量后付费:按量后付费方式针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费:即SQL任务按I/O后付费。 MapReduce按量后付费:即MapReduce任务按量进行计费。 按CU预付费:此方式仅在阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 下载计费: MaxCompute将按照下载的数据大小进行计费。 数据导入MaxCompute不计费。 结算说明:账单以Project为单位统计,结算周期为天。 报价速算器:MaxCompute报价速算器下载。 存储计费 存储到MaxCompute的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期为天。 MaxCompute以小时级别采集您每个项目空间下当前的存储使用情况,并以项目空间为基本单位,计算您当天的存储平均值再乘以单价。 项目的数据实际存储量大于0小于等于512MB时 MaxCompute将收取这个项目0.01元的费用。示例如下: 如果您在MaxCompute上,某个项目的存储的数据为100MB,MaxCompute会直接收取您0.01元/天的费用。 如果您有多个项目,且每个项目实际存储量小于512MB,MaxCompute会对每个项目收取0.01元。 项目的数据实际存储量大于等于512MB时 基础价格 大于100GB部分 大于1TB部分 大于10TB部分 大于100TB部分 1PB以上部分 0.0192元/GB/天 0.0096元/GB/天 0.0084元/GB/天 0.0072元/GB/天 0.006元/GB/天 请通过工单联系我们 您的某个项目的存储为50TB,则每天收取的费用如下: 100GB*0.0192 元/GB/天 +(1024-100)GB*0.0096 元/GB/天 +(10240-1024)GB*0.0084 元/GB/天 +(50*1024-10240)GB*0.0072 元/GB/天 =383.12 元/天 说明 由于MaxCompute会对您的数据进行压缩存储,计费依据的容量大小是压缩后的数据,因此多数情况下,它与上传数据之前您自己统计的数据文件大小不同,压缩比一般在5倍左右。 账单出账时间通常在当前计费周期结束后三小时内,最长不超过六个小时。例如前一天的账单一般会在第二天06:00以前生成,具体以系统出账时间为准, 账单生成后会自动从您的账户余额中扣除费用以结算账单。 若对账单有疑虑,可以进入费用中心查看消费明细。 计算计费 MaxCompute分为以下两种计算计费方式。 按量后付费方式:即以作业的消耗作为计量指标,在作业执行后收取费用。 按CU预付费方式:即您提前预定一部分资源,按CU预付费方式仅阿里云大数据计算服务提供。 说明 CU使用量和性能估算:如果您使用160CU,处理1TB的数据可获得分钟级的处理性能。 目前MaxCompute开放的计算任务类型有SQL、UDF、MapReduce、Graph及 机器学习作业。其中SQL(不包括UDF)计算任务已经收费,New SQL(MaxCompute2.0)任务在 2018年5月底启动收费,其他类型暂无收费计划。 说明 有关UDF、Graph及机器学习的收费请关注阿里云相关公告。 按量后付费 按量后付费方式是针对SQL任务和MapReduce任务进行计费。 SQL任务按量后付费 SQL任务按量后付费即按I/O后付费:您每执行一条SQL作业,MaxCompute将根据该作业的输入数据及该SQL的复杂度进行计费。该费用在SQL执行完成后产生,并在下一天做一次性的计费结算。 MaxCompute SQL任务的按I/O后付费会针对每个作业产生一次计量。当天的所有计量信息将在第二天做一次性汇总收费。 SQL计算任务的计费公式为: 一次SQL计算费用 = 计算输入数据量 * SQL复杂度 * SQL价格 价格如下: 计费项 价格 SQL价格 0.3元/GB 计算输入数据量:指一条SQL语句实际扫描的数据量,大部分的SQL语句有分区过滤和列裁剪,所以一般情况下这个值会远小于源表数据大小。 列裁剪:例如您提交的SQL是select f1,f2,f3 from t1;,只计算t1表中f1,f2,f3三列的数据量,其他列不会参与计费。 分区过滤:例如SQL语句中含有where ds > 20130101,ds是分区列,则计费的数据量只会包括实际读取的分区,不会包括其他分区的数据。 SQL复杂度:先统计SQL语句中的关键字,再折算为SQL复杂度,具体如下: SQL关键字个数=Join个数+Group By个数+Order By个数+Distinct个数+窗口函数个数+max(insert个数-1, 1)。 SQL复杂度计算: SQL关键字个数小于等于3,复杂度为1。 SQL关键字个数小于等于6,且大于等于4,复杂度为1.5。 SQL关键字个数小于等于19,且大于等于7,复杂度为2。 SQL关键字个数大于等于20,复杂度为4。 复杂度计量命令格式: cost sql <SQL Sentence>; 示例如下: odps@ $odps_project >cost sql SELECT DISTINCT total1 FROM (SELECT id1, COUNT(f1) AS total1 FROM in1 GROUP BY id1) tmp1 ORDER BY total1 DESC LIMIT 100; Complexity:1.5 示例中SQL关键字的个数是4(该语句中有DISTINCT、COUNT、GROUP BY和ORDER),而SQL复杂度是1.5。如果表in1的数据量为1.7GB(对应账单为1.7GB*1024³=1825361100.8Byte),则实际消费为 1.7*1.5*0.3=0.76元。 说明 账单出账时间在第二天06:00前,在计算任务成功结束后,系统会统计该计算任务读取的数据量和SQL复杂度,账单生成后会自动从您的账户余额中扣除费用以结算账单。没有成功的计算任务不扣费。 与存储类似,SQL计算也以压缩后的数据大小计费。 账单和下载的使用记录中,输入数据量的单位是Byte,要计算费用,数据量需要先除以1024³换算成GB。 MapReduce按量后付费 2017年8月16日,MaxCompute开始对MapReduce任务进行计费。MaxCompute MapReduce采用的计费标准如下: MR任务当日计算费用=当日总计算时*0.46元(人民币) 一个MR任务一次执行成功的计算时=任务运行时间(小时)*任务调用的核数量。 如果一个MR任务一次执行成功是调用了100core并花费0.5小时,那么本次执行计算时为0.5小时*100核=50个计算时。 MR计算任务成功结束后,系统会统计该计算任务所消耗的计算时,当天所有计量信息将在第二天做一次性汇总收费,生成账单,直接体现在账号账单中,并自动从账号余额中扣除费用以结算账单。 说明 没有执行成功的计算任务不扣费。 任务排队时间不计入计量计时。 相同作业会受集群负载环境的影响而产生较小的费用波动。 资源的基本单位定义为CU(Compute Unit),1CU包含的计算资源为4GB内存加上1核CPU。为避免内存乱用的现象发生,当任务消耗的Memory大于4倍1核CPU时,取Memory除4倍作为CU计算时。 如果您购买了MaxCompute包年包月服务,则在您购买的服务范围内您可以免费使用MR计算任务,不会额外支付费用。 如果您对MapReduce计算任务收费有疑惑,可工单咨询或者到钉钉群咨询(群号11782374)。 按CU预付费 按CU预付费的方式仅阿里云大数据计算服务提供。您可以预先购买一部分资源,MaxCompute会为您预留您所购买的资源。 资源定义 内存 CPU 售价 1CU 4GB 1CPU 150元/月 如果您是新用户,建议您先采用按I/O后付费的方式进行结算。您初期使用MaxCompute时,消耗的资源较少,采购CU预留资源会出现资源闲置。相对而言,按I/O后付费方式成本会更低。 说明 当预付费购买60CU或以上,可以通过MaxCompute预付费资源监控工具-CU管家进行资源监控管理,目前该工具仅支持华北2、华东2、华南1和华东1四个Region,详情请参见MaxCompute预付费资源监控工具-CU管家。 下载计费 对于公网或者跨Region的数据下载,MaxCompute将按照下载的数据大小进行计费。计费公式为: 一次下载费用=下载数据量*下载价格 其中,具体价格如下: 计费项 价格 外网下载价格 0.8元/GB 说明 MaxCompute会按次推送您的下载计量信息,并在第二天给出您的下载费用消耗。 下载数据量:指一次下载请求的HTTP body的大小。承载数据的HTTP body使用protobuffer编码,因此一般比数据原始容量要小,但是比压缩后存储在MaxCompute上的数据量要大。 您通过不同的网络环境,例如公网、阿里云经典网络、VPC网络,或在不同的Region下,访问MaxCompute将有不同的计费行为。有关MaxCompute服务连接的详情请参见访问域名和数据中心。 如果该文档无法解决您在购买MaxCompute时对计量计费的困惑,欢迎加入购买咨询钉钉群。

2019-12-01 23:11:00 0 浏览量 回答数 0

问题

MaxCompute产品定价:计量计费说明

行者武松 2019-12-01 22:01:17 1662 浏览量 回答数 0

问题

开发者论坛一周精粹(第五十五期) 一次可以备案几个网站?

福利达人 2019-12-01 21:35:13 1744 浏览量 回答数 1

回答

楼主您好, 1. 购买1M带宽后,可以直接联网,不需其它操作(或许需要重启一下系统) 2. 数据盘是相对默认的系统盘来说的,系统盘中只要有空闲容量,一样是可以下载软件或存储文件的。只不过,如果您选择重置系统可能会将系统盘里的所有数据清洗掉喔 感谢您使用阿里云的产品。 ------------------------- 回 12楼(jessho) 的帖子 您好, 欢迎来到阿里云论坛。 请问您购买的是如下图的配置ECS吗?您选择的操作系统是什么呢? ------------------------- 回 14楼(jessho) 的帖子 您好, https://market.aliyun.com/products/templateList/cmjz000542.html 是提示网页打不开吗?能提供一下截图吗?谢谢。 ------------------------- 回 16楼(jessho) 的帖子 您好, 如果您仅是希望有一个 apache + php + mysql 的运行环境,除了 xampp 套件,或许您还可以试一下 phpstudy 套件。 ------------------------- 回 19楼(jessho) 的帖子 您好, 您当前的ECS配置的内存是多少,是1GB内存吗? 或许可以尝试启用Windows的虚拟内存喔: https://help.aliyun.com/knowledge_detail/5988580.html

dongshan8 2019-12-02 01:54:56 0 浏览量 回答数 0

问题

ECS云服务器产品优化

ecs优化 2019-12-01 21:34:28 13425 浏览量 回答数 0

回答

前提条件 您需要开通容器服务和访问控制(RAM)服务。 登录 容器服务管理控制台和RAM 管理控制台开通相应的服务。 说明 用户账户需有 100 元的余额并通过实名认证,否则无法创建按量付费的 ECS 实例和负载均衡。 随集群一同创建的负载均衡实例只支持按量付费的方式。 Kubernetes 集群仅支持专有网络 VPC。 每个账号默认可以创建的云资源有一定的配额,如果超过配额创建集群会失败。请在创建集群前确认您的配额。如果您需要提高配额,请提交工单申请。 每个账号默认最多可以创建 5 个集群(所有地域下),每个集群中最多可以添加 40 个节点。如果您需要创建更多的集群或者节点,请提交工单申请。 说明 Kubernetes 集群中,VPC 默认路由条目不超过 48 条,意味着 Kubernetes 集群使用 VPC 时,默认节点上限是 48 个,如果需要更大的节点数,需要您先对目标 VPC 开工单,提高 VPC 路由条目,再对容器服务提交工单。 每个账号默认最多可以创建 100 个安全组。 每个账号默认最多可以创建 60 个按量付费的负载均衡实例。 每个账号默认最多可以创建 20 个EIP。 创建安全沙箱容器 Kubernetes 集群时,以下界面参数需要按照表中的要求配置,否则创建的集群将无法使用安全沙箱容器的场景。 参数 配置 可用区 目前只有神龙实例支持安全沙箱容器,请确保所选可用区有神龙实例。 kubernetes 版本 1.14.6-aliyun.1 或更高版本。 容器运行时 安全沙箱容器 Worker 实例 新增实例 节点类型 包年包月 实例规格 神龙裸金属服务器(神龙) 挂载数据盘 请至少挂载一块不小于 200GiB 的数据盘,建议 1T+。 操作系统类型 Linux 网络插件 Terway 操作步骤 登录容器服务管理控制台。 在控制台左侧导航栏中,选择集群 > 集群,进入集群列表页面。 单击页面右上角的创建 Kubernetes 集群,在弹出的选择集群模板页面,选择标准托管集群页面,并单击创建,进入Kubernetes 托管版页面。 集群配置页面 完成集群配置。 完成集群基础选项配置。 配置项 描述 集群名称 填写集群的名称。 说明 集群名称应包含 1~63 个字符,可包含数字、汉字、英文字符或连字符(-)。 Kubernetes 版本 选择 1.14.6-aliyun.1 或更高版本。 容器运行时 必须选择安全沙箱容器。 地域 选择集群所在的地域。 资源组 将鼠标悬浮于页面上方的账号全部资源,选择集群所在的资源组。这里显示选择的资源组。 专有网络 设置集群的网络。 说明 Kubernetes 集群仅支持专有网络。您可以在已有 VPC 列表中选择所需的 VPC。如果没有您需要的专有网络,可以通过单击创建专有网络进行创建,请参见创建专有网络。 虚拟交换机 设置虚拟交换机。 说明 您可以在已有虚拟交换机列表中,根据可用区选择 1-3 个交换机 。如果没有您需要的交换机,可以通过单击创建虚拟交换机进行创建,请参见创建交换机。 网络插件 安全沙箱容器集群的网络类型目前仅支持 Terway 。具体请参见如何使用Terway网络插件。 指定 Terway 网络插件需要为 Pod 选择可用的 VSwitch,这些 VSwitch 的网段掩码必须小于或等于 19,例如 172.17.128.0/19;当集群创建 Pod 时,会为 Pod 从选定的那些 VSwitch 网段中分配 IP。 Pod 虚拟交换机 您需要为 Pod 分配 IP 的虚拟交换机。每个 Pod 虚拟交换机分别对应一个 Worker 实例的虚拟交换机。 Service CIDR 您需要指定 Service CIDR,网段不能与 VPC 及 VPC 内已有 Kubernetes 集群使用的网段重复,创建成功后不能修改。而且 Service 地址段也不能和 Pod 地址段重复,有关 Kubernetes 网络地址段规划的信息,请参见VPC下 Kubernetes 的网络地址段规划。 配置 SNAT 设置是否为专有网络配置 SNAT 网关。 说明 如果您使用的 VPC 中当前已有 NAT 网关,容器服务会使用已有的 NAT 网关。 如果 VPC 中没有 NAT 网关,系统会默认自动为您创建一个 NAT 网关。如果您不希望系统自动创建 NAT 网关,可以取消勾选页面下方的为专有网络配置 SNAT。此时您需要自行配置 NAT 网关实现 VPC 安全访问公网环境,或者手动配置 SNAT,否则 VPC 内实例将不能正常访问公网,会导致集群创建失败。 公网访问 设置是否开放使用 EIP 暴露 API Server。 说明 API Server 提供了各类资源对象(Pod,Service 等)的增删改查及 watch 等 HTTP Rest 接口。 如果选择开放,会创建一个 EIP,并挂载到内网 SLB 上。此时,Master 节点的 6443 端口(对应 API Server)暴露出来,用户可以在外网通过 kubeconfig 连接或操作集群。 如果选择不开放,则不会创建 EIP,用户只能在 VPC 内部用 kubeconfig 连接并操作集群。 RDS 白名单 设置 RDS 白名单。将节点 IP 添加到 RDS 实例的白名单中。 说明 允许白名单 RDS 访问 Kubernetes 集群,RDS 必须在当前集群的 VPC 内。 自定义安全组 设置安全组。单击请选择安全组,在弹出的页面选中目标安全组,单击确定。 详细内容请参见安全组概述。 说明 当前只有白名单用户可使用该功能。提交工单申请使用。 完成集群高级选项配置。 配置项 描述 kube-proxy 代理模式 支持 iptables 和 IPVS 两种模式。 iptables:成熟稳定的 kube-proxy 代理模式,Kubernetes service 的服务发现和负载均衡使用 iptables 规则配置,但性能一般,受规模影响较大,适用于集群存在少量的 service。 IPVS:高性能的 kube-proxy 代理模式,Kubernetes service 的服务发现和负载均衡使用 Linux ipvs 模块进行配置,适用于集群存在大量的 service,对负载均衡有高性能要求的场景。 标签 为集群绑定标签。输入键和对应的值,单击添加。 说明 键是必需的,而 值 是可选的,可以不填写。 键不能是 aliyun、http:// 、https:// 开头的字符串,不区分大小写,最多 64 个字符。 值不能是 http:// 或 https://,可以为空,不区分大小写,最多 128 个字符。 同一个资源,标签键不能重复,相同标签键(Key)的标签会被覆盖。 如果一个资源已经绑定了 20 个标签,已有标签和新建标签会失效,您需要解绑部分标签后才能再绑定新的标签。 集群本地域名 设置是否配置集群本地域名。 说明 默认域名为 cluster.local,可自定义域名。域名由两段组成,每段不超过 63 个字符,且只能使用大小写字母和数字,不能为空。 集群删除保护 设置是否启用集群删除保护。为防止通过控制台或 API 误释放集群。 单击下一步:Worker 配置,完成 Worker 节点配置。 说明 安全沙箱容器场景下, Worker 节点仅支持神龙工作节点,选择神龙型号为 ecs.ebmg5s.24xlarge 完成 Work 节点基础选项配置。 配置项 描述 Worker 实例 只支持新增实例,暂不支持添加已有实例。 付费类型 神龙实例付费模式只支持包年包月,不支持按量付费。 购买时长 选择包年包月时,需设置购买时长。目前支持选择 1、2、3、6 和12 个月。 自动续费 选择包年包月时,需设置是否自动续费。 实例规格 目前机型仅支持神龙裸金属服务器(神龙),该机型的实例规格均可使用。 已选规格 已选的实例规格。只能选择一个规格。 数量 新增 Worker 实例的数量。 系统盘 支持 SSD 云盘和高效云盘。 挂载数据盘 支持 SSD 云盘、高效云盘和普通云盘。 说明 挂载的数据盘用于存储节点上所有容器的根文件系统。因此,请至少挂载一块不小于 200 GiB 的数据盘,建议 1T 以上。 操作系统 安全沙箱容器集群仅支持 Linux 系统。 登录方式 设置密钥。 您需要在创建集群的时候选择密钥对登录方式,单击新建密钥对,跳转到 ECS 云服务器控制台,创建密钥对,参见创建SSH密钥对。密钥对创建完毕后,设置该密钥对作为登录集群的凭据。 设置密码。 登录密码:设置节点的登录密码。 确认密码:确认设置的节点登录密码。 密钥对 设置高级选项。 配置项 描述 实例保护 设置是否启用实例保护。 说明 为防止通过控制台或 API 误释放集群节点,默认启用实例保护。 实例自定义数据 请参见生成实例自定义数据。 自定义镜像 不要选择自定义镜像。安全沙箱容器集群不支持使用自定义镜像。 自定义节点名称 是否开启自定义节点名称。 节点名称由前缀 + 节点 IP 地址子串 + 后缀三部分组成: 前缀和后缀均可由.分隔的一个或多个部分构成,每个部分可以使用小写字母、数字和-,且首尾必须为小写字母和数字。 IP 地址段长度指截取节点 IP 地址末尾的位数,取值范围 5-12。 例如:节点 IP 地址为192.168.0.55,指定前缀为 aliyun.com,IP 地址段长度为 5,后缀为 test,则节点名称为aliyun.com00055test。 CPU Policy 设置 CPU policy。 none:默认策略,表示启用现有的默认 CPU 亲和方案。 static:允许为节点上具有某些资源特征的 Pod 赋予增强的 CPU 亲和性和独占性。 污点(Taints) 为集群内所有Worker节点添加污点。 单击下一步:组件配置,完成组件配置。 配置项 描述 Ingress 设置是否安装 Ingress 组件。默认勾选安装 Ingress 组件 ,请参见 Ingress 支持。 说明 如果您勾选创建 Ingress Dashboard,则需要同步安装日志服务组件。 存储插件 设置存储插件,支持 Flexvolume 和 CSI。Kubernetes 集群通过 Pod 可自动绑定阿里云云盘、NAS、 OSS 存储服务。请参见存储管理-Flexvolume 和存储管理-CSI。 云监控插件 设置是否启用云监控插件。您可以选择在 ECS 节点上安装云监控插件,从而在云监控控制台查看所创建 ECS 实例的监控信息。 日志服务 设置是否启用日志服务,您可使用已有 Project 或新建一个 Project。 勾选使用日志服务,会在集群中自动配置日志服务插件。创建应用时,您可通过简单配置,快速使用日志服务,详情参见使用日志服务进行Kubernetes日志采集。 工作流引擎 设置是否使用 AGS。 如果勾选 AGS,则创建集群时系统自动安装 AGS 工作流插件。 如果不勾选,则需要手动安装 AGS 工作流插件,请参见AGS命令行帮助。 可选组件 在系统组件之外,还可以选择安装容器服务提供的其他组件。 单击创建集群,在弹出的当前配置确认页面,单击创建,启动部署。 说明 一个包含多节点的 Kubernetes 集群的创建时间一般约为十分钟。 执行结果 集群创建成功后,您可以在容器服务管理控制台的 Kubernetes 集群列表页面查看所创建的集群。集群列表 您可以单击集群操作列的查看日志,进入集群日志信息页面查看集群的日志信息。 您也可以在集群日志信息页面中,单击资源栈事件查看更详细的信息。集群日志详情 在集群列表页面中,找到刚创建的集群,单击操作列中的管理,查看集群的基本信息和连接信息。集群基本信息 其中: API Server 公网连接端点:Kubernetes 的 API Server 对公网提供服务的地址和端口,可以通过此服务在用户终端使用 kubectl 等工具管理集群。 API Service 内网连接端点:Kubernetes 的 API server 对集群内部提供服务的地址和端口,此 IP 为负载均衡的地址。 Pod网络CIDR:Kubernetes 的 Pod CIDR 定义集群内 Pod 的网段范围。 Service CIDR:Kubernetes 的 Service CIDR 定义集群内暴露服务的网段范围。 测试域名:为集群中的服务提供测试用的访问域名。服务访问域名后缀是 <cluster_id>.<region_id>.alicontainer.com。 kube-proxy 代理模式:Kubernetes service 的服务发现和负载均衡需要通过服务代理进行配置,支持 iptables 和 IPVS 两种模式。 节点 Pod 数量:单个节点可运行 Pod 数量的上限,默认值为 128。 您可以通过kubectl连接Kubernetes集群,执行 kubectl get node查看集群的节点信息。集群结果

huc_逆天 2020-03-26 18:16:45 0 浏览量 回答数 0

回答

您可以通过容器服务控制台非常方便的创建安全沙箱容器集群。 前提条件 您需要开通容器服务和访问控制(RAM)服务。 登录 容器服务管理控制台和RAM 管理控制台开通相应的服务。 说明 用户账户需有 100 元的余额并通过实名认证,否则无法创建按量付费的 ECS 实例和负载均衡。 随集群一同创建的负载均衡实例只支持按量付费的方式。 Kubernetes 集群仅支持专有网络 VPC。 每个账号默认可以创建的云资源有一定的配额,如果超过配额创建集群会失败。请在创建集群前确认您的配额。如果您需要提高配额,请提交工单申请。 每个账号默认最多可以创建 5 个集群(所有地域下),每个集群中最多可以添加 40 个节点。如果您需要创建更多的集群或者节点,请提交工单申请。 说明 Kubernetes 集群中,VPC 默认路由条目不超过 48 条,意味着 Kubernetes 集群使用 VPC 时,默认节点上限是 48 个,如果需要更大的节点数,需要您先对目标 VPC 开工单,提高 VPC 路由条目,再对容器服务提交工单。 每个账号默认最多可以创建 100 个安全组。 每个账号默认最多可以创建 60 个按量付费的负载均衡实例。 每个账号默认最多可以创建 20 个EIP。 创建安全沙箱容器 Kubernetes 集群时,以下界面参数需要按照表中的要求配置,否则创建的集群将无法使用安全沙箱容器的场景。 参数 配置 可用区 目前只有神龙实例支持安全沙箱容器,请确保所选可用区有神龙实例。 kubernetes 版本 1.14.6-aliyun.1 或更高版本。 容器运行时 安全沙箱容器 Worker 实例 新增实例 节点类型 包年包月 实例规格 神龙裸金属服务器(神龙) 挂载数据盘 请至少挂载一块不小于 200GiB 的数据盘,建议 1T+。 操作系统类型 Linux 网络插件 Terway 操作步骤 登录容器服务管理控制台。 在控制台左侧导航栏中,选择集群 > 集群,进入集群列表页面。 单击页面右上角的创建 Kubernetes 集群,在弹出的选择集群模板页面,选择标准托管集群页面,并单击创建,进入Kubernetes 托管版页面。 集群配置页面 完成集群配置。 完成集群基础选项配置。 配置项 描述 集群名称 填写集群的名称。 说明 集群名称应包含 1~63 个字符,可包含数字、汉字、英文字符或连字符(-)。 Kubernetes 版本 选择 1.14.6-aliyun.1 或更高版本。 容器运行时 必须选择安全沙箱容器。 地域 选择集群所在的地域。 资源组 将鼠标悬浮于页面上方的账号全部资源,选择集群所在的资源组。这里显示选择的资源组。 专有网络 设置集群的网络。 说明 Kubernetes 集群仅支持专有网络。您可以在已有 VPC 列表中选择所需的 VPC。如果没有您需要的专有网络,可以通过单击创建专有网络进行创建,请参见创建专有网络。 虚拟交换机 设置虚拟交换机。 说明 您可以在已有虚拟交换机列表中,根据可用区选择 1-3 个交换机 。如果没有您需要的交换机,可以通过单击创建虚拟交换机进行创建,请参见创建交换机。 网络插件 安全沙箱容器集群的网络类型目前仅支持 Terway 。具体请参见如何使用Terway网络插件。 指定 Terway 网络插件需要为 Pod 选择可用的 VSwitch,这些 VSwitch 的网段掩码必须小于或等于 19,例如 172.17.128.0/19;当集群创建 Pod 时,会为 Pod 从选定的那些 VSwitch 网段中分配 IP。 Pod 虚拟交换机 您需要为 Pod 分配 IP 的虚拟交换机。每个 Pod 虚拟交换机分别对应一个 Worker 实例的虚拟交换机。 Service CIDR 您需要指定 Service CIDR,网段不能与 VPC 及 VPC 内已有 Kubernetes 集群使用的网段重复,创建成功后不能修改。而且 Service 地址段也不能和 Pod 地址段重复,有关 Kubernetes 网络地址段规划的信息,请参见VPC下 Kubernetes 的网络地址段规划。 配置 SNAT 设置是否为专有网络配置 SNAT 网关。 说明 如果您使用的 VPC 中当前已有 NAT 网关,容器服务会使用已有的 NAT 网关。 如果 VPC 中没有 NAT 网关,系统会默认自动为您创建一个 NAT 网关。如果您不希望系统自动创建 NAT 网关,可以取消勾选页面下方的为专有网络配置 SNAT。此时您需要自行配置 NAT 网关实现 VPC 安全访问公网环境,或者手动配置 SNAT,否则 VPC 内实例将不能正常访问公网,会导致集群创建失败。 公网访问 设置是否开放使用 EIP 暴露 API Server。 说明 API Server 提供了各类资源对象(Pod,Service 等)的增删改查及 watch 等 HTTP Rest 接口。 如果选择开放,会创建一个 EIP,并挂载到内网 SLB 上。此时,Master 节点的 6443 端口(对应 API Server)暴露出来,用户可以在外网通过 kubeconfig 连接或操作集群。 如果选择不开放,则不会创建 EIP,用户只能在 VPC 内部用 kubeconfig 连接并操作集群。 RDS 白名单 设置 RDS 白名单。将节点 IP 添加到 RDS 实例的白名单中。 说明 允许白名单 RDS 访问 Kubernetes 集群,RDS 必须在当前集群的 VPC 内。 自定义安全组 设置安全组。单击请选择安全组,在弹出的页面选中目标安全组,单击确定。 详细内容请参见安全组概述。 说明 当前只有白名单用户可使用该功能。提交工单申请使用。 完成集群高级选项配置。 配置项 描述 kube-proxy 代理模式 支持 iptables 和 IPVS 两种模式。 iptables:成熟稳定的 kube-proxy 代理模式,Kubernetes service 的服务发现和负载均衡使用 iptables 规则配置,但性能一般,受规模影响较大,适用于集群存在少量的 service。 IPVS:高性能的 kube-proxy 代理模式,Kubernetes service 的服务发现和负载均衡使用 Linux ipvs 模块进行配置,适用于集群存在大量的 service,对负载均衡有高性能要求的场景。 标签 为集群绑定标签。输入键和对应的值,单击添加。 说明 键是必需的,而 值 是可选的,可以不填写。 键不能是 aliyun、http:// 、https:// 开头的字符串,不区分大小写,最多 64 个字符。 值不能是 http:// 或 https://,可以为空,不区分大小写,最多 128 个字符。 同一个资源,标签键不能重复,相同标签键(Key)的标签会被覆盖。 如果一个资源已经绑定了 20 个标签,已有标签和新建标签会失效,您需要解绑部分标签后才能再绑定新的标签。 集群本地域名 设置是否配置集群本地域名。 说明 默认域名为 cluster.local,可自定义域名。域名由两段组成,每段不超过 63 个字符,且只能使用大小写字母和数字,不能为空。 集群删除保护 设置是否启用集群删除保护。为防止通过控制台或 API 误释放集群。 单击下一步:Worker 配置,完成 Worker 节点配置。 说明 安全沙箱容器场景下, Worker 节点仅支持神龙工作节点,选择神龙型号为 ecs.ebmg5s.24xlarge 完成 Work 节点基础选项配置。 配置项 描述 Worker 实例 只支持新增实例,暂不支持添加已有实例。 付费类型 神龙实例付费模式只支持包年包月,不支持按量付费。 购买时长 选择包年包月时,需设置购买时长。目前支持选择 1、2、3、6 和12 个月。 自动续费 选择包年包月时,需设置是否自动续费。 实例规格 目前机型仅支持神龙裸金属服务器(神龙),该机型的实例规格均可使用。 已选规格 已选的实例规格。只能选择一个规格。 数量 新增 Worker 实例的数量。 系统盘 支持 SSD 云盘和高效云盘。 挂载数据盘 支持 SSD 云盘、高效云盘和普通云盘。 说明 挂载的数据盘用于存储节点上所有容器的根文件系统。因此,请至少挂载一块不小于 200 GiB 的数据盘,建议 1T 以上。 操作系统 安全沙箱容器集群仅支持 Linux 系统。 登录方式 设置密钥。 您需要在创建集群的时候选择密钥对登录方式,单击新建密钥对,跳转到 ECS 云服务器控制台,创建密钥对,参见创建SSH密钥对。密钥对创建完毕后,设置该密钥对作为登录集群的凭据。 设置密码。 登录密码:设置节点的登录密码。 确认密码:确认设置的节点登录密码。 密钥对 设置高级选项。 配置项 描述 实例保护 设置是否启用实例保护。 说明 为防止通过控制台或 API 误释放集群节点,默认启用实例保护。 实例自定义数据 请参见生成实例自定义数据。 自定义镜像 不要选择自定义镜像。安全沙箱容器集群不支持使用自定义镜像。 自定义节点名称 是否开启自定义节点名称。 节点名称由前缀 + 节点 IP 地址子串 + 后缀三部分组成: 前缀和后缀均可由.分隔的一个或多个部分构成,每个部分可以使用小写字母、数字和-,且首尾必须为小写字母和数字。 IP 地址段长度指截取节点 IP 地址末尾的位数,取值范围 5-12。 例如:节点 IP 地址为192.168.0.55,指定前缀为 aliyun.com,IP 地址段长度为 5,后缀为 test,则节点名称为aliyun.com00055test。 CPU Policy 设置 CPU policy。 none:默认策略,表示启用现有的默认 CPU 亲和方案。 static:允许为节点上具有某些资源特征的 Pod 赋予增强的 CPU 亲和性和独占性。 污点(Taints) 为集群内所有Worker节点添加污点。 单击下一步:组件配置,完成组件配置。 配置项 描述 Ingress 设置是否安装 Ingress 组件。默认勾选安装 Ingress 组件 ,请参见 Ingress 支持。 说明 如果您勾选创建 Ingress Dashboard,则需要同步安装日志服务组件。 存储插件 设置存储插件,支持 Flexvolume 和 CSI。Kubernetes 集群通过 Pod 可自动绑定阿里云云盘、NAS、 OSS 存储服务。请参见存储管理-Flexvolume 和存储管理-CSI。 云监控插件 设置是否启用云监控插件。您可以选择在 ECS 节点上安装云监控插件,从而在云监控控制台查看所创建 ECS 实例的监控信息。 日志服务 设置是否启用日志服务,您可使用已有 Project 或新建一个 Project。 勾选使用日志服务,会在集群中自动配置日志服务插件。创建应用时,您可通过简单配置,快速使用日志服务,详情参见使用日志服务进行Kubernetes日志采集。 工作流引擎 设置是否使用 AGS。 如果勾选 AGS,则创建集群时系统自动安装 AGS 工作流插件。 如果不勾选,则需要手动安装 AGS 工作流插件,请参见AGS命令行帮助。 可选组件 在系统组件之外,还可以选择安装容器服务提供的其他组件。 单击创建集群,在弹出的当前配置确认页面,单击创建,启动部署。 说明 一个包含多节点的 Kubernetes 集群的创建时间一般约为十分钟。 执行结果 集群创建成功后,您可以在容器服务管理控制台的 Kubernetes 集群列表页面查看所创建的集群。集群列表 您可以单击集群操作列的查看日志,进入集群日志信息页面查看集群的日志信息。 您也可以在集群日志信息页面中,单击资源栈事件查看更详细的信息。集群日志详情 在集群列表页面中,找到刚创建的集群,单击操作列中的管理,查看集群的基本信息和连接信息。集群基本信息 其中: API Server 公网连接端点:Kubernetes 的 API Server 对公网提供服务的地址和端口,可以通过此服务在用户终端使用 kubectl 等工具管理集群。 API Service 内网连接端点:Kubernetes 的 API server 对集群内部提供服务的地址和端口,此 IP 为负载均衡的地址。 Pod网络CIDR:Kubernetes 的 Pod CIDR 定义集群内 Pod 的网段范围。 Service CIDR:Kubernetes 的 Service CIDR 定义集群内暴露服务的网段范围。 测试域名:为集群中的服务提供测试用的访问域名。服务访问域名后缀是 <cluster_id>.<region_id>.alicontainer.com。 kube-proxy 代理模式:Kubernetes service 的服务发现和负载均衡需要通过服务代理进行配置,支持 iptables 和 IPVS 两种模式。 节点 Pod 数量:单个节点可运行 Pod 数量的上限,默认值为 128。 您可以通过kubectl连接Kubernetes集群,执行 kubectl get node查看集群的节点信息。集群结果 上一篇:概述

1934890530796658 2020-03-26 18:10:44 0 浏览量 回答数 0

回答

首先“缓存”Cache这个东西是干什么的,我们应该先有些基本的了解。要是不太明白的可以看看网上的解释:http://baike.baidu.com/view/907.htm 简单讲,阿里云OCS提供的功能就是提供对热点数据的高速访问。在使用OCS之前(或者在使用任何一种缓存服务之前),我们都应该明白关于缓存的这么几点: 缓存里的数据不是持久化保存的,也就是说它像是电脑里的内存,而不像硬盘;我们不能指望OCS里的数据一直保存不丢失。如果你真的需要存储持久化的数据,也许你应该出门左转找阿里云OSS(开发存储服务); 缓存里存的应该是“热点”数据。遵循常常出现的“20-80法则”,通常程序应用中都有一定比例的数据常常被请求访问,这就是所谓的热点数据,OCS正是为这种数据设计存在的。假定我们的程序中有100个数据,每次访问这些数据的概率完全是均匀分布的1/100,那么使用缓存的效果就不会太好,因为这其中不存在热点数据。 数据逐出。我们可以决定哪些数据是热点数据被放到缓存当中,但是如果我们的缓存容量不够大,这些热点数据中某些最近较少被用到的数据还是会被“挤出去”,这种行为叫做数据逐出。如果想减少出现这种情况,我们可以购买更高容量的OCS。 -------------------------         在开始使用之前,关于阿里云OCS,我们还需要知道以下这些事: 阿里云OCS仅支持阿里云内网访问,不支持公网访问。也就是说,我们用办公室或者家里的电脑(都属于公网)是无法连上阿里云OCS的。为什么会这样呢?因为缓存服务的根本目标是要提供低延迟的高速访问,而从公网电脑来连接OCS服务器的场景下,公网的网络环境是不可控的,可能出现延迟很高甚至断连接的情况,这使得缓存服务无法保证“高速、低延迟”的基本特性,所以阿里云OCS是不支持公网直接访问的。如果觉得高延迟的情况对于我们的应用也能接受,那么我们应该去选择阿里云其他的产品(比如OSS开放存储服务),而不应该选择OCS缓存服务。 阿里云OCS需要与ECS(阿里云服务器)配合使用,而且只能与本地区节点的ECS连通。这一点与上一条相关。OCS只能从阿里云内网访问,也就是说我们只能从阿里云ECS上才能访问并使用OCS服务。所以我们在官网购买OCS的时候,会看到提示信息说需要至少有一台ECS才能买OCS。另外,阿里云ECS是分地区节点的,比如北京、杭州、青岛等,我们在购买OCS缓存的时候也要选相应的地区节点。北京的ECS只能访问北京的OCS,而不能访问杭州或青岛的OCS。 阿里云OCS是按购买量收费的,而不是按使用量收费。这点需要提醒新同学们注意,在我们购买了OCS缓存之后,计费就已经开始了,即使我们还没有真正使用缓存。也就是说,我们买了1G的OCS缓存后,即使目前使用量为0,系统也会按照1G的标准来计费。所以我们在购买OCS的时候,要选取适合我们业务数据需要的缓存档位。当然了,阿里云OCS也提供在线升降缓存容量的功能。也就是说,如果我们在使用了一段时间之后,发现购买的OCS缓存不够用了(或者缓存使用量太低),我们可以在线的对已有的OCS实例进行升档(或者降档),而OCS缓存服务不会被中断。 阿里云OCS对于存贮的对象大小是有限制的。缓存通常对其内部存储的数据尺寸是有限制的,阿里云OCS也一样。目前OCS支持存储的数据对象的上限是1,000,000Byte。如果要存的值超过这个限制,我们应该考虑把数据压缩,或从逻辑上分成不同键存储的几个值。 ------------------------- 现在我们开始在阿里云官网上购买OCS实例  http://buy.aliyun.com/ocs  首先我们需要已经有了一台阿里云ECS,否则我们无法在这个页面成功购买OCS。购买的第一步,我们先要确定选择买哪个地区的OCS;这个很重要,如上面所说,如果我们的ECS是属于北京,而我们在这里购买了杭州的OCS,那么这两者是无法配合协同工作的。所以,在购买OCS的时候一定要选择应用服务器ECS所在地区的OCS。下一步是要选择OCS缓存容量。我们要购买多大的缓存,这个取决于我们对自身业务应用中热点数据总量大小的判断。如果一时难以准确判断数据量,也不用担心:我们可以先买一个大致容量的OCS(比如1GB),随后在使用过程中,通过OCS控制台提供的监控功能,我们可以了解到目前OCS缓存的使用量等数据,然后可以自主的调整所需的缓存量,购买更大的缓存(比如升到5GB)或者减少已购的缓存量(比如降到512MB),阿里云会根据我们选择的新配置来调整对应的收费。此外在选择缓存容量的时候,要知道不同容量的缓存档位对应着不同的性能配额,具体来说包括两个指标:吞吐量带宽与每秒请求处理数(QPS)。比如以现在的配额标准,1GB的OCS缓存对应5MB/sec的吞吐量带宽和3000次/sec的请求处理峰值。当我们使用OCS的时候,如果数据量传输的带宽超过了5MB/s, 或者每秒的请求数超过了3000次,都会触发性能配额控制机制,导致某些请求无法返回正常结果。在确定了地区和缓存容量之后,我们就可以直接下单购买OCS了。 ------------------------- 在成功购买OCS之后,我们的联系邮箱和手机都会收到OCS创建成功的通知,里面会包括OCS的实例ID和初始密码(关于密码的用处后面会讲到)。我们现在登录OCS控制台, http://ocs.console.aliyun.com/ 就可以看到已经购买到的OCS实例列表。在列表页面上对应OCS实例的后面点击“管理”,就可以进入该OCS实例的详情页,看到更多的详细信息。 ------------------------- 我们现在已经有了一个OCS缓存实例,现在是时候试玩OCS了。要使用OCS就要写一点程序代码,不过不用担心,我们在这里采用“Happy-Path”的方法,从最简单的操作开始,让新上手的菜鸟们能马上就有一个能调用OCS缓存服务的程序。OCS提供缓存服务,它并不要求我们的程序是哪种语言来写的。我们这里先以Java程序为例,写一个最简单的“Hello World”。(其他编程语言的例子,我们随后附上。)第一步,登录你的阿里云ECS服务器,在上面安装Java JDK和你常用的IDE(比如Eclipse)。一定要记得我们之前说过的,只有在阿里云内网的ECS服务器上,才能访问我们的OCS实例。所以,用家里或是公司的电脑执行下面的代码示例是看不到结果的。 Java JDK和Eclipse都很容易从网上找到下载,比如 http://download.eclipse.org/ 或者 http://www.onlinedown.net/soft/32289.htm 第二步,在把Java开发环境准备好了之后,下载第一个代码示例(Sample-Code-1第三步,在Eclipse里面打开刚下载的OcsSample1.java,我们要根据自己的OCS实例信息修改几个地方。        我们每个人买到的OCS实例的ID都是不重复的,其对应的阿里云内网地址也是独一无二的,这些信息都在OCS控制台上显示出来。我们在同自己的OCS实例建立连接的时候,需要根据这些信息修改OcsSample1.java中的对应地方。         public static void main(String[] args) {                                        final String host = "b2fd2f89f49f11e3.m.cnqdalicm9pub001.ocs.aliyuncs.com"; //控制台上的“内网地址”                   final String port ="11211";       //默认端口 11211,不用改                   final String username = "b2fd2f89f49f11e3"; //控制台上的“访问账号”                   final String password = "my_password"; //邮件或短信中提供的“密码”                   …… …… ……       信息修改完毕,我们可以运行自己的程序了。运行main函数,我们会在Eclipse下面的console窗口看到下面这样的结果(请忽略可能出现的红色INFO调试信息): OCS Sample CodeSet操作完成!Get操作: Open Cache Service,  from www.Aliyun.com     OK,搞定!我们已经成功的连接上了阿里云的OCS并且调用缓存服务成功,就这么简单。-------------------------我们已经成功运行了第一个调用阿里云OCS缓存服务的Sample程序OcsSample1.java,现在我们看看这个程序里都做了什么。                                  …… …… ……                            System.out.println("OCS Sample Code");                                                        //向OCS中存一个key为"ocs"的数据,便于后面验证读取数据,                             //这个数据对应的value是字符串 Open Cache Service,  from www.Aliyun.com                            OperationFuture future = cache.set("ocs", 1000," Open Cache Service,  from www.Aliyun.com");                            //向OCS中存若干个数据,随后可以在OCS控制台监控上看到统计信息                            for(int i=0;i<100;i++){                                String key="key-"+i;                                String value="value-"+i;                                 //执行set操作,向缓存中存数据                                cache.set(key, 1000, value);                            }                             System.out.println("Set操作完成!");                             future.get();  //  确保之前(cache.set())操作已经结束                         //执行get操作,从缓存中读数据,读取key为"ocs"的数据                            System.out.println("Get操作:"+cache.get("ocs"));                            …… …… …… 从这些代码中可以看出: 1. 我们在建立与OCS缓存服务器的连接后,先是向缓存中存(set)了一个“key-value”(键值对)形式的数据,这个数据的key是字符串“ocs”,其对应的value也是字符串;2. 接着我们继续向缓存中存(set)了100个其他简单的“key-value”数据。3. 最后我们进行功能验证。根据之前给定的key,从缓存中获取(get)其对应的value:也就是输入字符串“ocs”,缓存给我们返回value对应的字符串。 以上的步骤中,1与3是相对应的,我们只有先向缓存中set了某个数据,后面才能从缓存中get到这个数据。步骤2中程序向缓存set了100个数据,是为了从另一个方面进行验证。我们回到阿里云OCS控制台,打开“实例详情”页,在“实例监控”的部分点击刷新,会看到其中一些监控项的值已经发生了变化(注:监控信息的刷新可能存在数秒的延迟), 其中的“Key的个数”已经变成了101,也就是说我们程序已经成功地向OCS缓存中存放了101个数据。-------------------------在写下一篇技术贴之前,列一些OCS用户在入门时问到的问题,方便其他刚认识OCS的同学:Question:买了1G的OCS,那就相当于这个1G是专门缓存用的,与ECS服务器的内存没关系是吧~Answer:是的,OCS的缓存容量与您ECS的内存容量是没关系的。Question:OCS 外网测试,怎么连接?有没有外网连接地址哦?Answer:OCS是不能从外网访问的。参照上面的文章。Question:我之前那个OCS可以正常使用,但现在换了一个OCS就不行了,怎么回事?Answer:经核实您的主机是属于杭州节点的,而现在这个OCS是青岛节点的,不同地域之间的产品内网不互通。Question:在设置一个value时,如果指定过期时间为0,会永久保留吗?Answer:指定过期时间为0,OCS就认为此数据不根据过期时间发生淘汰;但是,此数据仍有可能基于LRU被其他数据淘汰,或者由内存清理造成丢失 ,因此不能认为这个value会永久保留。 Question:对OCS的访问是否需要负载均衡? Answer:不需要。对访问请求的负载均衡都是在OCS服务器端来进行的,用户直接使用缓存服务即可,不用考虑负载均衡的事情。 Question:OCS是否会主动关闭闲置的连接? 如果会,请问连接闲置多久会被关闭?Answer:OCS不会主动关闭闲置的用户连接。但是用户的环境如果使用了SLB,则需要参考SLB连接关闭时间。Question:如何设置数据在OCS缓存中的过期时间 ?Answer:关于设置缓存数据的过期时间,可以参考Memcached官方说明: https://code.google.com/p/memcached/wiki/NewCommands An expiration time, in seconds. Can be up to 30 days. After 30 days, is treated as a unix timestamp of an exact date. 翻译过来就是:0~2592000表示从当前时刻算起的时间长度(以秒计算,最长2592000即30天);大于2592000表示UNIX时间戳。 此值设置为0表明此数据不会主动过期。------------------------- 回 12楼(村里一把手) 的帖子 谢谢,要让大家用得好才算数。 -------------------------缓存与数据库相结合使用,是常见的一种应用搭配场景。现在我们再看一个例子,是用OCS搭配MySQL数据库使用。Java示例代码在此(这个示例代码中,大部分与前几个例子类似。因为要与数据库结合,所以程序需要依赖一个JDBC的jar包才能运行。支持MySQL的JDBC jar包在此(在程序中添加MySQL数据库的连接信息:     …… …… ……            // JDBC driver name and database URL    static final String JDBC_DRIVER = "com.mysql.jdbc.Driver";    static final String DB_URL = "jdbc:mysql://xxxxxxx.mysql.rds.aliyuncs.com/testdb"; //MySQL数据库URL        //  Database用户名及密码    static final String DB_USER = "xxxxxx";    static final String DB_PASS = "xxxxxx";            我们设想这样一个场景:我们需要从数据库的tableone表中查找区域不属于北京的记录总数,用SQL表示就是:SELECT count(*)  FROM testdb.tableone where region != 'beijing'假定这个表中的数据如下,则这条SQL查询返回的结果就是7:如果这个查询被调用到的频率很高,多个用户反复不断的在数据库中查这个数据,我们就可以把这个查询结果放到OCS缓存中去。看下面的代码片段,我们用for循环模拟用户连续20次在数据库中查询上述SQL语句:              for (int i = 1; i <= 20; i++) {                String sql = "SELECT count(*)  FROM testdb.tableone where region != 'beijing'";                String key ="non-beijing"; //给SQL语句自定义一个key                //在OCS缓存里按key查找               String value =  (String) cache.get(key);                                if (value == null) {                    // 在OCS缓存里没有命中                    // step 1:从My SQL数据库中查询                    //Load MySQL Driver                      Class.forName(JDBC_DRIVER);                     con = DriverManager.getConnection(DB_URL, DB_USER, DB_PASS);                    ps = con.prepareStatement(sql);                    ResultSet result = ps.executeQuery(sql);                    result.next();                                        value=result.getString(1);                    System.out.println("从MySQL中查询数据.  Key= "+key+" Value="+value);                                       // step 2: 把数据库返回的数据作为value存放到OCS缓存中去                    cache.set(key, EXPIRE_TIME, value);                                    } else {                    // 在OCS缓存里命中                    System.out.println("从OCS中读取数据.     Key= "+key+" Value="+value);                }                            }// end of for在这段代码中我们可以看到,我们给这条SQL语句标记了一个key,当有用户要执行这条SQL的时候,我们首先按照key在OCS缓存中查找:如果没有对应的缓存数据,则连接MySQL数据库执行SQL查询,把结果返回给用户,并把这个查询结果存到OCS缓存中去;如果OCS中已经有了对应的缓存数据,则直接把缓存数据返回给用户。运行结果如下: 从MySQL中查询数据.  Key= non-beijing, Value=7从OCS中读取数据.     Key= non-beijing, Value=7从OCS中读取数据.     Key= non-beijing, Value=7从OCS中读取数据.     Key= non-beijing, Value=7…… …… 从结果可以看出,程序第1次是从MySQL数据库当中查询数据,后面的19次都是从OCS缓存中获取key对应的value直接返回。也就是说,OCS降低了程序去连接MySQL数据库执行SQL查询的次数,减轻了对数据库的负载压力。用户对热点数据访问的频率越高,OCS的这种优势就越明显。

唐翰 2019-12-01 23:41:23 0 浏览量 回答数 0

回答

------------------------- 回 3楼(zuijh) 的帖子 是杭州的。我申请那几天,深圳还没有,今天发现深圳SSD才上架。 ------------------------- 回 6楼(老陈小安) 的帖子 为什么一定要用RDS? 我用ssd并不完全是因为数据库,后台操作,那些零碎文件的随机读写,太快了。 ------------------------- 回 8楼(jason.guos) 的帖子 等以后需要时再说。 RDS只是云数据库,其他东西不能放在上面,ssd要爽快得多。 ------------------------- 回 10楼(zuijh) 的帖子 对啊,MSSQL的RDS比mysql贵太多了,每个月300+,而且还是最低配的那种。 并且它的IOPS有严格限制,是按RDS的配置来分档次的。最低配的RDS的IOPS才500,提高一个档次的RDS才升到1000, 当然顶配的IOPS可到14000(这个级别1年费用10多W妥妥的) 其实RDS从名字看就知道是跟数据库相关的,它的最大卖点并非IO,而是易维护、安全可靠、专业,在数据管理上帮你省了很多心,这肯定要比自建数据库强许多。 但我们用ssd的,不光是数据库检索慢,是因为云磁盘整体IO太吐槽,远程控制管理慢,打开软件慢,压缩解压缩慢,装软件慢,随机读写零碎文件更慢,,并且IO还不稳定,最慢的时候直接让你感觉一切都静止了。,,这点在论坛上的好多朋友都反应过。 总之RDS是RDS的功用,普通的ECS+RDS是不能替代本地SSD方案的。更何况RDS的快,也是因为它本身就是建立在SSD之上的。 ------------------------- 回 12楼(zuijh) 的帖子 哈哈,不好意思,我的回复前两句是赞同你的,后面是回复6楼的。 ------------------------- 回 12楼(zuijh) 的帖子 你用哪个节点的云服务器?一般的云磁盘IO太渣啦,,好的时候勉强还行,但不稳定且波动大,慢起来要命啊。 据说深圳那边的机房普通的云磁盘都采用了混合存储,也还不错。 当然我觉得ssd更适合你,速度真的很棒啊。 价格虽说贵些,但我觉得在可接受范围内,多花一点钱带来性能上的极大飞跃,让你用起来感觉会特别舒适,我觉得值了。 ------------------------- 回 17楼(frod) 的帖子 各有优缺点。 有很多站点要用ASP/ASP.NET,当然是win好了。 另外win2008、win2012,安全性稳定性不比linux差. 关于字符界面,win2008之后有server core ,可以视为一个不带窗口的windows,系统资源也大大降低。 ------------------------- 回 19楼(wgrid.cn) 的帖子 OSS+CDN不是更贵吗。。。 ------------------------- 回26楼wgrid.cn的帖子 青岛应该不用太久也会有了。 ------------------------- 回28楼wgrid.cn的帖子 是的。 ------------------------- 回30楼qw6789的帖子 那就奇怪了。 我装过两次,每次都是12分钟出头就完成了,你的这个的确慢啊,还达不到我1/2的速度。你发个工单让工作人员帮忙看看问题在哪。 ------------------------- 回35楼海曼的帖子 阿里云有云磁盘跟SSD,所以价格当然要区别开呀 ------------------------- 回37楼anxiwen的帖子 是的 ------------------------- 回38楼漂亮脸蛋的帖子 没错,最大缺点就是贵了。 ------------------------- Re购买了阿里云SSD,用了几天感觉真的不错

dolphin2000 2019-12-02 01:49:46 0 浏览量 回答数 0

回答

使用流程 云渲染管理系统(Render Manager 简称渲管)是一个开源的 web 应用,可以帮助用户轻松搭建阿里云上的私有渲染系统,直接调用海量计算资源,一键管控集群规模,在加速渲染任务的同时省去自建集群的烦恼。 渲管首页渲管建立在阿里云 BatchCompute 、OSS 和 ECS 的三个云产品基础之上的。详细介绍请参考官网,在使用渲管前,请确保已开通此三产品。 BatchCompute 是阿里云上的批量计算服务,可以帮助用户进行大规模并行计算。 OSS 是阿里云上的对象存储服务,可以存储海量数据。 ECS 是阿里云上的云服务器,极易运维和操作,可以方便的制作系统镜像。 渲管与这三个云产品的关系如下图rm_c 使用流程 A) 制作计算节点镜像 根据所要使用的区域,创建 ECS 按量云服务器,在云服务器中安装所需的渲染软件;保存为自定义镜像,并将镜像共享给账号1190847048572539,详见计算节点 镜像制作 章节。 B) 上传数据到OSS 将渲染所需要的数据上传到对应区域的OSS,并保持上传前的目录结构。 C) 启动渲管 在 ECS 控制台创建实例(短期使用,选择按量即可),镜像选择镜像市场中的rendermanager(也可以使用渲管安装包进行部署,详见 操作手册 部署章节)。 D) 配置渲管 登录渲管页面 https://ip/rm/login, 配置完基本信息后(AccessKeys 和 OSS bucket),在镜像管理页中添加上面制作的计算节点镜像 ID,并对该计算节点镜像配置渲染命令行。 E) 创建项目 在渲管的项目管理页面创建项目,指定 OSS 的数据映射规则(也称 OSS 挂载,在计算节点启动的时候,OSS 上的数据会被挂载到节点的本地路径),选择计算节点镜像 ID,OSS 的输出路径(用于保存渲染结果),计算节点中的临时输出路径。 F) 集群的创建和管理 在集群管理页面可以按需创建集群,指定计算节点使用的镜像 ID,节点类型和节点数量等信息。 G) 提交渲染作业 在项目页里提交渲染作业,要指定目的集群、渲染的帧范围以及节点数量等信息。提交完作业后,可实时查看渲染日志以及节点 CPU 使用率等信息。 BatchCompute 提供了测试用的计算节点镜像(windows server 2008,ID:m-wz9du0xaa1pag4ylwzsu),它预装了 blender 渲染软件。使用 blender 制作一个小场景的 演示视频 已上传 OSS(测试时,需下载并上传到您的 OSS bucket)。 实际生产时,请根据需求制作合适的计算节点镜像。 准备工作 注册阿里云账号并开通 OSS、ECS 和 BatchCompute 服务。 创建AccessKey。账号信息->AccessKeys->创建 Access Key,记录 Access Key 信息。p0 渲染示例 A) 创建 OSS bucket阿里云官网->管理控制台->对象存储 OSS->创建 bucket(例如,名字为 renderbucket),地域选择深圳(华南1),读写权限为私有。p1p2p3p4 获取blender场景并上传到您的 OSS bucket 在浏览器输入 http://openrm.oss-cn-qingdao.aliyuncs.com/blender/monkey/cube.blend 。 下载示例场景文件(BatchCompute 提供的测试场景),在 OSS 控制台创建目录结构blender/monkey,然后在该目录下上传文件,文件路径为oss://renderbucket/blender/monkey/cube.blend。 启动rendermanager A) 阿里云官网->管理控制台->云服务器 ECS->创建实例 选择按量付费,然后在镜像市场应用开发分类中搜索 rendermanager 镜像,使用 rendermanager 镜像并按下图配置购买,可适当提高带宽。 使用按量付费要求用户账户至少有 100 块金额,对于地域没有要求,看 ECS 实际售卖库存情况而定。 p8p9p001p10 B) 购买后,点击进入管理控制台,在实例列表中可看到刚才启动的云主机(创建会有延迟,请刷新几次)。p11p12 登入渲管页面 在本地浏览器输入 https://ecs_instance_ip/rm/login,ecs_instance_ip 为 ECS 实例的公网 IP(由于使用了 https,请在浏览器页面授权信任)。初始账号密码为: rm_admin rm_admin@123 生产系统,请一定更改账号和密码。 配置渲管 A) 登录后,点击右上角的配置可进入配置页面,填入 SECURITY_ID,SECURITY_KEY, OSS_BUCEKET 三个字段的值,SECURITY_ID 和 SECURITY_KEY 即上面准备工作中获取的 AccessKey 信息。p14 B) 设置 OSS_HOST 为 oss-cn-shenzhen.aliyuncs.com;REGION 的选择主要和计算节点的镜像归属有关,必须和计算节点镜像归属 REGION 保持一致;本例采用的官方计算节点镜像(该镜像部署在深圳 REGION)所以此处设置在深圳 REGION 。 p003 C) 设置 BATCHCOMPUTE_REGION 为 cn-shenzhen;设置深圳 REGION 原因同上。 p004 D) 点击保存。 添加计算节点镜像 镜像管理->添加计算节点镜像,ECS 镜像 ID:m-wz9du0xaa1pag4ylwzsu(BatchCompute 提供的公用计算节点镜像,实际生产,需要用户制作所需要的计算节点镜像,具体制作流程请参考 操作手册)。p15p16 配置渲染软件信息 A) 镜像管理->软件配置。p17 B) 添加软件。p18 C) 选择 blender 模板并确定,执行 render_cmd 渲染命令。p19 创建项目 A) 项目管理->新建项目。p20B) 填入需要映射的 OSS 路径数量(本例只映射一个OSS路径),并点击确认。p21C) 填入项目名称: blender_test。D) 镜像选择上面创建的镜像。E) OSS 映射中的选择/输入路径为 /renderbucket/blender/。F) OSS 映射的目的地为盘符 G: (本例中使用的镜像系统为 Windows2008 server)。G) OSS 输出目录填写为 /renderbucket/rm_test/output/。H) 虚拟机中的输出目录填写为 C:\render_output\,该路径用于渲染节点中临时存放渲染结果,并且该目录里的渲染结果会被传输到 OSS 上输出目录里。I) 确定提交。p22 提交渲染任务 A) 项目管理->提交渲染。p23 B) 选择场景所在的 OSS 路径前缀。p24 C) 选择项目根目录, 直到场景文件cube.blend,选中 monkey 文件夹;可以看到页面下部出现场景选择,勾选场景,选择渲染软件,填入渲染起止帧 1~5,并点击提交渲染按钮。p25 D) 选择渲染中的任务,可查看刚才提交的作业。p26 查看渲染日志 A) 点击任务名称并点击节点列表。p27 B) 点击想查看的节点,可以看到渲染器和渲管 worker 的各种日志、标准输出以及标准出错信息(计算节点运行起来后才能看到日志信息)。p28p29p30 查看渲染结果 A) 等待作业结束后,在已结束的任务中可以可以看到任务状态为 Finished。p31 B) 点击任务名称,可以查看 OSS 上的输出路径。p32 C) 在 OSS 控制台上查看对应输出路径,获取地址后点击获取 URL 并复制。p33 D) 在浏览器粘贴 URL 可以直接查看图片。p34 E) 恭喜您已跑通云上的 Blender 渲染测试。 渲管系统结构 A) 渲管与各云产品的详细关系 渲管与各云产品的依赖如下图所示。rm_c B) 渲管系统内部结构 p0渲管系统由如下 3 部分组成: render manager: 基于 flask 框架开发web 应用,主要负责和用户进行人机交互,接收用户请求。 render master:后台背景进程,根据人机交互的结果进行作业提交以调度。 本地数据库:主要存放用户提交的渲管请求,待渲管任务结束后自动删除该信息。 2. 渲管的部署 在阿里云云市场有已安装了渲管的 ECS 镜像免费售卖,在启动 ECS 实例时,将镜像指定为镜像市场中的 rendermanager,启动即可使用。 A) 获取渲管镜像 官方渲管镜像:RenderManager 镜像,创建 ECS 实例时,选择镜像市场,直接搜索以上关键字即可获取。自定义渲管镜像:基础镜像建议采用 Ubuntu 14.04 64 位,按照以下步骤安装渲管系统。 安装 flask sudo apt-get install python-flask -y 安装 uwsgi sudo apt-get install uwsgi uwsgi-plugin-python -y 安装 nginx sudo apt-get install nginx –y 修改 nginx 配置,在 http 模块里添加新的 server server { listen 1314; #listen port server_name localchost; location / { include uwsgi_params; uwsgi_pass 0.0.0.0:8818;#this must be same app_config.xml } } vi /etc/nginx/nginx.conf 启动 nginx 或重启 nginx 获取最新版渲管 wget http://openrm.oss-cn-qingdao.aliyuncs.com/render_manager_release/latest/rm.tar.gz 解压 tar –xf rm.tar.gz x.x.x 为版本号 cd rm-x.x.x 指定安装目录部署 python deploy.py /root/rm_install/ 启动 cd /root/rm_install/rm_install_s && python rm_cmd.py start 登陆渲管 http://installed_machine_ip:1314/rm/login 初始账号: rm_admin 密码: rm_admin@123 若监听在公网,建议采用https B) 开通 ECS 实例 请指定某 ECS 实例部署渲管系统,配置参数,请参考创建 Linux 实例 公网 IP 地址选择分配。 镜像市场: RenderManager 或者自定义镜像 设置密码 3. 渲管系统升级 p43页面右上角的版本信息中可以查看是否有可升级的新版本,第一次使用渲管前,建议升级到最新版本后再使用渲管(每次只能升级到下一版本,所以升级后请查看是否已是最新版本)。 渲管系统配置 p44配置页面里有渲管系统的各种系统设置。第一次使用渲管时,必须设置SECURITY_ID,SECURITY_KEY,OSS_BUCKET 三个值,不然渲管无法使用。 SECURITY_ID 和 SECURITY_KEY 即阿里云账号的 AccessKeys 信息,可以在阿里云官网控制台创建。 OSS_BUCKET 可以在 OSS 的控制台创建,用于存储渲管自身的 worker 包已经渲染数据。 渲管默认使用青岛(华北1)区域,如果使用其他区域的 BatchCompute,请修改配置中的OSS_HOST(OSS_BUCKET 必须与 OSS_HOST 属于同一个region)与 BATCHCOMPUTE_REGION,每个 REGION 的 OSS_HOST 也可以工单咨询获取。 区域的选择和计算节点的镜像区域保持一致,若计算节点镜像在深圳区域,则渲管的区域信息也必须是深圳,同时 OSS BUCKET 也必须是该 REGION 下的 BUCKET;若使用批量计算官方提供的计算节点镜像则需要选择深圳 REGION。p45 其他配置项,请参考页面上的说明。 OSS数据上传 提交渲染作业前,一定要将渲染用到的数据上传 OSS,在计算节点启动后再上传的数据将不能在计算节点中访问到。 由于 OSS 页面控制台上传数据有大小限制,所以上传数据建议使用 OSS 的 命令行工具(类 linux系统)、windows 客户端或者 MAC 客户端 。 参考 更多 OSS工具 。 计算节点镜像制作 渲染客户如希望定制计算节点镜像,请参考:自定义镜像。 计算节点镜像管理 A) 添加计算节点镜像 在镜像管理页面,可以添加计算节点镜像 ID。add_image B) 给计算节点镜像配置渲染软件信息 在添加完计算节点镜像 ID 后,在镜像信息页面可以点击添加软件并配置软件信息。image_config 在配置软件信息时,需要填入渲染软件的名称,渲染文件的后缀(用于识别渲染文件)以及执行代码。 执行代码(要求 python 语法)会在渲管 worker 中执行,render_cmd 变量即渲染时的命令行,命令行应根据实际安装的渲染软件来填写,比如渲染软件的路径,以及一些参数。渲管中的模板只是个示例,实际使用需要微调。 render_cmd 渲管已经预定义了一些变量和函数,在执行代码中可以调用这些变量和函数,例如$CPU在执行期会被替换成实际的cpu核数,$START_FRAME在执行期会被替换成起始帧号。 如果想增加自定义参数,可以选择添加参数,添加的自定义参数会需要在提交作业时填入。关于所有的可用变量可在软件配置页面点击查看。 $OUTPUT_LOCAL_DIR这个变量即创建项目时配置的节点内临时输出路径,渲染的输出结果应该放在该路径下(大部分渲染器都支持在命令行中指定输出路径),在渲染结束后该目录下的数据会被传输到 OSS。 项目管理 A) 项目创建 创建项目时需要指定 OSS 数据映射,计算节点镜像,虚拟机内的临时输出路径,OSS 输出路径。 i. 计算节点镜像 创建项目时选择的计算节点镜像(需要先在镜像管理页面添加计算节点镜像)是提交 AutoCluster 作业时使用的镜像,如果提交作业时指定了集群(在集群管理页面可以创建)则作业直接跑在所指定的集群中。 ii. OSS数据映射 OSS 数据映射(或者称 OSS 数据挂载),可以将 OSS 上的数据映射到计算节点的本地路径(windows 是盘符),一个作业中的所有计算节点可以共享访问到相同的数据。OSS 数据挂载有如下功能或限制: 映射的目的路径必须根据计算节点镜像实际的操作系统类型进行填写,否则会导致挂载失败,windows 只能映射到盘符(例 G:),linux 必须是绝对路径。 可共享读取访问 OSS 上的数据。 不支持修改 OSS 上已存在的文件和文件夹名称。 选择 WriteSupport 后,支持本地(挂载路径下)文件和文件夹的创建,以及新建文件的修改。 挂载的本地路径里的改动只是本计算节点可见,不会同步到 OSS。 在 Windows 系统中,在挂载时刻已存在的文件夹中创建的文件或文件夹将不支持删除操作,linux 系统可以。 选择 LockSupport 后,将可以使用文件锁功能(只影响 windows)。 OSS 数据挂载会有分布式cache(集群内),所以在大规模并发读取数据时性能较好(能达到 10MB~30MB,200 台并发,读取 20G 数据)。 OSS 路径必须以’/’结尾。 iii. OSS 输出目录与临时本地输出目录 渲染作业结束时,计算节点中的临时输出目录中的数据将会被传输到 OSS 输出目录中。临时输出路径格式必须与节点的操作系统类型对应,不然会出错。 B) 提交渲染任务 p41选择目的集群和场景所在的 OSS 路径前缀后进入提交的详细页面,选中场景文件的上一级目录,可以被提交渲染的场景文件则会被列出,勾选想要渲染的文件,选择配置的渲染软件和起止帧,即可提交渲染作业。 可指定节点数量,如果指定集群,并发数量上限是集群的节点数上限。填入的起止帧会均匀的分布在各个计算节点被渲染。p42 任务结束后可以在OSS上查看输出结果,如果开启自动下载(配置页面设置),渲管会在任务结束后将OSS上的输出结果下载到渲管部署的机器上。 C) 渲染日志 在节点列表页面,点击节点可以查看各种日志,渲管 worker 日志里都是渲管系统 worker 的日志,里面可以查看该计算节点中运行的实际渲染命令行。 渲染器标准输出和渲染器标准输出里的日志,就是渲染软件的输出日志。 p47 调试 新启动的渲管需要进行配置,并进行调试然后再提交大规模的渲染任务。 配置完,应该先提交1帧测试任务,查看错误日志(渲管 worker 日志和渲染器标准输出)调整渲染软件配置(主要是修改渲染命令行),走通全流程并确认结果没有问题后才进行正式生产渲染。 当作业失败的时候可以在作业信息中查看失败原因项。p46 建议创建一个集群然后将作业提交到该集群进行调试(AutoCluster 的作业需要启停计算节点,比较费时)。 集群管理 在集群管理页面可以创建自定义集群,需要选择所需的计算节点镜像 ID,节点的实例类型(BatchCompute 的不同区域可能支持的实例类型和磁盘类型不同,详细可以提工单咨询)。 磁盘类型和磁盘大小(根据实际制作的计算节点镜像的磁盘大小选择,选择过小会导致无法启动计算节点)。创建好的集群可以动态调整节点数量,甚至调整数量到 0。p48

1934890530796658 2020-03-28 20:45:20 0 浏览量 回答数 0

问题

建站教程汇总

chenchuan 2019-12-01 21:34:33 719 浏览量 回答数 0

问题

ECS如何搭建网站

boxti 2019-12-01 21:43:20 2123 浏览量 回答数 1

问题

荆门开诊断证明-scc

游客5k2abgdj3m2ti 2019-12-01 22:09:00 1 浏览量 回答数 0

回答

回 2楼dongshan8的帖子 查看了mysql的状态,mysql没有运行,重启mysql报错: The server quit without updating PID file (/alidata/server/mysql/data/izj6c7l4xqujlr9cqqvfq5z.pid). 甚至登录数据库都链接不上: 提示:ERROR 2002 (HY000): Can't connect to local MySQL server through socket '/tmp/mysql.sock' (2)   为什么上传不了图片?? ------------------------- 回 2楼dongshan8的帖子 mysql  错误日志: 171007 11:27:38 [Note] /alidata/server/mysql/bin/mysqld: Shutdown complete 171007 11:27:38 mysqld_safe mysqld from pid file /alidata/server/mysql/data/izj6c7l4xqujlr9cqqvfq5z.pid ended 171007 11:29:48 mysqld_safe Starting mysqld daemon with databases from /alidata/server/mysql/data 171007 11:29:48 [Note] Plugin 'FEDERATED' is disabled. 171007 11:29:48 InnoDB: The InnoDB memory heap is disabled 171007 11:29:48 InnoDB: Mutexes and rw_locks use GCC atomic builtins 171007 11:29:48 InnoDB: Compressed tables use zlib 1.2.3 171007 11:29:48 InnoDB: Using Linux native AIO 171007 11:29:48 InnoDB: Initializing buffer pool, size = 128.0M InnoDB: mmap(137363456 bytes) failed; errno 12 171007 11:29:48 InnoDB: Completed initialization of buffer pool 171007 11:29:48 InnoDB: Fatal error: cannot allocate memory for the buffer pool 171007 11:29:48 [ERROR] Plugin 'InnoDB' init function returned error. 171007 11:29:48 [ERROR] Plugin 'InnoDB' registration as a STORAGE ENGINE failed. 171007 11:29:48 [ERROR] Unknown/unsupported storage engine: InnoDB 171007 11:29:48 [ERROR] Aborting 171007 11:29:48 [Note] /alidata/server/mysql/bin/mysqld: Shutdown complete 171007 11:29:49 mysqld_safe mysqld from pid file /alidata/server/mysql/data/izj6c7l4xqujlr9cqqvfq5z.pid ended 171009 17:19:36 mysqld_safe Starting mysqld daemon with databases from /alidata/server/mysql/data 171009 17:19:36 [Note] Plugin 'FEDERATED' is disabled. 171009 17:19:36 InnoDB: The InnoDB memory heap is disabled 171009 17:19:36 InnoDB: Mutexes and rw_locks use GCC atomic builtins 171009 17:19:36 InnoDB: Compressed tables use zlib 1.2.3 171009 17:19:36 InnoDB: Using Linux native AIO 171009 17:19:36 InnoDB: Initializing buffer pool, size = 128.0M InnoDB: mmap(137363456 bytes) failed; errno 12 171009 17:19:36 InnoDB: Completed initialization of buffer pool 171009 17:19:36 InnoDB: Fatal error: cannot allocate memory for the buffer pool 171009 17:19:36 [ERROR] Plugin 'InnoDB' init function returned error. 171009 17:19:36 [ERROR] Plugin 'InnoDB' registration as a STORAGE ENGINE failed. 171009 17:19:36 [ERROR] Unknown/unsupported storage engine: InnoDB 171009 17:19:36 [ERROR] Aborting 171009 17:19:36 [Note] /alidata/server/mysql/bin/mysqld: Shutdown complete 171009 17:19:36 mysqld_safe mysqld from pid file /alidata/server/mysql/data/izj6c7l4xqujlr9cqqvfq5z.pid ended ------------------------- 回 7楼一如繁星的帖子 用过你的方法,还是会出问题 ------------------------- 回 9楼一如繁星的帖子 wordpress ------------------------- 回 11楼dongshan8的帖子 惨,我还是先买个云故障排查服务。。。。 ------------------------- 回 13楼一如繁星的帖子 我再试试 ------------------------- 回 13楼一如繁星的帖子 key_buffer_size 16M改为16K了,service mysqld restart重启 报的是这个错, MySQL server PID file could not be found!                  [FAILED] Starting MySQL.The server quit without updating PID file (/alidata/server/mysql/data/izj6c7l4xqujlr9cqqvfq5z.pid). ------------------------- Re过一段时间网站就会提示无法连接数据库? 找到原因了, 加这句设置, innodb_buffer_pool_size = 16M 之前默认的设置是128m,太大了, ------------------------- 回 18楼dongshan8的帖子 今天又不行了,后来重启了mysql,然后没问题了。。。 可能以后还会出问题。。。 不知道是不是内存不足引起的。。。 mysql老是奔溃可不行啊。。。。 ------------------------- 回 20楼dongshan8的帖子 是不是内存不足的问题?升级内存能解决不? ------------------------- 回 20楼dongshan8的帖子 分配了128m的swap,看看效果 ------------------------- 回 25楼dongshan8的帖子 分配了128m的swap之后,有时还是会挂,但是比以前好的是,刷新几次后又好了。。。 ------------------------- 回 24楼一如繁星的帖子 好,我再看看 ------------------------- 回 28楼dongshan8的帖子 嗯嗯,刚刚加到了600,我到配置总共就只有1g存储空间。。。。 ------------------------- 回 28楼dongshan8的帖子 还是会崩,加到900了,再不行,看来要升级硬件了 ------------------------- 回 28楼dongshan8的帖子 挂掉掉时候,我用free -m查看, 情况如下。。。。               total        used        free      shared  buff/cache   available Mem:            992         877          47           0          66          11 Swap:           878         874           4 ------------------------- 回 32楼dongshan8的帖子 检查哪个部分呢? ------------------------- 回 34楼dongshan8的帖子 应该是负载过高了。。。 top - 14:27:13 up 34 days,  3:19,  1 user,  load average: 67.84, 62.05, 65.08 Tasks: 147 total,   5 running, 142 sleeping,   0 stopped,   0 zombie %Cpu(s):  3.3 us,  4.7 sy,  0.0 ni,  0.0 id, 92.0 wa,  0.0 hi,  0.0 si,  0.0 st KiB Mem :  1016412 total,    77500 free,   877932 used,    60980 buff/cache KiB Swap:   799996 total,     1640 free,   798356 used.    23668 avail Mem uptime 14:28:47 up 34 days,  3:21,  1 user,  load average: 44.24, 56.26, 62.76 这个要怎么排查? ------------------------- 回 34楼dongshan8的帖子 查了下io的情况     2017年11月01日     _x86_64_    (1 CPU) avg-cpu:  %user   %nice %system %iowait  %steal   %idle            1.27    0.00    0.45    3.10    0.00   95.18 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda              35.66    12.64   33.92   12.89  1707.77   104.50    77.43     1.16   24.76   11.67   59.24   0.77   3.61 avg-cpu:  %user   %nice %system %iowait  %steal   %idle            3.03    0.00    3.03   93.94    0.00    0.00 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda            2725.25    16.16 1254.55  204.04 25187.88  1018.18    35.93    37.92   32.38   22.92   90.55   0.69 100.91 avg-cpu:  %user   %nice %system %iowait  %steal   %idle            3.00    0.00    4.00   93.00    0.00    0.00 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda            2341.00   193.00 1240.00  852.00 22212.00  4096.00    25.15    97.59   42.19   28.58   62.01   0.48  99.80 avg-cpu:  %user   %nice %system %iowait  %steal   %idle            4.04    0.00    5.05   90.91    0.00    0.00 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda            2458.59   228.28 1250.51 1261.62 35842.42  6000.00    33.31   127.28   50.78   28.00   73.36   0.40 101.01 avg-cpu:  %user   %nice %system %iowait  %steal   %idle            4.00    0.00    6.00   90.00    0.00    0.00 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda            2253.00   202.00 1242.00 1241.00 27452.00  5796.00    26.78   125.97   50.55   31.77   69.35   0.40 100.00 avg-cpu:  %user   %nice %system %iowait  %steal   %idle            5.00    0.00    4.00   91.00    0.00    0.00 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda            2363.00   216.00 1240.00 1234.00 22520.00  5800.00    22.89   121.06   49.92   25.39   74.57   0.40 100.00 avg-cpu:  %user   %nice %system %iowait  %steal   %idle            4.04    0.00    2.02   93.94    0.00    0.00 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda            2697.98     2.02 1251.52   77.78 20379.80   339.39    31.17    25.78   24.78   20.44   94.64   0.75 100.30 avg-cpu:  %user   %nice %system %iowait  %steal   %idle            5.00    0.00    3.00   92.00    0.00    0.00 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda            2342.00     0.00 1241.00    0.00 15188.00     0.00    24.48    25.93   20.83   20.83    0.00   0.80  99.00 avg-cpu:  %user   %nice %system %iowait  %steal   %idle            7.00    0.00    3.00   90.00    0.00    0.00 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda            2488.00    76.00 1240.00  616.00 15212.00  2680.00    19.28    75.35   35.44   19.57   67.40   0.53  99.20 avg-cpu:  %user   %nice %system %iowait  %steal   %idle            8.08    0.00    4.04   87.88    0.00    0.00 Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util vda            2270.71   111.11 1233.33  874.75 16234.34  4032.32    19.23    84.46   44.69   19.15   80.70   0.47  99.90 惨了。。。。 ------------------------- 回 34楼dongshan8的帖子 过一段时间又正常了。。。。 ------------------------- 回 38楼dongshan8的帖子 怎么跟踪? 用啥命令? ------------------------- Re过一段时间网站就会提示无法连接数据库? 查出来了,是被攻击了。。。

btsbear 2019-12-01 23:29:17 0 浏览量 回答数 0

回答

回5楼weiwang的帖子 嗯嗯,完全了解了,可是流量怎么计算呢?好像在 (云服务器) 那里看不到关于这流量这事。 突然想起,扩容全部配置都可以吗?如果可以扩容数据库,那他们也卖不出去 (开放存储服务 OSS)  或 (关系型数据库 RDS) 呀。 ------------------------- 回7楼weiwang的帖子 嗯嗯,谢谢你帮忙解惑呀,现在大概明白了,谢谢~。 ------------------------- 回9楼lizhichao11的帖子 哎?专项备案是指只要开论坛还是说域名前面是bbs.就要办理BBS专项备案? 在网上查,说专项备案就不是已经取消了,假的哎? ------------------------- 回11楼mrznz的帖子 嗯嗯,谢谢指点~ ------------------------- 回14楼lizhichao11的帖子 怎么说都得谢谢你的回答啊,不过专项备案已经在2010年7月份取消了,去了百科了解了。 http://baike.baidu.com/view/2290378.htm 摸清建站确实很需要,我以前也用免费空间耍下建过,不过印象已经很模糊了而且也是在别人帮助下。 是笨了点。 其实如何慢慢壮大规模与管理好站点的思路都已经逐渐想好,因为知道做站很累,所以做好所有准备了,毕竟上了大专有很多空余时间, 嘿嘿。 ------------------------- 回16楼thewebsite的帖子 嗯嗯,现在专项备案取消应该没问题了,不过你说的规模不大是指怎样的?平均日IP多少哈? ------------------------- 回19楼thewebsite的帖子 刚又看到书香门第和饭饭txt也上W的,倒是用国外的。 ------------------------- 回23楼chunyukey的帖子 嗯嗯. ------------------------- Re【纯新手】求各位混就了的大大们指点。 使用国外空间的理由:   1、克服电信网通互访问题   世界上最远的距离不是中国和美国,而是网通和电信   2、免去备案等复杂手续   备案=被按   3、价格便宜,服务器稳定   国外主机市场成熟规范,网络设施绝对一流   4、一般服务商有30天"原款奉还"政策   健全的法律保证了商家承诺的可靠性   5、 解决面向其他国家访客速度慢的问题   特别是针对国外客户的网站,很有必要选择国外的主机   6、 网站内容限制相对宽松   这个就不用多说了   现在国内的虚拟主机市场还不完善,如果自己想搞个站玩,手头不宽裕又头疼国内备案等复杂手续,最好使用国外主机   使用国外空间存在的问题:   1、速度不如某些国内服务器   因为中国的出口带宽限制,可能上传下载速度无法与国内的主机相比   2、IP有被国内屏蔽的危险   有时候互联网也不是自由畅通,特别是在中国国情下   3、付款一般需要国际信用卡   自己购买,一张国际卡是必须的   4、语言障碍,一般是英语操作界面,英语客服   外国人不会为了中国人改说中国话,不过我相信作为一个站长,简单的交流应该是没问题,实在不行就搬出在线翻译 ------------------------- Re【纯新手】求各位混就了的大大们指点。 - -。这,国际信用卡,唉。 看来得好好想想了,要不直接换别的类型来做了。 谢谢大家的回答了哈。

x9418 2019-12-02 00:37:01 0 浏览量 回答数 0

问题

【精品问答】Java技术1000问(1)

问问小秘 2019-12-01 21:57:43 37578 浏览量 回答数 11

问题

ECS部署RabbitMQ的方式有哪些

boxti 2019-12-01 21:44:43 2638 浏览量 回答数 0
阿里云大学 云服务器ECS com域名 网站域名whois查询 开发者平台 小程序定制 小程序开发 国内短信套餐包 开发者技术与产品 云数据库 图像识别 开发者问答 阿里云建站 阿里云备案 云市场 万网 阿里云帮助文档 免费套餐 开发者工具 企业信息查询 小程序开发制作 视频内容分析 企业网站制作 视频集锦 代理记账服务 2020阿里巴巴研发效能峰会 企业建站模板 云效成长地图 高端建站