游客ecbzulttnudeo_个人页

游客ecbzulttnudeo
0
1
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
暂无更多信息
正在加载, 请稍后...
暂无更多信息
  • 提交了问题 2018-07-13

    如何备案

  • 提交了问题 2018-07-13

    目前已关闭对大于8M文件上传的支持

  • 提交了问题 2018-05-17

    对象存储 OSS22) 版本号 2.5.0

  • 回答了问题 2018-05-10

    往国外发送邮件,对方显示乱码,我们的系统是日文系统,对方也是

    详细解答可以参考官方帮助文档问题出现的原因: 发件人在发送邮件时使用了特殊的字符形式与收件人阅读邮件时默认的字符形式冲突,导致阅读邮件时出现乱码现象。 万网企业邮箱 WebMail 默认采用 Unicode(UTF-8) 编码发送邮件,如果收件人邮箱的 WebMail 不支持 Unicode(UTF-8) 编码,就会显示乱码,出现乱码后,可以按照以下方式通过浏览器手工选择正确编码进行浏览。 浏览方法: 在收件箱中单击邮件标题,进行阅读邮件。将鼠标移动到邮件内容处,单击右键,选择编码后选择并尝试用适合的字符编码,浏览的问题解决了。但是由于收件人的 WebMail 不支持 UTF-8 编码,如果以 WebMail 方式回复或者转发的话,WebMail 将无法实现 UTF-8 到其默认编码的转换,因为手工方式选择的编码是由 Web 浏览器完成的解码,并不是由对方 WebMail 服务器完成的,对方服务器在处理回复或者转发时,由于不支持 UTF-8 编码,造成编码无法识别而转换错误,这样后继的收件人将无法正确解读完整邮件,就会出现问题描述的那样了 解决此问题。 有三种情况: 收件人邮件服务商增加对 UTF-8 编码的支持。(收件人向他的邮件服务商提出需求)收件人依靠客户端收信软件进行回复或者转发。(可以采用本地默认的GB2312编码,由于本地操作系统对 UTF-8 编码的支持是可以完成编码转换的)发件人使用客户端软件进行发送(默认使用 GB2312 编码,不使用 UTF-8 编码) 关于 UTF-8 编码和中文字符集,国内网站较多使用简体中文编码 GB2312 字符集;港澳台地区网站使用繁体中文网页编码 BIG5 字符集。并且他们中的多数是支持 UTF-8 编码的,比如搜狐。但也有少数服务商还不支持 UTF-8 编码,这样其 WebMail 转发或者回复的邮件就会出现乱码。并且这种回复或者转发后形成的乱码是无法复原的。 由于 UTF-8 包含了简体和繁体中文字符,能正确显示多种语言文字,具有标准化和国际惯用的优势,随着全球一体化的不断深入, Unicode 在将来会取代现有的 GBK 及 BIG5 ,您可能已经感觉到,万网企业邮箱与国际间的邮件往来已经没有乱码的问题了,现阶段乱码问题主要集中在默认 GB2312 并且不支持 UTF-8 编码的邮件服务商,解决这一问题的过程可能会长一些,但一旦形成标准后,受益的还是我们广大用户,在此希望得到您的理解与支持。 解决方案: 通过 Web 页面接收阅读邮件,请按以下方式进行转换字符编码。 在收件箱中单击邮件标题。进行阅读邮件。将鼠标移动到邮件内容处,单击右键,选择编码后选择并尝试用适合的字符编码。 注意:请不要要选中或涂黑文字,只要将鼠标移动到邮件内容处即可。 通过OutLook接收阅读邮件,请按以下方式进行转换字符编码。 在收件箱中、单击邮件标题。进行阅读邮件。在菜单拦中选择查看下的编码,从中选择合适的字符编码。
    踩1 评论0
  • 提交了问题 2018-04-19

    产品退换

  • 回答了问题 2018-03-30

    误注销了已备案的域名

    详细解答可以参考官方帮助文档 备案号一经注销,便不可恢复,且网站无法访问。建议尽快重新提交域名备案,待管局审核完成后,网站便可重新开通访问。
    踩1 评论0
  • 回答了问题 2018-03-19

    移动加速怎么弄

    详细解答可以参考官方帮助文档 网站/应用 静态加速 站点或应用中大量静态资源的加速分发。建议将站点内容进行动静分离,静态内容使用阿里云CDN加速。动态内容可以使用云服务器ECS,静态资源如各类型图片、css、js小文件等,建议结合 对象存储OSS 使用。可以有效加速内容加载速度,轻松搞定网站图片、短视频等内容分发。 架构示意图: 视音频点播/大文件下载 支持各类文件的下载、分发,支持在线点播加速业务,如mp4、flv视频文件或者平均单个文件大小在20M以上,主要的业务场景是视音频点播、大文件下载(如安装包下载)等,建议搭配对象存储OSS使用,可提升回源速度,节约近2/3回源带宽成本。 架构示意图: 直播加速 阿里云 视频直播服务 服务已单独上线发布。基于领先的内容接入与CDN网络以及大规模分布式实时转码技术打造的音视频直播平台,提供便捷接入、高清流畅、低延迟、高并发的音视频直播服务。支持多直播场景,全景数据统计,丰富角度分析;直播功能丰富,录制回放、实时封面、实时转码、连麦混流。 架构示意图: 移动应用加速 移动APP更新文件(apk文件)分发,移动APP内图片、页面、短视频、UGC等内容的优化加速分发。提供httpDNS服务,避免DNS劫持并获得实时精确的DNS解析结果,有效缩短用户访问时间,提升用户体验。 架构示意图 其他CDN产品 如果您对CDN加速有较高的安全需求,可使用阿里云安全加速 SCDN。 如果您想使用含 P2P技术的CDN进一步降低CDN成本,可使用 阿里云 PCDN。 如果您对动态内容的加速也有需求,可使用 阿里云全站加速。
    踩1 评论0
  • 回答了问题 2018-03-06

    投递任务到odps,任务显示已经成功了,但是odps里面的没有数据

    详细解答可以参考官方帮助文档 投递日志到 MaxCompute 是日志服务的一个功能,能够帮助您最大化数据价值。您可以自己决定对某个日志库是否启用该功能。一旦启用该功能,日志服务后台会定时把写入到该日志库内的日志投递到 MaxCompute 对应的表格中。 使用限制 数加控制台创建、修改投递配置必须由主账号完成,不支持子账号操作。 投递MaxCompute是批量任务,请谨慎设置分区列:保证一个同步任务内处理的数据分区数小于512个;用作分区列的字段值不能包括/等MaxCompute保留字段 。配置细节请参考下文投递配置说明。 不支持海外Region的MaxCompute投递,海外Region的MaxCompute请使用dataworks进行数据同步。国内Region投递支持如下: 日志服务Region MaxCompute Region 华北1 华东2 华北2 华北2、华东2 华北3 华东2 华北5 华东2 华东1 华东2 华东2 华东2 华南1 华南1、华东2 香港 华东2 功能优势 日志服务收集的日志除了可以被实时查询外,还可以把日志数据投递到大数据计算服务MaxCompute(原ODPS),进一步进行个性化BI分析及数据挖掘。通过日志服务投递日志数据到MaxCompute具有如下优势: 使用便捷 您只需要完成2步配置即可以把日志服务Logstore的日志数据迁移到MaxCompute中。 避免重复收集工作 由于日志服务的日志收集过程已经完成不同机器上的日志集中化,无需重复在不同机器上收集一遍日志数据后再导入到MaxCompute。 充分复用日志服务内的日志分类管理工作 用户可让日志服务中不同类型的日志(存在不同Logstore中)、不同Project的日志自动投递到不同的MaxCompute表格,方便管理及分析MaxCompute内的日志数据。 说明 一般情况下日志数据在写入Logstore后的1个小时导入到MaxCompute,您可以在控制台投递任务管理查看导入状态。导入成功后即可在MaxCompute内查看到相关日志数据。判断数据是否已完全投递请参考文档。 结合日志服务的实时消费,投递日志数据到MaxCompute的数据通道以及日志索引功能,可以让用户按照不同的场景和需求、以不同的方式复用数据,充分发挥日志数据的价值。 配置流程 举例日志服务的一条日志如下: 16年01月27日20时50分13秒 10.10.*.* ip:10.10.*.* status:200 thread:414579208 time:27/Jan/2016:20:50:13 +0800 url:POST /PutData?Category=YunOsAccountOpLog&AccessKeyId=****************&Date=Fri%2C%2028%20Jun%202013%2006%3A53%3A30%20GMT&Topic=raw&Signature=******************************** HTTP/1.1 user-agent:aliyun-sdk-java 日志左侧的ip、status、thread、time、url、user-agent等是日志服务数据的字段名称,需要在下方配置中应用到。 步骤1 初始化数加平台 在日志服务的控制台Logstore列表单击日志投递列的MaxCompute。 自动跳转到初始化数加平台的页面。MaxCompute默认为按量付费模式,具体参见MaxCompute文档说明。 查看服务协议和条款后单击确定,初始化数加平台。 初始化开通需10~20秒左右,请耐心等待。如果已经开通数加及大数据计算服务MaxCompute(原ODPS),将直接跳过该步骤。 步骤2 数据模型映射在日志服务和大数据计算服务MaxCompute(原ODPS)之间同步数据,涉及两个服务的数据模型映射问题。您可以参考日志服务日志数据结构了解数据结构。 将样例日志导入MaxCompute,分别定义MaxCompute数据列、分区列与日志服务字段的映射关系: MaxCompute 列类型 MaxCompute 列名(可自定义) MaxCompute 列类型(可自定义) 日志服务字段名(投递配置里填写) 日志服务字段类型 日志服务字段语义 数据列 log_source string __source__ 系统保留字段 日志来源的机器 IP。 log_time bigint __time__ 系统保留字段 日志的 Unix 时间戳(是从1970 年 1 月 1 日开始所经过的秒数),由用户日志的 time 字段计算得到。 log_topic string __topic__ 系统保留字段 日志主题。 time string time 日志内容字段 解析自日志。 ip string ip 日志内容字段 解析自日志。 thread string thread 日志内容字段 解析自日志。 log_extract_others string __extract_others__ 系统保留字段 未在配置中进行映射的其他日志内字段会通过 key-value 序列化到json,该 json 是一层结构,不支持字段内部 json 嵌套。 分区列 log_partition_time string __partition_time__ 系统保留字段 由日志的 time 字段对齐计算而得,分区粒度可配置,在配置项部分详述。 status string status 日志内容字段 解析自日志,该字段取值应该是可以枚举的,保证分区数目不会超出上限。 MaxCompute 表至少包含一个数据列、一个分区列。 系统保留字段中建议使用 __partition_time__,__source__,__topic__。 MaxCompute 单表有分区数目 6 万的限制,分区数超出后无法再写入数据,所以日志服务导入 MaxCompute表至多支持3个分区列。请谨慎选择自定义字段作为分区列,保证其值是可枚举的。 系统保留字段 __extract_others__ 历史上曾用名 _extract_others_,填写后者也是兼容的。 MaxCompute 分区列的值不支持”/“等特殊字符,这些是 MaxCompute 的保留字段。 MaxCompute 分区列取值不支持空,所以映射到分区列的字段必须要在日志里存在,空分区列的日志会在投递中被丢弃。 步骤3 配置投递规则 开启投递。 初始化数加平台之后,根据页面提示进入LogHub —— 数据投递页面,选择需要投递的Logstore,并单击开启投递。 您也可以在MaxCompute(原ODPS)投递管理页面选择需要投递的Logstore,并单击开启投递以进入LogHub —— 数据投递页面。 图 1. 开启投递 配置投递规则。 在 LogHub —— 数据投递页面配置 字段关联等相关内容。 图 2. 配置投递规则 配置项含义: 参数 语义 投递名称 自定义一个投递的名称,方便后续管理。 MaxCompute Project MaxCompute项目名称,该项默认为新创建的Project,如果已经是MaxCompute老客户,可以下拉选择已创建其他Project。 MaxCompute Table MaxCompute表名称,请输入自定义的新建的MaxCompute表名称或者选择已有的MaxCompute表。 MaxCompute 普通列 按序,左边填写与MaxCompute表数据列相映射的日志服务字段名称,右边填写或选择MaxCompute表的普通字段名称及字段类型。 MaxCompute 分区列 按序,左边填写与MaxCompute表分区列相映射的日志服务字段名称,右边填写或选择MaxCompute表的普通字段名称及字段类型。 分区时间格式 __partition_time__输出的日期格式,参考 Java SimpleDateFormat。 导入MaxCompute间隔 MaxCompute数据投递间隔,默认1800,单位:秒。 该步会默认为客户创建好新的MaxCompute Project和Table,其中如果已经是MaxCompute老客户,可以下拉选择其他已创建Project。 日志服务投递MaxCompute功能按照字段与列的顺序进行映射,修改MaxCompute表列名不影响数据导入,如更改MaxCompute表schema,请重新配置字段与列映射关系。 日志服务数据的一个字段最多允许映射到一个MaxCompute表的列(数据列或分区列),不支持字段冗余。 参考信息 __partition_time__ 格式 将日志时间作为分区字段,通过日期来筛选数据是MaxCompute常见的过滤数据方法。 __partition_time__ 是根据日志time字段值计算得到(不是日志写入服务端时间,也不是日志投递时间),结合分区时间格式,向下取整(为避免触发MaxCompute单表分区数目的限制,日期分区列的值会按照导入MaxCompute间隔对齐)计算出日期作为分区列。 举例来说,日志提取的time字段是“27/Jan/2016:20:50:13 +0800”,日志服务据此计算出保留字段__time__为1453899013(Unix时间戳),不同配置下的时间分区列取值如下: 导入MaxCompute间隔 分区时间格式 __partition_time__ 1800 yyyy_MM_dd_HH_mm_00 2016_01_27_20_30_00 1800 yyyy-MM-dd HH:mm 2016-01-27 20:30 1800 yyyyMMdd 20160127 3600 yyyyMMddHHmm 201601272000 3600 yyyy_MM_dd_HH 2016_01_27_20 请勿使用精确到秒的日期格式:1. 很容易导致单表的分区数目超过限制(6万);2. 单次投递任务的数据分区数目必须在512以内。 以上分区时间格式是测试通过的样例,您也可以参考Java SimpleDateFormat自己定义日期格式,但是该格式不得包含斜线字符”/“(这是MaxCompute的保留字段)。 __partition_time__ 使用方法 使用MaxCompute的字符串比较筛选数据,可以避免全表扫描。比如查询2016年1月26日一天内日志数据: select * from {ODPS_TABLE_NAME} where log_partition_time >= '2015_01_26' and log_partition_time __extract_others__使用方法 log_extract_others为一个json字符串,如果想获取该字段的user-agent内容,可以进行如下查询: select get_json_object(sls_extract_others, '$.user-agent') from {ODPS_TABLE_NAME} limit 10; 说明 get_json_object是MaxCompute提供的标准UDF。请联系MaxCompute团队开通使用该标准UDF的权限。 示例供参考,请以MaxCompute产品建议为最终标准。 其他操作 编辑投递配置 在Logstore列表投递项,单击“修改”即可针对之前的配置信息进行编辑。其中如果想新增列,可以在大数据计算服务MaxCompute(原ODPS)修改投递的数据表列信息,则点击“修改”后会加载最新的数据表信息。 投递任务管理 在启动投递功能后,日志服务后台会定期启动离线投递任务。用户可以在控制台上看到这些投递任务的状态和错误信息。具体请参考管理日志投递任务。 如果投递任务出现错误,控制台上会显示相应的错误信息: 错误信息 建议方案 MaxCompute项目空间不存在 在MaxCompute控制台中确认配置的MaxCompute项目是否存在,如果不存在则需要重新创建或配置。 MaxCompute表不存在 在MaxCompute控制台中确认配置的MaxCompute表是否存在,如果不存在则需要重新创建或配置。 MaxCompute项目空间或表没有向日志服务授权 在MaxCompute控制台中确认授权给日志服务账号的权限是否还存在,如果不存在则需要重新添加上相应权限。 MaxCompute错误 显示投递任务收到的MaxCompute错误,请参考MaxCompute相关文档或联系MaxCompute团队解决。日志服务会自动重试最近两天时间的失败任务。 日志服务导入字段配置无法匹配MaxCompute表的列 重新配置MaxCompute表格的列与日志服务数据字段的映射配置。 当投递任务发生错误时,请查看错误信息,问题解决后可以通过云控制台中“日志投递任务管理”或SDK来重试失败任务。 MaxCompute中消费日志 MaxCompute用户表中示例数据如下: | log_source | log_time | log_topic | time | ip | thread | log_extract_others | log_partition_time | status | +------------+------------+-----------+-----------+-----------+-----------+------------------+--------------------+-----------+ | 10.10.*.* | 1453899013 | | 27/Jan/2016:20:50:13 +0800 | 10.10.*.* | 414579208 | {'url':'POST /PutData?Category=YunOsAccountOpLog&AccessKeyId=****************&Date=Fri%2C%2028%20Jun%202013%2006%3A53%3A30%20GMT&Topic=raw&Signature=******************************** HTTP/1.1','user-agent':'aliyun-sdk-java'} | 2016_01_27_20_50 | 200 | +------------+------------+-----------+-----------+-----------+-----------+------------------+--------------------+-----------+ 同时,我们推荐您直接使用已经与MaxCompute绑定的大数据开发Data IDE来进行可视化的BI分析及数据挖掘,这将提高数据加工的效率。 授予MaxCompute数据投递权限 如果在数加平台执行表删除重建动作,会导致默认授权失效。请手动重新为日志服务投递数据授权。 在MaxCompute项目空间下添加用户: ADD USER aliyun$shennong_open@aliyun.com; shennong_open@aliyun.com 是日志服务系统账号(请不要用自己的账号),授权目的是为了能将数据写入到MaxCompute MaxCompute项目空间Read/List权限授予: GRANT Read, List ON PROJECT {ODPS_PROJECT_NAME} TO USER aliyun$shennong_open@aliyun.com; MaxCompute项目空间的表Describe/Alter/Update权限授予: GRANT Describe, Alter, Update ON TABLE {ODPS_TABLE_NAME} TO USER aliyun$shennong_open@aliyun.com; 确认MaxCompute授权是否成功: SHOW GRANTS FOR aliyun$shennong_open@aliyun.com; A projects/{ODPS_PROJECT_NAME}: List | Read A projects/{ODPS_PROJECT_NAME}/tables/{ODPS_TABLE_NAME}: Describe | Alter | Update
    踩1 评论0
  • 回答了问题 2018-02-04

    Linux实例的创建步骤

    详细解答可以参考官方帮助文档 在使用负载均衡服务前,您需要至少创建两台ECS实例并部署应用服务。然后将其添加到负载均衡实例中,作为后端服务器来接收负载均衡监听转发的客户端请求。 背景信息 本教程将指引您创建两个名称分别为ECS01和ECS02的ECS实例。 操作步骤 登录云服务器ECS管理控制台。 在左侧导航栏,单击实例,然后单击创建实例。 在创建页面,配置ECS实例。 本教程中的ECS实例的主要配置信息如下。您可以根据您的需求进行配置。 地域:由于负载均衡不支持跨地域部署,因此创建ECS实例时应选择与负载均衡服务相同的地域。本教程选择华东1。 网络类型:选择专有网络。使用系统提供的默认专有网络和交换机及安全组。 镜像:选择公共镜像(Ubuntu 16.04 64位)作为两个ECS实例的操作系统。 购买数量:将购买数量设置为2,系统会自动创建两台相同配置的ECS实例。 单击立即购买,完成创建。 在实例列表页面,选择华东1地域,找到目标实例。然后将光标移至实例名称区域,单击出现的铅笔图标,分别输入ECS01和ECS02作为实例名称。
    踩1 评论0
正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息