阿里云发布聆听平台 全球招募300位MVP

简介: 本文讲的是阿里云发布聆听平台 全球招募300位MVP品经理、技术、销售,究竟谁该来主导一款产品的发展?阿里云通过聆听平台的发布,给出了自己的答案。

本文讲的是阿里云发布聆听平台 全球招募300位MVP品经理、技术、销售,究竟谁该来主导一款产品的发展?阿里云通过聆听平台的发布,给出了自己的答案。

6月10日,在云栖大会·上海峰会上,阿里云将正式发布聆听平台。这是一个开放的建议反馈社区,客户可在此提交产品的使用体验、建议与意见,推进产品质量改进,并对产品未来版本的发展方向产生积极影响。

“阿里云时刻不忘倾听来自客户的意见反馈。我们的愿景是将聆听平台打造成一个充满活力的全球社群”,阿里云总裁胡晓明表示。

阿里云发布聆听平台 全球招募300位MVP

目前,阿里云客户登陆聆听平台网页,即可提交对于阿里云产品体验的任何建议,包含但不限于产品、服务、官网、文档等。一旦建议被采纳,客户不仅会得到物资奖励,他的名字也将永久地列在产品功能列表上。

聆听平台的推出意味着阿里云产品从产品经理主导转向与客户共建模式。

据了解,beta版聆听平台自3月底上线以来,两个月时间里客户提交了数千条建议,这些建议改进已经大量体现在产品服务中。

同时,为表彰社区突出贡献者,阿里云宣布启动最有价值技术专家(MVP)计划,MVP称号将在全球范围内授予为行业做出贡献的300位专业人士。他们的专家意见能反馈客户的深度需求。胡晓明表示:“我们非常感谢这些乐于帮助社区和云计算产业的专业人士”。

这也是中国云计算厂商首次推出全球最有价值技术贡献者计划。

原文发布时间为:2017-06-07 

本文作者:朱立娜

本文来自云栖社区合作伙伴IT168,了解相关信息可以关注IT168

原文标题:阿里云发布聆听平台 全球招募300位MVP

目录
相关文章
|
域名解析 网络协议 对象存储
阿里云 CDN 控制台演示:源站加速|学习笔记
快速学习阿里云 CDN 控制台演示:源站加速
阿里云 CDN 控制台演示:源站加速|学习笔记
|
存储 Kubernetes 调度
k8s教程(pod篇)-DaemonSet(每个node上只调度一个pod)
k8s教程(pod篇)-DaemonSet(每个node上只调度一个pod)
508 0
|
前端开发 Java
(前后端分离)SpringBoot配置全局跨域,前端一访问就报错的原因竟然是这个
(前后端分离)SpringBoot配置全局跨域,前端一访问就报错的原因竟然是这个
421 0
|
10月前
|
知识图谱
YOLOv11改进策略【Conv和Transformer】| 2023 引入CloFormer中的Clo block 双分支结构,融合高频低频信息(二次创新C2PSA)
YOLOv11改进策略【Conv和Transformer】| 2023 引入CloFormer中的Clo block 双分支结构,融合高频低频信息(二次创新C2PSA)
304 8
YOLOv11改进策略【Conv和Transformer】| 2023 引入CloFormer中的Clo block 双分支结构,融合高频低频信息(二次创新C2PSA)
|
9月前
|
前端开发 JavaScript PHP
开发体育赛事直播系统:炫彩弹幕直播间界面技术实现方案
本方案为体育赛事直播系统的炫彩弹幕直播间实现,采用前后端分离架构。后端基于ThinkPHP 6.x,使用MySQL存储数据、Redis缓存及Swoole实现WebSocket实时通信;前端采用Vue.js 3与Element Plus构建响应式界面,支持动态弹幕展示。移动端提供Android(Java+Retrofit)与iOS(Objective-C+AFNetworking)客户端,实现跨平台兼容。系统包含直播管理、弹幕发送与实时更新等功能,适用于高并发场景,代码结构清晰,扩展性强。
|
消息中间件 存储 Kafka
一文读懂 kafka 的事务机制 2
一文读懂 kafka 的事务机制
|
存储 缓存 开发者
APP闪退的原因
APP闪退的原因
1286 1
|
Linux 网络安全 文件存储
如何本地部署Jellyfin影音服务器并实现在公网访问
如何本地部署Jellyfin影音服务器并实现在公网访问
615 0
|
存储 人工智能 运维
云原生AIGC工作台(AIGC-Gateway)助力企业加速AIGC落地
为了解决企业内部落地AIGC引擎的通用性问题,阿里云与行者AI通过CloudNativeGame社区一起开源了AIGC-Gateway项目,降低企业内部AIGC落地的难度与费用,真正做到开箱即用,即开即用。
1647 1
|
人工智能 人机交互 语音技术
INTERSPEECH2023论文解读|BAT一种低延迟低内存消耗的RNN-T模型
INTERSPEECH2023论文解读|BAT一种低延迟低内存消耗的RNN-T模型
615 0