保利协鑫切片业务总裁郑雄久:“若大数据将良品率提升一个点,就是一个亿”丨云栖2017南京

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

雷锋网按:4月26日,阿里云栖大会·南京峰会召开。此次大会上,传统制造业与云共同高调亮相。

据雷锋网了解,2016年8月2日,苏州协鑫光伏科技有限公司和阿里云签约,双方约定将通过大数据分析技术,打造协鑫光伏切片智能工厂。据悉,此次合作将涉及工业可视化大屏搭建、TB级海量数据云存储、产品良品仿真建模等多方面内容。此次会议上,保利协鑫切片业务总裁郑雄久出席并总结了合作成果。

保利协鑫切片业务总裁郑雄久:“若大数据将良品率提升一个点,就是一个亿”丨云栖2017南京

以下是郑雄久演讲全文,雷锋网(公众号:雷锋网)对其进行了不改变原意的编辑:

阿里巴巴与保利协鑫这两个不搭界的、关联度很小的企业走一起,我觉得是有必然性的。

保利协鑫的宗旨是把绿色能源带到中国,我们的企业定位是建设成为全球一流的切片工厂,为了达成这个目标,我们在物流和各种制造业中应用了自动化手段和经营生产理念。但如果要真正实现智能制造,差距还是比较大的,最核心的问题是我们有很多数据,但这些数据就像孤岛一样存在,并不是互联互通的,更谈不上分析。

保利协鑫切片业务总裁郑雄久:“若大数据将良品率提升一个点,就是一个亿”丨云栖2017南京

我们一直在分析生产过程、制造结果,分析人机料法环5要素,但是靠传统经验性的积累,靠人工分析,数据的关联性或分析得准确与否,更多的靠工程师的经验和累计,能做得太少了,做不到大数据量级的分析。但阿里在云计算、云存储方面有很强大的能力。阿里和协鑫制造这两年的合作也是很凑巧,去年的2月份,我跟阿里云的同行见面,那次,我谈起了我的苦衷,作为一个制造业从业人员的痛点:我有很多数据,机台每天都有海量传输数据,但却不知道效果好坏的原因是有什么?不知道良率波动的原因是什么?阿里那边人说,或许阿里能够帮你解决、分析这个问题。这么两分钟的交流造就了这次的合作。

大数据上云

去年5月份,我们的项目开始实施,去年12月份,一期项目上线,我跟大家汇报一下目前达成的情况。首先是做不间断的数据上传,但并不是把所有不关联的数据都上传,而是人脑和机脑相结合,通过分析,人脑对人机料法环5个要素的关系有概念,将工程师的经验和阿里强大运算能力的机脑结合,通过运算方式,进行上传和同时对数据的提炼,这是一个艰苦的工作。尽管协鑫的制造中有智能化装备,我们和阿里花了很长时间才理顺数据的传输模式。制造业同行实现智能运算过程中或许面临同样的问题,但前提是,首先要练好自己的内功。

保利协鑫切片业务总裁郑雄久:“若大数据将良品率提升一个点,就是一个亿”丨云栖2017南京

智能分析

首先是让躲在背后的黑箱子数据透明化,第二步是通过智能分析,实现生产过程中的数据关联,将人机料法环5个因素实现关联,我们的成果有三方面:

一是核心零件劣化监控,通过装备或零部件更换实现智对生产成果的智能预测。通过阿里云运算,大体能分析出生产过程中导致不良率的因素或哪些成本可以节约等,这对于我们是很重要的参考。

二是工艺参数推荐,通过分析能够提供这样的借鉴:通过怎样的数据改造或参数调整,装备能达到比较好的效果。

三是多变量分析,技术人员可以从质量指标和个人经验两个角度,分别筛选正反样本和分析结果维度,系统自动出具多变量相关性结果。

保利协鑫切片业务总裁郑雄久:“若大数据将良品率提升一个点,就是一个亿”丨云栖2017南京

可视化大屏

很酷的一项合作成果是可视化大屏,可以对整个管辖的切片事业部的生产实施过程中进行展示,通过展示的数据让现场变得更透明化。我管辖车间分布在不同区域,涉及苏州、太仓、阜宁、扬州、常州,以前没法实时了解,但通过秒级的数据传输,对工厂透明化、智能化有很大帮助。

保利协鑫切片业务总裁郑雄久:“若大数据将良品率提升一个点,就是一个亿”丨云栖2017南京

不同于徐工的演讲,演讲中涵盖了从需求端到客户数据上传,我们涉及到的就是一个点:如何让数据主动告诉我们现场发生了什么,如何通过与阿里云的合作更好管控现场?但作为制造业来说,这个点的解决也是十分重要的,如果协鑫有200多亿销售额,只要提升一个点,良率价值就是1个亿。

转自雷锋网

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
11月前
|
存储 分布式计算 运维
【2023云栖】刘一鸣:Data+AI时代大数据平台建设的思考与发布
本文根据2023云栖大会演讲实录整理而成,演讲信息如下: 演讲人:刘一鸣 | 阿里云自研大数据产品负责人 演讲主题:Data+AI时代大数据平台应该如何建设
102117 15
|
18天前
|
分布式计算 大数据 Serverless
云栖实录 | 开源大数据全面升级:Native 核心引擎、Serverless 化、湖仓架构引领云上大数据发展
在2024云栖大会开源大数据专场上,阿里云宣布推出实时计算Flink产品的新一代向量化流计算引擎Flash,该引擎100%兼容Apache Flink标准,性能提升5-10倍,助力企业降本增效。此外,EMR Serverless Spark产品启动商业化,提供全托管Serverless服务,性能提升300%,并支持弹性伸缩与按量付费。七猫免费小说也分享了其在云上数据仓库治理的成功实践。其次 Flink Forward Asia 2024 将于11月在上海举行,欢迎报名参加。
113 1
云栖实录 | 开源大数据全面升级:Native 核心引擎、Serverless 化、湖仓架构引领云上大数据发展
|
19天前
|
人工智能 分布式计算 大数据
云栖实录 | MaxCompute 迈向下一代的智能云数仓
2024年云栖大会上,阿里云核心自研云原生智能数据仓库产品MaxCompute,在经过一年的深度打磨后,推出了其迈向下一代智能云数据仓的系列主题分享。此次产品发布,充分展示MaxCompute产品领先行业的云数据产品发展理念与核心优势。
131 0
|
11月前
|
人工智能 大数据 调度
【云栖2023】林伟:大数据AI一体化的解读
本文根据2023云栖大会阿里云研究员,阿里云计算平台事业部首席架构师,阿里云人工智能平台PAI和大数据开发治理平台DataWorks负责人---林伟演讲实录整理而成,演讲主题:”大数据AI一体化的解读“。
|
11月前
|
存储 人工智能 分布式计算
【云栖2023】张治国:MaxCompute架构升级及开放性解读
本文根据2023云栖大会演讲实录整理而成,演讲信息如下 演讲人:张治国|阿里云智能计算平台研究员、阿里云MaxCompute负责人 演讲主题:MaxCompute架构升级及开放性解读 活动:2023云栖大会
60837 16
|
10月前
|
存储 人工智能 大数据
2023云栖陈守元,阿里云开源大数据产品年度发布
阿里云计算平台事业部开源大数据产品总监陈守元围绕EMR、Flink Streaming Lakehouse、 Elasticsearch、Milvus等产品发布展开分享介绍。
445 3
|
存储 SQL 人工智能
贾扬清演讲实录:阿里云一体化大数据智能平台的演进丨2022云栖一体化大数据智能峰会
贾扬清在一体化大数据智能峰会论坛上分享立足于数据这个领域,数据和智能之间创新的火花。
贾扬清演讲实录:阿里云一体化大数据智能平台的演进丨2022云栖一体化大数据智能峰会
|
存储 运维 分布式计算
|
机器学习/深度学习 分布式计算 搜索推荐
【云栖号案例 | 互联网】驻云科技基于MaxCompute搭建社交好友推荐系统
公司需要具备海量的数据、处理数据的能力、商业变现的场景才能使用大数据。通过MaxCompute搭建数据仓库,提供分布式的系统,将好友推荐系统在阿里云上实现。
|
SQL 数据采集 运维
【云栖号案例 | 互联网】上海鸥新基于大数据平台打造分析商场实时客流分析系统
上海鸥新通过实时计算打通线下与线上,免运维、免开发,为商场提供不同维度数据支持,提高运营活动效果,效率高、门槛低、BUG少,系统重构只需一周。