系统性能提升40%!阿里云助力朗镜科技AI商品识别平台实现云原生架构升级

简介: 全新系统从容应对百万级图片及海量SKU识别

【阅读原文】戳:系统性能提升40%!阿里云助力朗镜科技AI商品识别平台实现云原生架构升级

 

 

客户介绍

 

 

自2015年成立以来,朗镜科技(Trax 中国)致力于为零售业提供领先的计算机视觉解决方案与数据分析服务,凭借卓越的技术实力,公司已为全球90多个市场中的众多知名品牌定制了高效解决方案。

 

朗镜科技(Trax中国)深度融合前沿的计算机视觉技术、机器学习算法与物联网(IoT)技术,将传统货架场景转化为“数字化货架”,客户能够实时掌握每家门店、每个货架的最新动态,显著加速了实体零售的数字化转型。

 

借助其店内执行工具、深度数据分析服务及先进的货架监测解决方案,众多全球顶级消费品品牌与零售商不仅提升了顾客购物体验,更挖掘出覆盖各个销售渠道的增长潜力。

 

凭借多年的技术积累,朗镜科技(Trax 中国)获得了国家高新技术企业认定,并被评为北京市专精特新企业。此外,公司也是中国乳制品工业协会、中国饮料工业协会、中国连锁经营协会、上海市人工智能行业协会和胡润百富广州市全球独角兽企业家联合会的成员。合作客户领域覆盖食品、饮料、啤酒、调味料、乳制品、母婴、日化、OTC、3C、汽车等多个行业,共同推动零售行业的数字孪生探索。


 

 

 

 

业务挑战

 

 

商品图片识别量级大,客户要求高

 

面对商品图片识别的庞大需求与客户的高标准期望,朗镜科技每日需处理数以百万计的图片及海量SKU,借助先进的AI识别技术,朗镜科技能够精确且迅速地识别每一个唯一SKU,不仅满足了零售行业对于高效运营与成本控制的迫切需求,还确保了模型识别的高精度与实时性,以适应快消品市场快速迭代。

 

 

场景复杂,业务多变

 

实体零售场景的复杂多变进一步加剧了图片处理的难度。商品陈列的多样性与个性化需求,加之不同品类与客户特有的KPIs,使得图片尺寸与质量实施需精细化管理。为了显著提升用户体验,朗镜科技优化小文件处理能力,力求缩短下载延迟,实现即时响应,从而满足复杂陈列规则与商品图片高质量标准的双重需求。

 

 

成本高昂,迭代频繁

 

在快消品行业,新品迭代速度之快对朗镜科技的AI模型提出了更高要求——必须快速适应市场变化,实现高频次的模型更新。面对这一挑战,我们在确保模型高稳定性的基础上,加速迭代进程,确保与新品上市速度同步,同时严格控制存储成本,实现AI模型更新的高效与可靠。这不仅保障了业务的连续性,也进一步提升了用户体验,展现了朗镜科技在应对快消品市场快速变化中的卓越能力。

 

 

 

阿里云解决方案

 

 

高性能文件存储CPFS提升数据预处理速度

 

在图片预处理阶段,朗镜科技与阿里云携手合作,共同优化了客户端的数据写入方案。采用阿里云的高性能文件存储CPFS,利用其高吞吐、低延迟等特性,实现多机多进程并行文件写入。通过优化,小文件图片百ms以上写入延迟占比减少到5%以内,整体数据处理时间提升50%以上;同时通过OSS和CPFS双向流动能力,在确保高性能需求得到满足的同时,不仅有效地降低了存储成本,还进一步提升了整体的经济效益。

 

 

DeepGPU加速模型推理性能

 

朗镜科技面对每天数以百万的海量图片识别任务,需要满足97%以上的高精度标准,并确保95%以上复杂流程能在10秒内完成识别。为了满足高精度、低时延的推理需求,朗镜科技将上层模型算法推理能力与阿里云的DeepGPU工具包紧密结合,利用朗镜科技自研的高性能算子库,成功实现了多个计算机视觉模型的推理加速,加速比区间达到1.12至4.60倍。

 

ACK云原生AI套件持续提升GPU利用率

 

针对在文本识别、图像识别等计算密集型场景GPU算力需求大、模型更迭速度快等特点,朗镜科技携手阿里云团队,基于现有的容器化架构,共同打造了一套云原生AI产品解决方案。该方案深度融合了GPU共享调度、显存隔离、灵活的调度策略等技术,将现有GPU集群利用率整体提升了30%,显著简化了AI集群的运维复杂度并有效保障推理任务的连续性和稳定性。

 

 

 

业务价值

 

 

经过阿里云与朗镜科技技术团队长达3个月的紧密合作与联合攻坚,朗镜科技AI商品识别平台成功完成了云原生架构升级。朗镜科技通过算法优化、自定义算子升级、云管理升级以及多端写入策略的实施,与阿里云的云原生AI产品解决方案深度融合,在保持成本不变的前提下,系统性能实现了超过40%的显著提升,大幅提升了工作效率和用户满意度。这一成果充分展示了阿里云与朗镜科技技术团队在AI商品识别领域的深厚实力。




我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
6月前
|
云安全 人工智能 安全
Dify平台集成阿里云AI安全护栏,构建AI Runtime安全防线
阿里云 AI 安全护栏加入Dify平台,打造可信赖的 AI
3560 166
|
6月前
|
机器学习/深度学习 人工智能 Serverless
吉利汽车携手阿里云函数计算,打造新一代 AI 座舱推理引擎
当前吉利汽车研究院人工智能团队承担了吉利汽车座舱 AI 智能化的方案建设,在和阿里云的合作中,基于星睿智算中心 2.0 的 23.5EFLOPS 强大算力,构建 AI 混合云架构,面向百万级用户的实时推理计算引入阿里云函数计算的 Serverless GPU 算力集群,共同为智能座舱的交互和娱乐功能提供大模型推理业务服务,涵盖的场景如针对模糊指令的复杂意图解析、文生图、情感 TTS 等。
|
6月前
|
机器学习/深度学习 人工智能 算法
阿里云视频云以 360° 实时回放技术支撑 NBA 2025 中国赛 —— AI 开启“智能观赛”新体验
NBA中国与阿里云达成合作,首发360°实时回放技术,融合AI视觉引擎,实现多视角、低延时、沉浸式观赛新体验,重新定义体育赛事观看方式。
1062 0
阿里云视频云以 360° 实时回放技术支撑 NBA 2025 中国赛 —— AI 开启“智能观赛”新体验
|
6月前
|
Cloud Native Serverless API
微服务架构实战指南:从单体应用到云原生的蜕变之路
🌟蒋星熠Jaxonic,代码为舟的星际旅人。深耕微服务架构,擅以DDD拆分服务、构建高可用通信与治理体系。分享从单体到云原生的实战经验,探索技术演进的无限可能。
微服务架构实战指南:从单体应用到云原生的蜕变之路
|
弹性计算 API 持续交付
后端服务架构的微服务化转型
本文旨在探讨后端服务从单体架构向微服务架构转型的过程,分析微服务架构的优势和面临的挑战。文章首先介绍单体架构的局限性,然后详细阐述微服务架构的核心概念及其在现代软件开发中的应用。通过对比两种架构,指出微服务化转型的必要性和实施策略。最后,讨论了微服务架构实施过程中可能遇到的问题及解决方案。
|
Cloud Native Devops 云计算
云计算的未来:云原生架构与微服务的革命####
【10月更文挑战第21天】 随着企业数字化转型的加速,云原生技术正迅速成为IT行业的新宠。本文深入探讨了云原生架构的核心理念、关键技术如容器化和微服务的优势,以及如何通过这些技术实现高效、灵活且可扩展的现代应用开发。我们将揭示云原生如何重塑软件开发流程,提升业务敏捷性,并探索其对企业IT架构的深远影响。 ####
446 3
|
9月前
|
缓存 Cloud Native Java
Java 面试微服务架构与云原生技术实操内容及核心考点梳理 Java 面试
本内容涵盖Java面试核心技术实操,包括微服务架构(Spring Cloud Alibaba)、响应式编程(WebFlux)、容器化(Docker+K8s)、函数式编程、多级缓存、分库分表、链路追踪(Skywalking)等大厂高频考点,助你系统提升面试能力。
1032 0
|
Java 开发者 微服务
从单体到微服务:如何借助 Spring Cloud 实现架构转型
**Spring Cloud** 是一套基于 Spring 框架的**微服务架构解决方案**,它提供了一系列的工具和组件,帮助开发者快速构建分布式系统,尤其是微服务架构。
2119 70
从单体到微服务:如何借助 Spring Cloud 实现架构转型
下一篇
开通oss服务