系统性能提升40%!阿里云助力朗镜科技AI商品识别平台实现云原生架构升级

简介: 全新系统从容应对百万级图片及海量SKU识别

【阅读原文】戳:系统性能提升40%!阿里云助力朗镜科技AI商品识别平台实现云原生架构升级

 

 

客户介绍

 

 

自2015年成立以来,朗镜科技(Trax 中国)致力于为零售业提供领先的计算机视觉解决方案与数据分析服务,凭借卓越的技术实力,公司已为全球90多个市场中的众多知名品牌定制了高效解决方案。

 

朗镜科技(Trax中国)深度融合前沿的计算机视觉技术、机器学习算法与物联网(IoT)技术,将传统货架场景转化为“数字化货架”,客户能够实时掌握每家门店、每个货架的最新动态,显著加速了实体零售的数字化转型。

 

借助其店内执行工具、深度数据分析服务及先进的货架监测解决方案,众多全球顶级消费品品牌与零售商不仅提升了顾客购物体验,更挖掘出覆盖各个销售渠道的增长潜力。

 

凭借多年的技术积累,朗镜科技(Trax 中国)获得了国家高新技术企业认定,并被评为北京市专精特新企业。此外,公司也是中国乳制品工业协会、中国饮料工业协会、中国连锁经营协会、上海市人工智能行业协会和胡润百富广州市全球独角兽企业家联合会的成员。合作客户领域覆盖食品、饮料、啤酒、调味料、乳制品、母婴、日化、OTC、3C、汽车等多个行业,共同推动零售行业的数字孪生探索。


 

 

 

 

业务挑战

 

 

商品图片识别量级大,客户要求高

 

面对商品图片识别的庞大需求与客户的高标准期望,朗镜科技每日需处理数以百万计的图片及海量SKU,借助先进的AI识别技术,朗镜科技能够精确且迅速地识别每一个唯一SKU,不仅满足了零售行业对于高效运营与成本控制的迫切需求,还确保了模型识别的高精度与实时性,以适应快消品市场快速迭代。

 

 

场景复杂,业务多变

 

实体零售场景的复杂多变进一步加剧了图片处理的难度。商品陈列的多样性与个性化需求,加之不同品类与客户特有的KPIs,使得图片尺寸与质量实施需精细化管理。为了显著提升用户体验,朗镜科技优化小文件处理能力,力求缩短下载延迟,实现即时响应,从而满足复杂陈列规则与商品图片高质量标准的双重需求。

 

 

成本高昂,迭代频繁

 

在快消品行业,新品迭代速度之快对朗镜科技的AI模型提出了更高要求——必须快速适应市场变化,实现高频次的模型更新。面对这一挑战,我们在确保模型高稳定性的基础上,加速迭代进程,确保与新品上市速度同步,同时严格控制存储成本,实现AI模型更新的高效与可靠。这不仅保障了业务的连续性,也进一步提升了用户体验,展现了朗镜科技在应对快消品市场快速变化中的卓越能力。

 

 

 

阿里云解决方案

 

 

高性能文件存储CPFS提升数据预处理速度

 

在图片预处理阶段,朗镜科技与阿里云携手合作,共同优化了客户端的数据写入方案。采用阿里云的高性能文件存储CPFS,利用其高吞吐、低延迟等特性,实现多机多进程并行文件写入。通过优化,小文件图片百ms以上写入延迟占比减少到5%以内,整体数据处理时间提升50%以上;同时通过OSS和CPFS双向流动能力,在确保高性能需求得到满足的同时,不仅有效地降低了存储成本,还进一步提升了整体的经济效益。

 

 

DeepGPU加速模型推理性能

 

朗镜科技面对每天数以百万的海量图片识别任务,需要满足97%以上的高精度标准,并确保95%以上复杂流程能在10秒内完成识别。为了满足高精度、低时延的推理需求,朗镜科技将上层模型算法推理能力与阿里云的DeepGPU工具包紧密结合,利用朗镜科技自研的高性能算子库,成功实现了多个计算机视觉模型的推理加速,加速比区间达到1.12至4.60倍。

 

ACK云原生AI套件持续提升GPU利用率

 

针对在文本识别、图像识别等计算密集型场景GPU算力需求大、模型更迭速度快等特点,朗镜科技携手阿里云团队,基于现有的容器化架构,共同打造了一套云原生AI产品解决方案。该方案深度融合了GPU共享调度、显存隔离、灵活的调度策略等技术,将现有GPU集群利用率整体提升了30%,显著简化了AI集群的运维复杂度并有效保障推理任务的连续性和稳定性。

 

 

 

业务价值

 

 

经过阿里云与朗镜科技技术团队长达3个月的紧密合作与联合攻坚,朗镜科技AI商品识别平台成功完成了云原生架构升级。朗镜科技通过算法优化、自定义算子升级、云管理升级以及多端写入策略的实施,与阿里云的云原生AI产品解决方案深度融合,在保持成本不变的前提下,系统性能实现了超过40%的显著提升,大幅提升了工作效率和用户满意度。这一成果充分展示了阿里云与朗镜科技技术团队在AI商品识别领域的深厚实力。




我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
5月前
|
存储 调度 C++
16 倍性能提升,成本降低 98%! 解读 SLS 向量索引架构升级改造
大规模数据如何进行语义检索? 当前 SLS 已经支持一站式的语义检索功能,能够用于 RAG、Memory、语义聚类、多模态数据等各种场景的应用。本文分享了 SLS 在语义检索功能上,对模型推理和部署、构建流水线等流程的优化,最终带给用户更高性能和更低成本的针对大规模数据的语义索引功能。
491 52
|
5月前
|
存储 SQL 消息中间件
从 ClickHouse 到 StarRocks 存算分离: 携程 UBT 架构升级实践
查询性能实现从秒级到毫秒级的跨越式提升
|
5月前
|
Cloud Native Serverless API
微服务架构实战指南:从单体应用到云原生的蜕变之路
🌟蒋星熠Jaxonic,代码为舟的星际旅人。深耕微服务架构,擅以DDD拆分服务、构建高可用通信与治理体系。分享从单体到云原生的实战经验,探索技术演进的无限可能。
微服务架构实战指南:从单体应用到云原生的蜕变之路
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
34_GPT系列:从1到5的架构升级_深度解析
大型语言模型(LLM)的发展历程中,OpenAI的GPT系列无疑扮演着至关重要的角色。自2018年GPT-1问世以来,每一代GPT模型都在架构设计、预训练策略和性能表现上实现了质的飞跃。本专题将深入剖析GPT系列从1.17亿参数到能够处理百万级token上下文的技术演进,特别关注2025年8月8日发布的GPT-5如何引领大模型技术迈向通用人工智能(AGI)的重要一步。
|
5月前
|
Java Linux 虚拟化
【Docker】(1)Docker的概述与架构,手把手带你安装Docker,云原生路上不可缺少的一门技术!
1. Docker简介 1.1 Docker是什么 为什么docker会出现? 假定您在开发一款平台项目,您的开发环境具有特定的配置。其他开发人员身处的环境配置也各有不同。 您正在开发的应用依赖于您当前的配置且还要依赖于某些配置文件。 您的企业还拥有标准化的测试和生产环境,且具有自身的配置和一系列支持文件。 **要求:**希望尽可能多在本地模拟这些环境而不产生重新创建服务器环境的开销 问题: 要如何确保应用能够在这些环境中运行和通过质量检测? 在部署过程中不出现令人头疼的版本、配置问题 无需重新编写代码和进行故障修复
506 2
|
5月前
|
人工智能 Kubernetes Cloud Native
Higress(云原生AI网关) 架构学习指南
Higress 架构学习指南 🚀写在前面: 嘿,欢迎你来到 Higress 的学习之旅!
1632 0
|
5月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
1316 56
|
6月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
1250 60
|
5月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
644 30

热门文章

最新文章