系统性能提升40%!阿里云助力朗镜科技AI商品识别平台实现云原生架构升级

简介: 全新系统从容应对百万级图片及海量SKU识别

【阅读原文】戳:系统性能提升40%!阿里云助力朗镜科技AI商品识别平台实现云原生架构升级

 

 

客户介绍

 

 

自2015年成立以来,朗镜科技(Trax 中国)致力于为零售业提供领先的计算机视觉解决方案与数据分析服务,凭借卓越的技术实力,公司已为全球90多个市场中的众多知名品牌定制了高效解决方案。

 

朗镜科技(Trax中国)深度融合前沿的计算机视觉技术、机器学习算法与物联网(IoT)技术,将传统货架场景转化为“数字化货架”,客户能够实时掌握每家门店、每个货架的最新动态,显著加速了实体零售的数字化转型。

 

借助其店内执行工具、深度数据分析服务及先进的货架监测解决方案,众多全球顶级消费品品牌与零售商不仅提升了顾客购物体验,更挖掘出覆盖各个销售渠道的增长潜力。

 

凭借多年的技术积累,朗镜科技(Trax 中国)获得了国家高新技术企业认定,并被评为北京市专精特新企业。此外,公司也是中国乳制品工业协会、中国饮料工业协会、中国连锁经营协会、上海市人工智能行业协会和胡润百富广州市全球独角兽企业家联合会的成员。合作客户领域覆盖食品、饮料、啤酒、调味料、乳制品、母婴、日化、OTC、3C、汽车等多个行业,共同推动零售行业的数字孪生探索。


 

 

 

 

业务挑战

 

 

商品图片识别量级大,客户要求高

 

面对商品图片识别的庞大需求与客户的高标准期望,朗镜科技每日需处理数以百万计的图片及海量SKU,借助先进的AI识别技术,朗镜科技能够精确且迅速地识别每一个唯一SKU,不仅满足了零售行业对于高效运营与成本控制的迫切需求,还确保了模型识别的高精度与实时性,以适应快消品市场快速迭代。

 

 

场景复杂,业务多变

 

实体零售场景的复杂多变进一步加剧了图片处理的难度。商品陈列的多样性与个性化需求,加之不同品类与客户特有的KPIs,使得图片尺寸与质量实施需精细化管理。为了显著提升用户体验,朗镜科技优化小文件处理能力,力求缩短下载延迟,实现即时响应,从而满足复杂陈列规则与商品图片高质量标准的双重需求。

 

 

成本高昂,迭代频繁

 

在快消品行业,新品迭代速度之快对朗镜科技的AI模型提出了更高要求——必须快速适应市场变化,实现高频次的模型更新。面对这一挑战,我们在确保模型高稳定性的基础上,加速迭代进程,确保与新品上市速度同步,同时严格控制存储成本,实现AI模型更新的高效与可靠。这不仅保障了业务的连续性,也进一步提升了用户体验,展现了朗镜科技在应对快消品市场快速变化中的卓越能力。

 

 

 

阿里云解决方案

 

 

高性能文件存储CPFS提升数据预处理速度

 

在图片预处理阶段,朗镜科技与阿里云携手合作,共同优化了客户端的数据写入方案。采用阿里云的高性能文件存储CPFS,利用其高吞吐、低延迟等特性,实现多机多进程并行文件写入。通过优化,小文件图片百ms以上写入延迟占比减少到5%以内,整体数据处理时间提升50%以上;同时通过OSS和CPFS双向流动能力,在确保高性能需求得到满足的同时,不仅有效地降低了存储成本,还进一步提升了整体的经济效益。

 

 

DeepGPU加速模型推理性能

 

朗镜科技面对每天数以百万的海量图片识别任务,需要满足97%以上的高精度标准,并确保95%以上复杂流程能在10秒内完成识别。为了满足高精度、低时延的推理需求,朗镜科技将上层模型算法推理能力与阿里云的DeepGPU工具包紧密结合,利用朗镜科技自研的高性能算子库,成功实现了多个计算机视觉模型的推理加速,加速比区间达到1.12至4.60倍。

 

ACK云原生AI套件持续提升GPU利用率

 

针对在文本识别、图像识别等计算密集型场景GPU算力需求大、模型更迭速度快等特点,朗镜科技携手阿里云团队,基于现有的容器化架构,共同打造了一套云原生AI产品解决方案。该方案深度融合了GPU共享调度、显存隔离、灵活的调度策略等技术,将现有GPU集群利用率整体提升了30%,显著简化了AI集群的运维复杂度并有效保障推理任务的连续性和稳定性。

 

 

 

业务价值

 

 

经过阿里云与朗镜科技技术团队长达3个月的紧密合作与联合攻坚,朗镜科技AI商品识别平台成功完成了云原生架构升级。朗镜科技通过算法优化、自定义算子升级、云管理升级以及多端写入策略的实施,与阿里云的云原生AI产品解决方案深度融合,在保持成本不变的前提下,系统性能实现了超过40%的显著提升,大幅提升了工作效率和用户满意度。这一成果充分展示了阿里云与朗镜科技技术团队在AI商品识别领域的深厚实力。




我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
6天前
|
监控 安全 API
使用PaliGemma2构建多模态目标检测系统:从架构设计到性能优化的技术实践指南
本文详细介绍了PaliGemma2模型的微调流程及其在目标检测任务中的应用。PaliGemma2通过整合SigLIP-So400m视觉编码器与Gemma 2系列语言模型,实现了多模态数据的高效处理。文章涵盖了开发环境构建、数据集预处理、模型初始化与配置、数据加载系统实现、模型微调、推理与评估系统以及性能分析与优化策略等内容。特别强调了计算资源优化、训练过程监控和自动化优化流程的重要性,为机器学习工程师和研究人员提供了系统化的技术方案。
117 77
使用PaliGemma2构建多模态目标检测系统:从架构设计到性能优化的技术实践指南
|
2天前
|
NoSQL 关系型数据库 MySQL
《docker高级篇(大厂进阶):4.Docker网络》包括:是什么、常用基本命令、能干嘛、网络模式、docker平台架构图解
《docker高级篇(大厂进阶):4.Docker网络》包括:是什么、常用基本命令、能干嘛、网络模式、docker平台架构图解
82 56
《docker高级篇(大厂进阶):4.Docker网络》包括:是什么、常用基本命令、能干嘛、网络模式、docker平台架构图解
|
11天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】Kernel 层架构
推理引擎的Kernel层负责执行底层数学运算,如矩阵乘法、卷积等,直接影响推理速度与效率。它与Runtime层紧密配合,通过算法优化、内存布局调整、汇编优化及调度优化等手段,实现高性能计算。Kernel层针对不同硬件(如CPU、GPU)进行特定优化,支持NEON、AVX、CUDA等技术,确保在多种平台上高效运行。
63 32
|
11天前
|
存储 机器学习/深度学习 人工智能
【AI系统】计算图优化架构
本文介绍了推理引擎转换中的图优化模块,涵盖算子融合、布局转换、算子替换及内存优化等技术,旨在提升模型推理效率。计算图优化技术通过减少计算冗余、提高计算效率和减少内存占用,显著改善模型在资源受限设备上的运行表现。文中详细探讨了离线优化模块面临的挑战及解决方案,包括结构冗余、精度冗余、算法冗余和读写冗余的处理方法。此外,文章还介绍了ONNX Runtime的图优化机制及其在实际应用中的实现,展示了如何通过图优化提高模型推理性能的具体示例。
41 4
【AI系统】计算图优化架构
|
1天前
|
机器学习/深度学习 前端开发 算法
婚恋交友系统平台 相亲交友平台系统 婚恋交友系统APP 婚恋系统源码 婚恋交友平台开发流程 婚恋交友系统架构设计 婚恋交友系统前端/后端开发 婚恋交友系统匹配推荐算法优化
婚恋交友系统平台通过线上互动帮助单身男女找到合适伴侣,提供用户注册、个人资料填写、匹配推荐、实时聊天、社区互动等功能。开发流程包括需求分析、技术选型、系统架构设计、功能实现、测试优化和上线运维。匹配推荐算法优化是核心,通过用户行为数据分析和机器学习提高匹配准确性。
|
机器学习/深度学习 存储 人工智能
科大讯飞,是如何打造AI平台的?
科大讯飞的成功靠的是AI核心战略:平台+赛道。
1210 0
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术深度解析:从基础到应用的全面介绍
人工智能(AI)技术的迅猛发展,正在深刻改变着我们的生活和工作方式。从自然语言处理(NLP)到机器学习,从神经网络到大型语言模型(LLM),AI技术的每一次进步都带来了前所未有的机遇和挑战。本文将从背景、历史、业务场景、Python代码示例、流程图以及如何上手等多个方面,对AI技术中的关键组件进行深度解析,为读者呈现一个全面而深入的AI技术世界。
43 10
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
2天前
|
机器学习/深度学习 人工智能 算法
探索AI在医疗诊断中的应用与挑战
【10月更文挑战第21天】 本文深入探讨了人工智能(AI)技术在医疗诊断领域的应用现状与面临的挑战,旨在为读者提供一个全面的视角,了解AI如何改变传统医疗模式,以及这一变革过程中所伴随的技术、伦理和法律问题。通过分析AI技术的优势和局限性,本文旨在促进对AI在医疗领域应用的更深层次理解和讨论。
|
8天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建

热门文章

最新文章