谷歌开源移动端计算机视觉模型:MobileNets

简介:

近年来,在深度学习的支持下,计算机视觉识别技术取得了极大的进展。现在,移动应用中大多数的机器学习都是通过将数据传输到云服务进行处理,然后再将返回的结果提供给用户。这就意味着在数据中心需要使用非常强大的计算机,还要减轻智能手机处理信息的负担。另外,这种方法延迟高,而且对隐私的保障性不好。

因此谷歌为帮助智能手机更好的识别图像,而不需要大量的消耗,向开发者推出了 MobileNets,谷歌称通过处理用户智能手机上的数据,可以快速返回结果。

MobileNets 是一系列用于 TensorFlow 中的高效、小尺寸的移动端优先计算机视觉模型,它们的设计目标是在手持或嵌入式设备有限的资源下高效地运行,并提供尽可能高的准确率。MobileNet 是小型、低延迟、低功耗的参数化模型,它为多种不同使用场景下的有限资源做了针对性的参数优化。它们可以像其他流行的大规模模型(如 Inception)一样用于分类、识别、嵌入和分割任务等。


105208_lLNq_2720166.png

基于 MobileNets 在移动设备上进行目标检测、细粒度分类、人脸属性和地标识别

这个 MobileNets 版本可在 TensorFlow 中使用 TF-Slim 对 MobileNet 模型进行定义,还包含 16 个训练好的 ImageNet 分类器(checkpoints),它们适用于所有不同大小的移动项目。这些模型配合 TensorFlow Mobile 的使用可在移动设备上高效地运行。


105233_tVW3_2720166.png

如上图所示,需要根据自己的延迟和项目大小需求选取合适的模型。网络模型在内存和磁盘中所占的空间大小和网络中参数的数量成正比。用 MACs 值(Multiply-Accumulates,累积乘法量,用来衡量乘法、加法融合计算的数量)可以估计网络的延迟和能源消耗。Top-1 和 Top-5 准确率是通过 ILSVRC 数据库测试得出的。

开发者现可使用 TensorFlow Mobile 部署模型,TensorFlow Mobile 旨在帮助您将模型部署到 Android,iOS 和 Raspberry Pi 上。

本文来自开源中国社区 [http://www.oschina.net]

目录
相关文章
|
机器学习/深度学习 计算机视觉
AIGC核心技术——计算机视觉(CV)预训练大模型
【1月更文挑战第13天】AIGC核心技术——计算机视觉(CV)预训练大模型
1251 3
AIGC核心技术——计算机视觉(CV)预训练大模型
|
机器学习/深度学习 PyTorch 算法框架/工具
Azure 机器学习 - 使用 ONNX 对来自 AutoML 的计算机视觉模型进行预测
Azure 机器学习 - 使用 ONNX 对来自 AutoML 的计算机视觉模型进行预测
563 0
|
人工智能 测试技术 API
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。
1378 4
|
存储 人工智能 自然语言处理
关于计算机视觉中的自回归模型,这篇综述一网打尽了
这篇综述文章全面介绍了自回归模型在计算机视觉领域的应用和发展。文章首先概述了视觉中的序列表示和建模基础知识,随后根据表示策略将视觉自回归模型分为基于像素、标记和尺度的三类框架,并探讨其与生成模型的关系。文章详细阐述了自回归模型在图像、视频、3D及多模态生成等多方面的应用,列举了约250篇参考文献,并讨论了其在新兴领域的潜力和面临的挑战。此外,文章还建立了一个GitHub存储库以整理相关论文,促进了学术合作与知识传播。论文链接:https://arxiv.org/abs/2411.05902
458 1
|
机器学习/深度学习 编解码 人工智能
Vision Mamba:将Mamba应用于计算机视觉任务的新模型
Mamba是LLM的一种新架构,与Transformers等传统模型相比,它能够更有效地处理长序列。就像VIT一样现在已经有人将他应用到了计算机视觉领域,让我们来看看最近的这篇论文“Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Models,”
1420 7
|
编解码 机器人 测试技术
2024年6月计算机视觉论文推荐:扩散模型、视觉语言模型、视频生成等
6月还有一周就要结束了,我们今天来总结2024年6月上半月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展。
731 8
|
人工智能 测试技术 PyTorch
AI计算机视觉笔记二十四:YOLOP 训练+测试+模型评估
本文介绍了通过正点原子的ATK-3568了解并实现YOLOP(You Only Look Once for Panoptic Driving Perception)的过程,包括训练、测试、转换为ONNX格式及在ONNX Runtime上的部署。YOLOP由华中科技大学团队于2021年发布,可在Jetson TX2上达到23FPS,实现了目标检测、可行驶区域分割和车道线检测的多任务学习。文章详细记录了环境搭建、训练数据准备、模型转换和测试等步骤,并解决了ONNX转换过程中的问题。
|
自然语言处理 监控 自动驾驶
大模型在自然语言处理(NLP)、计算机视觉(CV)和多模态模型等领域应用最广
【7月更文挑战第26天】大模型在自然语言处理(NLP)、计算机视觉(CV)和多模态模型等领域应用最广
1381 11
|
编解码 边缘计算 自然语言处理
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
五月发布的计算机视觉领域重要论文涵盖了扩散模型、视觉语言模型、图像生成与编辑及目标检测。亮点包括:1) Dual3D提出双模式推理策略,实现高效文本到3D图像生成;2) CAT3D利用多视图扩散模型创建3D场景,仅需少量图像;3) Hunyuan-DiT是多分辨率的中文理解扩散Transformer,可用于多模态对话和图像生成;4) 通过潜在扩散模型从EEG数据重建自然主义音乐,展示复杂音频重建潜力。此外,还有关于视觉语言模型和图像编辑的创新工作,如BlobGEN用于合成具有控制性的图像。
724 3
|
机器学习/深度学习 人工智能 自然语言处理
计算机视觉借助深度学习实现了革命性进步,从图像分类到复杂场景理解,深度学习模型如CNN、RNN重塑了领域边界。
【7月更文挑战第2天】计算机视觉借助深度学习实现了革命性进步,从图像分类到复杂场景理解,深度学习模型如CNN、RNN重塑了领域边界。AlexNet开启新时代,后续模型不断优化,推动对象检测、语义分割、图像生成等领域发展。尽管面临数据隐私、模型解释性等挑战,深度学习已广泛应用于安防、医疗、零售和农业,预示着更智能、高效的未来,同时也强调了技术创新、伦理考量的重要性。
398 1

热门文章

最新文章