NVIDIA Jetson Orin Nano 开箱测评

简介: 大家都知道最近AI是非常的火,哪怕你不关心科技圈的新闻,也一定不止一次看到ChatGPT、AI画画之类的内容。

入门教程、案例源码、学习资料、读者群

请访问: python666.cn


大家好,我是Crossin。欢迎来到 Crossin的编程教室 !


今天给大家带来的是一期开箱测评视频。


大家都知道最近AI是非常的火,哪怕你不关心科技圈的新闻,也一定不止一次看到ChatGPT、AI画画之类的内容。


而我今天要体验的,正是一款AI相关的硬件设备。


话不多说,我们来一起看看吧。


今天的主角是英伟达刚刚在GTC大会上最新发布的人工智能计算机:


NVIDIA Jetson Orin Nano 开发者套件



这个开发者套件主要由3部分组成,一个 Orin Nano 8G 模组,一块载板和一个风扇。


载板上的主要接口有电源接口、连接显示设备的DP接口,4个USB接口,网线接口,type-c接口。


两边还有40针引脚用来连接一些传感器和外设,以及连接高速摄像头的接口。


背后还有个micro-sd卡插槽作为外部存储。



之前我有一期视频是在一个动作识别项目中用到 NVIDIA Jetson AGX Orin 这款机器,同样都是适用于AI边缘计算的产品。很直观地可以看出,这次的 Orin Nano 在体积上要小很多,重量上也轻了不少。所以它会更适合一些对空间和便携性要求高的应用场景,比如用在小型机器人和无人机上。



那么它的性能怎么样?我们来真机体验一下,跑个分试试看。


通过预先写入 NVIDIA JetPack SDK 的 Micro-SD 卡进行系统和环境安装。安装完成后,我们从官网下载 benchmark 的测试文件,运行脚本安装环境后,就可以跑benchmark测试了。


这是视觉AI模型相关的测试,跑完大约45分钟,结果如下。



在之前 AGX orin 的视频中我们也跑过一次,对比一下之前的结果,AGX orin 的性能大致上是 orin nano 的 3~5 倍。但这么比显然不公平,不管是体积还是价格,包括电源输入功率,AGX 都大了几倍。两者面向的需求场景并不相同。



但如果我们跟之前老的 Jetson nano 对比,就会发现 Orin Nano 的性能是数量级上的提升。根据官方给出的数据,Orin Nano 达到了 每秒40万亿次运算(TOPS)的AI性能,是之前 nano 的80倍。



再来看一个更直观些的demo。一个基于 PeopleNet Transformer 的人物检测程序。官方为这个demo提供了docker容器,所以只需要简单几行命令就可以完成下载、配置和运行。



运行帧数大约在每秒7到8帧。这个程度虽然不能达到实时,但对于很多应用场景来说已经是足够了。如果有更高要求那可以考虑 AGX orin,同样的demo它的效率可以达到每秒30帧。


通过以上的介绍和测试可以看出,Jetson Orin Nano


  • 体积小、重量轻、功耗小,比较适合一些条件苛刻的边缘计算场景


  • 但小归小,它的性能并不弱,可以提供40万亿次运算的AI性能,是之前JetsonNano的80倍。可以胜任大量的AI相关开发需求。


  • 另外它还配套了NVIDIA JetPack 5.1,提供了用于加速GPU计算、多媒体、计算机视觉和图形的相关库,支持DeepStream、Isaac、Riva等SDK,是一套完整的边缘AI开发环境。极大地方便了开发者。


所以 NVIDIA Jetson Orin Nano 很适合用来开发入门级AI应用。另外,用它来作为学习和实践AI的设备也是一种不错的选择。但如果你对性能有更高要求,那可能就要考虑 AGX orin 了。


除了刚刚演示的程序,Jetson上还有许多有意思的AI demo,可以很方便地构建和运行,以及在此基础上开发自己的AI应用。这里就不一一演示了。



如果你对AI方面的开发有什么想法,欢迎在留言区中讨论。


感谢转发点赞的各位~


_往期文章推荐_


耗时2天,我自制了一台体感游戏机

相关文章
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
NVIDIA Triton系列03-开发资源说明
NVIDIA Triton 推理服务器是用于高效部署机器学习模型的开源工具。本文介绍了初学者如何通过官方文档和 GitHub 开源仓库获取开发资源,包括快速启动指南、生产文档、示例和反馈渠道。特别强调了核心仓库中的六个重要部分,涵盖服务器部署、核心功能、后端支持、客户端接口、模型分析和模型导航工具。这些资源有助于初学者全面了解和掌握 Triton 项目。
53 0
NVIDIA Triton系列03-开发资源说明
|
2月前
|
机器学习/深度学习 Docker Python
NVIDIA Triton系列06-安装用户端软件
本文介绍了 NVIDIA Triton 推理服务器的用户端软件安装方法,包括源代码编译、可执行文件、Docker 容器和 Python 版用户端。重点讲解了 Python 用户端的安装和使用,通过示例展示了如何使用 `image_client` 工具进行图像分类推理请求。
24 0
NVIDIA Triton系列06-安装用户端软件
|
3月前
|
人工智能 机器人 语音技术
OpenVINO™ 加速PC及小型设备LLM性能 | OpenVINO™ DEVCON 2024 第五期
时隔一月,OpenVINO™ DEVCON 中国 · 系列工作坊 2024 如期上新啦!
OpenVINO™ 加速PC及小型设备LLM性能 | OpenVINO™ DEVCON 2024 第五期
|
4月前
|
存储 并行计算 Ubuntu
Nvidia Jetson Orin系列配置教程
本文是Nvidia Jetson Orin系列的配置教程,介绍了两种安装方法:通过Nvidia SDK Manager进行安装和通过本地镜像烧录进行安装。第一种方法包括下载SDK Manager、安装和使用工具进行Jetson系列硬件的配置。第二种方法包括下载官方镜像、使用Etcher烧录镜像、安装镜像、安装开发环境以及检查开发环境是否配置成功。文中还提供了CUDA、cuDNN、TensorRT和OpenCV的检查命令和预期结果。
533 0
Nvidia Jetson Orin系列配置教程
|
Kubernetes 测试技术 API
快速体验NVIDIA在k8s中下一代设备管理插件
背景Kubernetes 1.26开始引入DRA( Dynamic Resource Allocation,动态资源分配),用于解决Kubernetes现有Device Plugin机制的不足。相比于现有的Device Plugin机制,DRA更加开放和自主,能够满足一些复杂的使用场景。NVIDIA、Intel这些设备厂商也基于DRA开放自己下一代Device Plugin,以期满足更复杂的业务场
1280 0
|
存储 人工智能 机器人
jetson nano开发使用的基础详细分享
jetson nano开发使用的基础详细分享
1111 1
jetson nano开发使用的基础详细分享
|
人工智能 语音技术 开发者
真·ChatGPT平替:无需显卡,MacBook、树莓派就能运行LLaMA
真·ChatGPT平替:无需显卡,MacBook、树莓派就能运行LLaMA
340 0
|
存储 人工智能 计算机视觉
jetson Nano开箱使用方法
第一次接触jetson Nano如何使用,请看本文
442 0
|
消息中间件 Linux Kafka
【nvidia jetson xavier】 Linux系统安装+Deepstream 5.1环境部署
【nvidia jetson xavier】 Linux系统安装+Deepstream 5.1环境部署
321 0
|
编解码 Ubuntu 前端开发
我的NVIDIA开发者之旅——作为一名初学者,我是如何开启 NVIDIA Jetson Nano 开发的
在本文中,我将展示如何从一个初学者角度,使用 NVIDIA Jetson Nano 。 你也可以参考官方教程。 如果你想跟着我一起做,那么接下来的内容比会比较花费时间,需要你耐心跟着往下做。😎
1023 0
我的NVIDIA开发者之旅——作为一名初学者,我是如何开启 NVIDIA Jetson Nano 开发的