Nvidia Jetson Orin系列配置教程

简介: 本文是Nvidia Jetson Orin系列的配置教程,介绍了两种安装方法:通过Nvidia SDK Manager进行安装和通过本地镜像烧录进行安装。第一种方法包括下载SDK Manager、安装和使用工具进行Jetson系列硬件的配置。第二种方法包括下载官方镜像、使用Etcher烧录镜像、安装镜像、安装开发环境以及检查开发环境是否配置成功。文中还提供了CUDA、cuDNN、TensorRT和OpenCV的检查命令和预期结果。

Nvidia Jetson Orin系列配置教程包含Orin系列的安装及配置办法,目前最为推荐的办法是通过Nvidia SDK Manager进行安装,详细内容如下:

法1:通过Nvidia SDK Manager进行安装

1.下载工具

前往Nvidia SDK Manager下载工具

2.安装工具

 sudo dpkg -i sdkmanager_1.X.XXXX_amd64.deb

如果安装失败需要使用以下命令修复依赖,随后再次执行上述dpkg -i进行安装

sudo apt install -f

3.使用工具

将硬件设备通过USB-C线连接到Host上,Host就是刚才安装Nvidia SDK Manager的Ubuntu系统,参考版本为Ubuntu 20.04
注意: 截至2023/07/10,ubuntu 22.04暂无法使用该工具

sdkmanager

登录Nvidia账号,选择对应的Jetson系列硬件设备,勾选需要安装的组件进行安装,随后等待安装成功即可
在这里插入图片描述

过程当中可能会遇到一些需要配置的部分,根据实际情况进行填写

在这里插入图片描述

法2:通过本地镜像烧录进行安装

1. 下载镜像

前往Nvidia官方网站下载对应规格型号的镜像,
此处以Nvidia Jetson Orin nano为例。

2.烧录镜像

使用Etcher烧录镜像到micro Sd Card固态硬盘
具体的烧录可参考Nvidia官方烧录教程

以上步骤如果不希望使用外部存储介质来实现安装,可以尝试使用Nvidia SDK Manager进行安装。

3.安装镜像

在bios里选择对应的存储介质(对于Orin nano为固态硬盘)启动并安装镜像。

4.安装开发环境

参考Nvidia中国发布的开发环境安装指南,进行以下安装:

# Check Kernel Version
cat /etc/nv_tegra_release

# Adjust source version based on JetPack Version
sudo bash -c 'echo "deb https://repo.download.nvidia.com/jetson/common <rXX.XX> main" >> /etc/apt/sources.list.d/nvidia-l4t-apt-source.list' 
sudo bash -c 'echo "deb https://repo.download.nvidia.com/jetson/t234 <rXX.XX> main" >> /etc/apt/sources.list.d/nvidia-l4t-apt-source.list'

# Install JetPack
sudo apt update 
sudo apt dist-upgrade 
sudo reboot
# After reboot
sudo apt install nvidia-jetpack

# Install jtop system monitoring tool
sudo apt install python3-pip
sudo -H pip3 install -U pip
sudo -H pip install jetson-stats==4.0.0rc1

5.检查开发环境

CUDA

nvcc -V

结果应当为:

nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2021 NVIDIA Corporation
Built on Thu_Nov_11_23:44:05_PST_2021
Cuda compilation tools, release 11.4, V11.4.166
Build cuda_11.4.r11.4/compiler.30645359_0

cuDNN

dpkg -l libcudnn8

结果应当为:

    Desired=Unknown/Install/Remove/Purge/Hold
| Status=Not/Inst/Conf-files/Unpacked/halF-conf/Half-inst/trig-aWait/Trig-pend
|/ Err?=(none)/Reinst-required (Status,Err: uppercase=bad)
||/ Name           Version             Architecture Description
+++-==============-===================-============-======================
ii  libcudnn8      8.3.2.49-1+cuda11.4 arm64        cuDNN runtime libraries

TensorRT

dpkg -l tensorrt

结果应当为:

Desired=Unknown/Install/Remove/Purge/Hold
| Status=Not/Inst/Conf-files/Unpacked/halF-conf/Half-inst/trig-aWait/Trig-pend
|/ Err?=(none)/Reinst-required (Status,Err: uppercase=bad)
||/ Name           Version             Architecture Description
+++-==============-===================-============-=====================
ii  tensorrt       8.4.0.11-1+cuda11.4 arm64        Meta package of TensorRT

OpenCV

dpkg -l libopencv

结果应当为:

Desired=Unknown/Install/Remove/Purge/Hold
| Status=Not/Inst/Conf-files/Unpacked/halF-conf/Half-inst/trig-aWait/Trig-pend
|/ Err?=(none)/Reinst-required (Status,Err: uppercase=bad)
||/ Name           Version             Architecture Description
+++-==============-===================-============-=======================
ii  libopencv      4.5.4-8-g3e4c170df4 arm64        Open Computer Vision Library

参考附录

JetPack documentation

目录
相关文章
|
6月前
|
存储 运维 机器人
Nvidia和AMD显卡是如何制作的
Nvidia和AMD显卡是如何制作的
144 0
|
缓存 运维 Kubernetes
NVIDIA GPU Operator分析一:NVIDIA驱动安装
背景我们知道,如果在Kubernetes中支持GPU设备调度,需要做如下的工作:节点上安装nvidia驱动节点上安装nvidia-docker集群部署gpu device plugin,用于为调度到该节点的pod分配GPU设备。除此之外,如果你需要监控集群GPU资源使用情况,你可能还需要安装DCCM exporter结合Prometheus输出GPU资源监控信息。要安装和管理这么多的组件,对于运维
4361 0
NVIDIA GPU Operator分析一:NVIDIA驱动安装
|
6月前
|
弹性计算 并行计算 UED
GPU实例使用--自动安装NVIDIA GPU驱动和CUDA组件
GPU 云服务器正常工作需提前安装正确的基础设施软件,对于搭载了 NVIDIA 系列 GPU卡的实例而言,如果把 NVIDIA GPU 用作通用计算,则需安装 NVIDIA GPU 驱动、 CUDA、cuDNN等软件。
101400 3
|
机器学习/深度学习 并行计算 Ubuntu
系统类配置(二)【深度学习装机详细教程-ubuntu16.04下安装cuda9.0+nvidia-384+cudnn7.1.4+tensorflow1.9。】(上)
系统类配置(二)【深度学习装机详细教程-ubuntu16.04下安装cuda9.0+nvidia-384+cudnn7.1.4+tensorflow1.9。】(上)
162 0
|
机器学习/深度学习 并行计算 Ubuntu
系统类配置(二)【深度学习装机详细教程-ubuntu16.04下安装cuda9.0+nvidia-384+cudnn7.1.4+tensorflow1.9。】(下)
系统类配置(二)【深度学习装机详细教程-ubuntu16.04下安装cuda9.0+nvidia-384+cudnn7.1.4+tensorflow1.9。】(下)
205 0
|
并行计算 Linux
nvidia-smi报错(重装Nvidia驱动)
nvidia-smi报错(重装Nvidia驱动)
|
消息中间件 Linux Kafka
【nvidia jetson xavier】 Linux系统安装+Deepstream 5.1环境部署
【nvidia jetson xavier】 Linux系统安装+Deepstream 5.1环境部署
317 0
|
机器学习/深度学习 并行计算 TensorFlow
使用anaconda配置gpu版本的tensorflow(30系列以下显卡)
使用anaconda配置gpu版本的tensorflow(30系列以下显卡)
使用anaconda配置gpu版本的tensorflow(30系列以下显卡)
|
Linux PyTorch 开发工具
YOLOv5-GPU Jetson Nano 部署教程
本文主要介绍我如何在Jetson Nano上部署基于pytorch-gpu的yolov5目标检测模型。
YOLOv5-GPU Jetson Nano 部署教程
|
编解码 Ubuntu 前端开发
我的NVIDIA开发者之旅——作为一名初学者,我是如何开启 NVIDIA Jetson Nano 开发的
在本文中,我将展示如何从一个初学者角度,使用 NVIDIA Jetson Nano 。 你也可以参考官方教程。 如果你想跟着我一起做,那么接下来的内容比会比较花费时间,需要你耐心跟着往下做。😎
997 0
我的NVIDIA开发者之旅——作为一名初学者,我是如何开启 NVIDIA Jetson Nano 开发的