Ubuntu配置pytorch gpu环境(含Cuda+Cudnn+pytorch-gpu+卸载)(下)

简介: Ubuntu配置pytorch gpu环境(含Cuda+Cudnn+pytorch-gpu+卸载)(下)

三、配置环境变量:


<1>.cd到/home/(用户名)目录下,ls -a列出所有文件,找到有一个**.bashrc**的隐藏文件,使用vim或gedit编辑在尾部添加路径,以vim为例:sudo vim .bashrc,按G跳到末尾,添加如下路径:(以下是10.1和10.1两个版本)


## CUDA 10.0版本
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-10.0/lib64
export PATH=$PATH:/usr/local/cuda-10.0/bin
export CUDA_HOME=/usr/local/cuda-10.0
## CUDA 10.1版本
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-10.1/lib64
export PATH=$PATH:/usr/local/cuda-10.1/bin
export CUDA_HOME=/usr/local/cuda-10.1


<2>.添加完成,执行source ~/.bashrc更新。


四、查看cuda是否安装成功:


执行nvcc -V,显示版本号如下,至此cuda安装完成。(出现找不到问题看这里)


20200705175726869.png


安装NVIDIA CuDNN


1.官网下载cudnn文件:


进入官网下载地址,需要注册账号,点击同意协议,下载的cudnn一定要和cuda版本对应。


20200705175853894.png


tgz格式压缩文件,下载速度龟速则挪到win下用其他下载工具下载(IDM、迅雷不限)。


2.解压


<1>.命令行执行:tar -xzvf cudnn-10.0-linux-x64-v7.6.4.38.tgz 解压文件,解压出目录cuda。


<2>. 依次执行以下命令:(注意替换自己解压的cuda路径),目的是拷贝头文件、库文件并赋予权限:


sudo cp <路径>/cuda/include/cudnn.h /usr/local/cuda/include
sudo cp <路径>/cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*


<3>.至此cudnn安装完成。


安装GPU版本的PyTorch


这里选择用pip进行安装,首先需要安装pip:执行命令sudo apt intall python-pip3


(该步骤可以跳过) 现在建议配置pip虚拟环境,为此我们需要配置virtualenv(有关virtualenv的详细介绍可以看看廖雪峰Python3教程和官方documentation):


1.安装virtualenv:执行命令pip3 install virtualenv


2.新建一个虚拟环境(这里取名为env-pytorch):在终端中切换到想要新建env-pytorch的目录下(创建完虚拟环境后此目录下会多一个名为env-pytorch的文件夹,包含该虚拟环境相关的全部文件),执行命令virtualenv --no-site-packages venv -p <PYTHON_EXE>,其中<PYTHON_EXE>是Python的版本号,例如python3.6

到官网选择对应版本之后会得到相应的安装命令,如下图:



20200705180537722.png


为了验证以上安装成功,在终端输入python进入Python交互模式,然后依次输入:


import torch
torch.cuda.is_available()


如果返回结果是True,证明安装成功了


卸载NVIDIA Cuda


执行 cd到 /usr/local/cuda/bin下,执行sudo ./cuda-uninstaller ,用空格键勾选以下几项,选择done,提示Successfully uninstalled 完成卸载。


20200705180643856.png

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
6月前
|
人工智能 Ubuntu 前端开发
Dify部署全栈指南:AI从Ubuntu配置到HTTPS自动化的10倍秘籍
本文档介绍如何部署Dify后端服务及前端界面,涵盖系统环境要求、依赖安装、代码拉取、环境变量配置、服务启动、数据库管理及常见问题解决方案,适用于开发与生产环境部署。
1333 1
|
6月前
|
Ubuntu 安全 应用服务中间件
详细指南:配置Nginx服务器在Ubuntu平台上
以上步骤涵盖了基本流程:从软件包管理器获取 Ngnix, 设置系统服务, 调整UFW规则, 创建并激活服务器块(也称作虚拟主机), 并进行了初步优化与加固措施。这些操作都是建立在命令行界面上,并假设用户具有必要权限(通常是root用户)来执行这些命令。每个操作都有其特定原因:例如,设置开机启动确保了即使重启后也能自动运行 Ngnix;而编辑server block则定义了如何处理进入特定域名请求等等。
368 18
|
6月前
|
Ubuntu 安全 应用服务中间件
详细指南:配置Nginx服务器在Ubuntu平台上
以上步骤涵盖了基本流程:从软件包管理器获取 Ngnix, 设置系统服务, 调整UFW规则, 创建并激活服务器块(也称作虚拟主机), 并进行了初步优化与加固措施。这些操作都是建立在命令行界面上,并假设用户具有必要权限(通常是root用户)来执行这些命令。每个操作都有其特定原因:例如,设置开机启动确保了即使重启后也能自动运行 Ngnix;而编辑server block则定义了如何处理进入特定域名请求等等。
589 17
|
5月前
|
人工智能 并行计算 PyTorch
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
505 4
|
6月前
|
Ubuntu 安全 关系型数据库
安装与配置MySQL 8 on Ubuntu,包括权限授予、数据库备份及远程连接指南
以上步骤提供了在Ubuntu上从头开始设置、配置、授权、备份及恢复一个基础但完整的MySQL环境所需知识点。
647 7
|
6月前
|
消息中间件 人工智能 运维
Ubuntu环境下的 RabbitMQ 安装与配置详细教程
本文聚焦在Ubuntu下RabbitMQ安装与配置教程,旨在帮助读者快速构建稳定可用的消息队列服务。
1153 6
|
5月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
506 1
|
5月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
614 0
|
10月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
1376 61