pytorch安装GPU版本 (Cuda12.1)教程: Windows、Mac和Linux系统下GPU版PyTorch(CUDA 12.1)快速安装

简介: pytorch安装GPU版本 (Cuda12.1)教程: Windows、Mac和Linux系统下GPU版PyTorch(CUDA 12.1)快速安装

🌷🍁 博主 libin9iOak带您 Go to New World.✨🍁

🦄 个人主页——libin9iOak的博客🎐
🐳 《面试题大全》 文章图文并茂🦕生动形象🦖简单易学!欢迎大家来踩踩~🌺
🌊 《IDEA开发秘籍》学会IDEA常用操作,工作效率翻倍~💐
🪁🍁 希望本文能够给您带来一定的帮助🌸文章粗浅,敬请批评指正!🍁🐥

GPU版本PyTorch(CUDA 12.1)清华源快速安装教程:Windows、Mac和Linux系统

在本教程中,我们将为您提供在Windows、Mac和Linux系统上安装和配置GPU版本的PyTorch(CUDA 12.1)的详细步骤。我们将使用清华大学开源软件镜像站作为软件源以加快下载速度。通过按照以下教程,您将轻松完成GPU版本PyTorch的安装,为深度学习任务做好准备。

注意:在进行安装之前,请确保您的系统满足PyTorch(CUDA 12.1)的硬件要求,并已安装相应的GPU驱动程序和CUDA Toolkit。

教程目录

  1. Windows系统上安装GPU版本PyTorch(CUDA 12.1)
  2. Mac系统上安装GPU版本PyTorch(CUDA 12.1)
  3. Linux系统上安装GPU版本PyTorch(CUDA 12.1)

Windows系统上安装GPU版本PyTorch(CUDA 12.1)

步骤1:检查GPU兼容性

确保您的Windows计算机配备了兼容的NVIDIA GPU。访问NVIDIA官方网站查找GPU的兼容性列表。

步骤2:安装NVIDIA驱动程序

前往NVIDIA官方网站下载并安装适用于您的GPU型号的最新驱动程序。

步骤3:安装CUDA Toolkit

从NVIDIA官方网站下载并安装与您的GPU兼容的CUDA Toolkit(版本12.1)。

步骤4:配置环境变量

将CUDA Toolkit的安装路径添加到系统环境变量中,以便PyTorch能够正确找到CUDA。

步骤5:创建虚拟环境

使用Anaconda创建一个新的虚拟环境(如pytorch310),并激活它。

步骤6:设置清华源

在虚拟环境中,使用以下命令设置清华源以加速安装过程:

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

步骤7:安装PyTorch

使用以下命令在Windows系统上安装GPU版本的PyTorch(CUDA 12.1):

pip install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1+cu118 -f https://download.pytorch.org/whl/torch_stable.html

步骤8:验证安装是否成功

在Python环境中运行以下代码来验证是否成功安装了GPU版本的PyTorch:

import torch
print(torch.cuda.is_available())

如果输出结果为True,则说明PyTorch成功使用了GPU加速,安装完成。

Mac系统上安装GPU版本PyTorch(CUDA 12.1)

步骤1:检查GPU兼容性

确保您的Mac计算机搭载了支持Metal的GPU。访问苹果官方网站查找GPU的兼容性列表。

步骤2:安装Xcode

从Mac App Store下载并安装Xcode,它包含必要的开发工具和编译器。

步骤3:安装Homebrew

在终端中运行安装Homebrew的命令,以便之后安装其他软件。

步骤4:安装CUDA Toolkit

使用Homebrew安装与您的Mac GPU兼容的CUDA Toolkit(版本12.1):

brew install --cask cuda@11.1

步骤5:创建虚拟环境

使用Anaconda创建一个新的虚拟环境(如pytorch310),并激活它。

步骤6:设置清华源

在虚拟环境中,使用以下命令设置清华源以加速安装过程:

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

步骤7:安装PyTorch

使用以下命令在Mac系统上安装GPU版本的PyTorch(CUDA 12.1):

pip install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1+cu118 -f https://download.pytorch.org/whl/torch_stable.html

步骤8:验证安装是否成功

在Python环境中运行以下代码来验证是否成功安装了GPU版本的PyTorch:

import torch
print(torch.cuda.is_available())

如果输出结果为True,则说明PyTorch成功使用了GPU加速,安装完成。

Linux系统上安装GPU版本PyTorch(CUDA 12.1)

步骤1:检查GPU兼容性

确保您的Linux计算机搭载了兼容的NVIDIA GPU。访问NVIDIA官方网站查找GPU的兼容性列表。

步骤2:安装NVIDIA驱动程序

根据您的Linux发行版,从NVIDIA官方网站或使用包管理器安装适用于您的GPU型号的最新驱动程序。

步骤3:安装CUDA Toolkit

使用以下命令在Linux系统上下载并安装与您的GPU兼容的CUDA Toolkit(版本12.1):

wget https://developer.download.nvidia.com/compute/cuda/11.1.1/local_installers/cuda_11.1.1_455.32.00_linux.run
sudo sh cuda_11.1.1_455.32.00_linux.run

步骤4:配置环境变量

将CUDA Toolkit的安装路径添加到系统环境变量中

,以便PyTorch能够正确找到CUDA。

步骤5:创建虚拟环境

使用Anaconda创建一个新的虚拟环境(如pytorch310),并激活它。

步骤6:设置清华源

在虚拟环境中,使用以下命令设置清华源以加速安装过程:

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

步骤7:安装PyTorch

使用以下命令在Linux系统上安装GPU版本的PyTorch(CUDA 12.1):

pip install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1+cu118 -f https://download.pytorch.org/whl/torch_stable.html

步骤8:验证安装是否成功

在Python环境中运行以下代码来验证是否成功安装了GPU版本的PyTorch:

import torch
print(torch.cuda.is_available())

如果输出结果为True,则说明PyTorch成功使用了GPU加速,安装完成。

今日学习总结

在今天的学习中,我们分别介绍了在Windows、Mac和Linux系统上安装和配置GPU版本的PyTorch(CUDA 12.1)。您现在已经掌握了在不同操作系统上安装GPU版本PyTorch的方法,为深度学习项目的开发和研究做好了准备。希望这个教程对您有所帮助!如有任何问题或疑惑,请随时留言,我们将乐意为您解答。感谢您的阅读!

原创声明

=======

作者: [ libin9iOak ]


本文为原创文章,版权归作者所有。未经许可,禁止转载、复制或引用。

作者保证信息真实可靠,但不对准确性和完整性承担责任。

未经许可,禁止商业用途。

如有疑问或建议,请联系作者。

感谢您的支持与尊重。

点击下方名片,加入IT技术核心学习团队。一起探索科技的未来,共同成长。


相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
目录
相关文章
|
10月前
|
缓存 并行计算 PyTorch
PyTorch CUDA内存管理优化:深度理解GPU资源分配与缓存机制
本文深入探讨了PyTorch中GPU内存管理的核心机制,特别是CUDA缓存分配器的作用与优化策略。文章分析了常见的“CUDA out of memory”问题及其成因,并通过实际案例(如Llama 1B模型训练)展示了内存分配模式。PyTorch的缓存分配器通过内存池化、延迟释放和碎片化优化等技术,显著提升了内存使用效率,减少了系统调用开销。此外,文章还介绍了高级优化方法,包括混合精度训练、梯度检查点技术及自定义内存分配器配置。这些策略有助于开发者在有限硬件资源下实现更高性能的深度学习模型训练与推理。
1967 0
|
10月前
|
机器学习/深度学习 并行计算 PyTorch
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
本文记录了在RTX 5070 Ti上运行PyTorch时遇到的CUDA兼容性问题,分析其根源为预编译二进制文件不支持sm_120架构,并提出解决方案:使用PyTorch Nightly版本、更新CUDA工具包至12.8。通过清理环境并安装支持新架构的组件,成功解决兼容性问题。文章总结了深度学习环境中硬件与框架兼容性的关键策略,强调Nightly构建版本和环境一致性的重要性,为开发者提供参考。
6725 64
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
|
PyTorch Linux 算法框架/工具
pytorch学习一:Anaconda下载、安装、配置环境变量。anaconda创建多版本python环境。安装 pytorch。
这篇文章是关于如何使用Anaconda进行Python环境管理,包括下载、安装、配置环境变量、创建多版本Python环境、安装PyTorch以及使用Jupyter Notebook的详细指南。
2092 1
pytorch学习一:Anaconda下载、安装、配置环境变量。anaconda创建多版本python环境。安装 pytorch。
|
并行计算 PyTorch TensorFlow
Ubuntu安装笔记(一):安装显卡驱动、cuda/cudnn、Anaconda、Pytorch、Tensorflow、Opencv、Visdom、FFMPEG、卸载一些不必要的预装软件
这篇文章是关于如何在Ubuntu操作系统上安装显卡驱动、CUDA、CUDNN、Anaconda、PyTorch、TensorFlow、OpenCV、FFMPEG以及卸载不必要的预装软件的详细指南。
11937 4
|
Linux
手把手教会你安装Linux系统
手把手教会你安装Linux系统
282 0
|
存储 机器学习/深度学习 PyTorch
PyTorch Profiler 性能优化示例:定位 TorchMetrics 收集瓶颈,提高 GPU 利用率
本文探讨了机器学习项目中指标收集对训练性能的影响,特别是如何通过简单实现引入不必要的CPU-GPU同步事件,导致训练时间增加约10%。使用TorchMetrics库和PyTorch Profiler工具,文章详细分析了性能瓶颈的根源,并提出了多项优化措施
607 1
PyTorch Profiler 性能优化示例:定位 TorchMetrics 收集瓶颈,提高 GPU 利用率
|
11月前
|
机器学习/深度学习 并行计算 PyTorch
Windows下CUDA+pytorch安装
以下是关于在Windows下安装CUDA和PyTorch的简要介绍及参考链接:
632 0
Windows下CUDA+pytorch安装
|
PyTorch TensorFlow 算法框架/工具
Jetson环境安装(一):Ubuntu18.04安装pytorch、opencv、onnx、tensorflow、setuptools、pycuda....
本文提供了在Ubuntu 18.04操作系统的NVIDIA Jetson平台上安装深度学习和计算机视觉相关库的详细步骤,包括PyTorch、OpenCV、ONNX、TensorFlow等。
1330 1
Jetson环境安装(一):Ubuntu18.04安装pytorch、opencv、onnx、tensorflow、setuptools、pycuda....
|
机器学习/深度学习 缓存 PyTorch
pytorch学习一(扩展篇):miniconda下载、安装、配置环境变量。miniconda创建多版本python环境。整理常用命令(亲测ok)
这篇文章是关于如何下载、安装和配置Miniconda,以及如何使用Miniconda创建和管理Python环境的详细指南。
6570 0
pytorch学习一(扩展篇):miniconda下载、安装、配置环境变量。miniconda创建多版本python环境。整理常用命令(亲测ok)