Anaconda 安装并使用 PyTorch(PyCharm)

简介: Anaconda 安装并使用 PyTorch(PyCharm)

Anaconda 安装并使用 PyTorch(PyCharm)

前言

本教程仅适用于:Windows系统、Anaconda3-2023.03-Windows-x86_64、pycharm-professional-2023.1.2

Bug指南

  • 查看 Anaconda 和 PyChatm 版本是否和作者一致?各操作是否和作者一致?
  • 都一致的情况下,将问题或bug贴在评论区(随缘回复)!
  • 重装 Anaconda 100% 解决,在这之前,必须按照 Uninstalling Anaconda Distribution 清理环境或配置。

1. Anaconda 安装

1.1 下载安装包

下载 Anaconda 安装包时往往会有一些疑问,比如不知道从何下载,或下载过慢等问题,作者将提供如下两种方案。

(1)官网下载

进入 Anaconda 官网,点击 Download 下载 Windows 版安装程序:

上述默认下载 Anaconda 最新版本(可能会导致配置或兼容等Bug),历史版本点击 History Version,如下图:

由于是从国外下载,速度会较慢,所以该方法不推荐使用。

(2)清华镜像

进入 清华大学开源软件镜像站,选择 anaconda 进入该软件的下载目录,再点击 archive 选择下载哪个版本:

作者下载的是:Anaconda3-2023.03-Windows-x86_64.exe

1.2 安装

下载 Anaconda 后直接双击即可,以下几点需要注意。

(1)选择 All Users 适用于所有用户:

(2)避免安装在C盘(会导致电脑变慢/卡):

(3)一直默认,安装过程持续半小时左右。。。 以下截图表示安装完成,点击 Next

(4)直接点击 Next

(5)两个勾去掉,避免打开网页还得关闭,直接 Finish 安装结束

1.3 测试

Anaconda 安装结束后,会新增以下几个应用:

双击 Anaconda Prompt 输入如下指令测试:

conda --version

若输出以下,即为安装成功:

conda 23.1.0

1.4 更改镜像源

当我们使用 Conda 下载并安装 Python 包时,默认访问国外服务器,速度较慢或报错,所以需要换源。

更改 Conda 默认源有两种方式:(1)config 指令;(2)修改 .condarac 文件。

(1)config

Anaconda Prompt 中输入如下指令添加清华镜像源:

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --set show_channel_urls yes

此时,打开C盘用户目录(即 C:\Users\xxx,xxx为你的用户名),会发现多了一个 .condarc 文件,将其用记事本打开如下所示:

其他操作:

  • 重置/删除镜像源(或直接去 .condarc 文件中全选删除):
conda config --remove-key channels
  • 如果镜像源中含有 defaults 需要删掉,这样在下载时会默认使用清华镜像源:
conda config --remove channels defaults

(2).condarc

用记事本打开 .condarc 文件,并添加以下内容:

channels:
  - http://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/
  - http://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/
  - http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
  - http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
  - http://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
  - http://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/bioconda/
  - http://mirrors.ustc.edu.cn/anaconda/cloud/msys2/
  - http://mirrors.ustc.edu.cn/anaconda/pkgs/free/
  - http://mirrors.ustc.edu.cn/anaconda/pkgs/main/
  - http://mirrors.ustc.edu.cn/anaconda/cloud/conda-forge/
  - http://mirrors.ustc.edu.cn/anaconda/cloud/menpo/
  - http://mirrors.ustc.edu.cn/anaconda/cloud/bioconda/
ssl_verify: true
show_channel_urls: true

2. PyTorch 安装

通过 Anaconda 创建一个名为 torch 的虚拟环境,方便对不同版本的 PyTorch 进行管理。

2.1 创建虚拟环境

conda 默认在C盘的用户目录下创建虚拟环境(作者为: C:\Users\xxxxx\.conda\envs\),C盘会变得臃肿,这就导致电脑变卡变慢。但是 conda 也提供在指定目录下创建环境。

(1)默认目录

在默认目录下创建一个名为 torch 的虚拟环境,python 版本为 3.8

conda create -n torch python=3.8

(2)指定目录

D:\Software\envs\ 下创建一个名为 pytorch 的虚拟环境,python 版本为 3.10

conda create --prefix D:\Software\envs\pytorch python=3.10

此时,使用 conda env list 并不能完全显示该虚拟环境:

得使用以下 config 命令将新增的环境目录添加到 conda 的配置中:

conda config --append envs_dirs D:\Software\envs

再次使用以下指令即可查看全部已被创建的虚拟环境:

conda env list

2.3 激活/关闭环境

在针对指定环境进行操作时,需要先激活该虚拟环境;反之,则退出该环境即回到 base 环境。

(1)激活 pytorch 环境:

conda activate torch

(2)退出(切换回 base):

conda deactivate

2.4 CUDA

在正式安装 PyTorch 之前,需要知道我们电脑的 CUDA 版本,win + R 打开并输入 cmd,再输入如下指令:

nvidia-smi

即:

C:\Users\xxxxx>nvidia-smi
Sat May 20 11:17:37 2023
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 512.89       Driver Version: 512.89       CUDA Version: 11.6     |
|-------------------------------+----------------------+----------------------+
| GPU  Name            TCC/WDDM | Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|===============================+======================+======================|
|   0  NVIDIA GeForce ... WDDM  | 00000000:01:00.0  On |                  N/A |
| N/A   40C    P3    N/A /  N/A |    296MiB /  4096MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+

即作者 CUDA版本为 11.6,所以最高只能安装该版本的 PyTorch,比 11.6 低的也可以。

2.5 conda 安装 PyTorch

进入 PyTorch 历史版本,找到 # CUDA 11.6 (或低一点,例如 11.3)开始的指令复制到 Anaconda Prompt。

由于作者创建了两个虚拟环境(torchpytorch),以下分别演示:

注意:-c pytorch-c pytorch -c conda-forge 表示从官方下载,其速度较慢,如果使用我们自己添加的镜像源,将其删掉即可。

conda activate torch # 激活 torch 环境
# CUDA 11.3
conda install pytorch==1.12.1 torchvision==0.13.1 torchaudio==0.12.1 cudatoolkit=11.3 -c pytorch
conda activate pytorch # 激活 pytorch 环境
# CUDA 11.6
conda install pytorch==1.12.1 torchvision==0.13.1 torchaudio==0.12.1 cudatoolkit=11.6 -c pytorch -c conda-forge

测试: 若如下即为 PyTorch 安装成功

3. PyCharm 使用

3.1 安装 PyCharm

进入官网 下载 PyCharm,作者下载的是专业版(版本:2023.1.2):

注意:

  • 专业版功能更加齐全,适合专业人士,但仅能免费使用30天(可以在网上找破解版本),学生可参考 Reference [1] 提交审核(周期1个月左右),通过后可免费使用一年(点击 License 查询许可证,如下图),快到期时再次申请即可。
  • 社区版免费使用,但好像有些功能没有(作者并不清楚)。

双击 pycharm-professional-2023.1.2.exe 文件执行安装程序,并修改安装位置:

勾选如下 3 个选项:

何时启动(运行 PyCharm):

3.2 登录

进入 PyCharm 会弹出许可认证窗口,作者使用 JetBrains 账号(上文说过,学生申请免费试用一年)登录:

3.3 使用虚拟环境

在电脑随意盘新建一个 Test 文件夹,并使用 PyCharm 打开:

点击 Trust Project 表示信任该文件夹,就进入了 PyCharm 的主界面,会自动添加一个 main.py 文件,加载一段时间环境:

点击右下角的 Python 3.10,点击 Add New Interpreter,选择 Add Local Interpreter...

参考 Reference [2] ,选择 Conda Environment ,然后在 Anaconda 安装目录下找到 conda.bat 文件,再点击 Load Environment

PyCharm 会自动加载出已被创建的虚拟环境:

等待加载完环境和依赖包,会发现最右下角显示 pytorch 虚拟环境,再输入以下代码,Ctrl + Shift + F10 执行:

大功告成!!!

Reference

[1]还在为IDEA/PyCharm/Clion破解发愁吗?学生免费申请JetBrains教育认证使用旗舰版

[2]23年最新版pycharm找不到conda可执行文件解决办法

目录
相关文章
|
2月前
|
PyTorch Linux 算法框架/工具
pytorch学习一:Anaconda下载、安装、配置环境变量。anaconda创建多版本python环境。安装 pytorch。
这篇文章是关于如何使用Anaconda进行Python环境管理,包括下载、安装、配置环境变量、创建多版本Python环境、安装PyTorch以及使用Jupyter Notebook的详细指南。
336 1
pytorch学习一:Anaconda下载、安装、配置环境变量。anaconda创建多版本python环境。安装 pytorch。
|
2月前
|
并行计算 PyTorch TensorFlow
Ubuntu安装笔记(一):安装显卡驱动、cuda/cudnn、Anaconda、Pytorch、Tensorflow、Opencv、Visdom、FFMPEG、卸载一些不必要的预装软件
这篇文章是关于如何在Ubuntu操作系统上安装显卡驱动、CUDA、CUDNN、Anaconda、PyTorch、TensorFlow、OpenCV、FFMPEG以及卸载不必要的预装软件的详细指南。
5032 3
|
2月前
|
Java Python Windows
软件安装(四):Pycharm安装详细教程
本文提供了一个详细的PyCharm安装教程,包括下载、安装和使用步骤,特别强调了在Windows环境下安装时不要选择关联.py文件的选项,并说明了如何配置系统环境变量Path以及激活账号密码。
95 1
软件安装(四):Pycharm安装详细教程
|
2月前
|
PyTorch TensorFlow 算法框架/工具
Jetson环境安装(一):Ubuntu18.04安装pytorch、opencv、onnx、tensorflow、setuptools、pycuda....
本文提供了在Ubuntu 18.04操作系统的NVIDIA Jetson平台上安装深度学习和计算机视觉相关库的详细步骤,包括PyTorch、OpenCV、ONNX、TensorFlow等。
128 1
Jetson环境安装(一):Ubuntu18.04安装pytorch、opencv、onnx、tensorflow、setuptools、pycuda....
|
2月前
|
机器学习/深度学习 缓存 PyTorch
pytorch学习一(扩展篇):miniconda下载、安装、配置环境变量。miniconda创建多版本python环境。整理常用命令(亲测ok)
这篇文章是关于如何下载、安装和配置Miniconda,以及如何使用Miniconda创建和管理Python环境的详细指南。
536 0
pytorch学习一(扩展篇):miniconda下载、安装、配置环境变量。miniconda创建多版本python环境。整理常用命令(亲测ok)
|
2月前
|
算法 PyTorch 算法框架/工具
Pytorch学习笔记(九):Pytorch模型的FLOPs、模型参数量等信息输出(torchstat、thop、ptflops、torchsummary)
本文介绍了如何使用torchstat、thop、ptflops和torchsummary等工具来计算Pytorch模型的FLOPs、模型参数量等信息。
383 2
|
23天前
|
机器学习/深度学习 人工智能 PyTorch
Transformer模型变长序列优化:解析PyTorch上的FlashAttention2与xFormers
本文探讨了Transformer模型中变长输入序列的优化策略,旨在解决深度学习中常见的计算效率问题。文章首先介绍了批处理变长输入的技术挑战,特别是填充方法导致的资源浪费。随后,提出了多种优化技术,包括动态填充、PyTorch NestedTensors、FlashAttention2和XFormers的memory_efficient_attention。这些技术通过减少冗余计算、优化内存管理和改进计算模式,显著提升了模型的性能。实验结果显示,使用FlashAttention2和无填充策略的组合可以将步骤时间减少至323毫秒,相比未优化版本提升了约2.5倍。
42 3
Transformer模型变长序列优化:解析PyTorch上的FlashAttention2与xFormers
|
2月前
|
机器学习/深度学习 自然语言处理 监控
利用 PyTorch Lightning 搭建一个文本分类模型
利用 PyTorch Lightning 搭建一个文本分类模型
75 8
利用 PyTorch Lightning 搭建一个文本分类模型
|
2月前
|
机器学习/深度学习 自然语言处理 数据建模
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
本文深入探讨了Transformer模型中的三种关键注意力机制:自注意力、交叉注意力和因果自注意力,这些机制是GPT-4、Llama等大型语言模型的核心。文章不仅讲解了理论概念,还通过Python和PyTorch从零开始实现这些机制,帮助读者深入理解其内部工作原理。自注意力机制通过整合上下文信息增强了输入嵌入,多头注意力则通过多个并行的注意力头捕捉不同类型的依赖关系。交叉注意力则允许模型在两个不同输入序列间传递信息,适用于机器翻译和图像描述等任务。因果自注意力确保模型在生成文本时仅考虑先前的上下文,适用于解码器风格的模型。通过本文的详细解析和代码实现,读者可以全面掌握这些机制的应用潜力。
129 3
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
|
3月前
|
机器学习/深度学习 PyTorch 调度
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
在深度学习中,学习率作为关键超参数对模型收敛速度和性能至关重要。传统方法采用统一学习率,但研究表明为不同层设置差异化学习率能显著提升性能。本文探讨了这一策略的理论基础及PyTorch实现方法,包括模型定义、参数分组、优化器配置及训练流程。通过示例展示了如何为ResNet18设置不同层的学习率,并介绍了渐进式解冻和层适应学习率等高级技巧,帮助研究者更好地优化模型训练。
214 4
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型