ubutun/linux(终端)安装anaconda3以及pytorch

简介: ubutun/linux(终端)安装anaconda3以及pytorch

1.下载anaconda3

首先下载anaconda,由于官网的下载速度十分缓慢,而且还不支持断点续传,经常下载失败。故而,去国内的镜像站点下载:

42.png


选择对应的版本下载,下载完成后上传到linux机器上去,服务器选择filezilla上传,虚拟机直接拖拽进去就ok了,这里我的linux服务器,并且ubutun系统版本18.0.4,这里下载的Anaconda3-5.2.0-Linux-x86_64.sh


2.安装anaconda3

以服务器为例,将sh文件拖拽到了/home/max/anaconda3/xx.sh下,切换到该目录(也可以自己创建别的),在命令行输入:

bash Anaconda3-5.2.0-Linux-x86_64.sh


一路回车+输入yes即可。

3.配置环境

sudo gedit ~/.bashrc

43.png

在.bashrc文件末尾添加你安装的anaconda3的位置,这里需要注意的是:

1)gedit 命令可能找不到,需要安装,可以使用vim命令代替,即:

sudo vim  ~/.bashrc


2)anaconda3的安装路径,可能会安装到别的地方,应该是一路yes回车的原因,这里我一路回车安装到了/root/anaconda3,所以上面的环境配置要改到/root/anaconda3/bin.

最后,在命令行输入:

conda -V


显示出版本,说明安装成功。


4.创建虚拟环境

为pytorch创建一个虚拟环境,这是推荐的做法,这样在创建其他环境如tensorflow时,就不会互相冲突。下面创建了一个名为pytorch,python版本为3.6的虚拟环境。

conda create -n pytorch python=3.6

于是我们可以把Pytorch安装在pytorch环境下面,首先激活该虚拟环境:

source activate pytorch

激活后,会看到前面会显示(pytorch):

44.png

注:这里需要注意的是在创建虚拟环境的时候,可能因为网络的原因导致失败,如:

CondaHTTPError: HTTP 000 CONNECTION FAILED for url,这里推荐改成国内镜像:

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --set show_channel_urls yes

进行查看:

cat ~/.condarc

45.png

修改成功,这里可以看到有defaults,然后将其所在的行删除,并且把https改成http。

5.安装pytorch

在pytorch官网:https://pytorch.org/,选择适合自己电脑版本的pytorch。

46.png

这里是目前最新的pytorch1.6.0,也可以安装之前的版本,选择linux、conda、python等,其中如果安装gpu版本的则需要选择cuda,如果只是cpu的,则选择None,友情提醒一下,安装gpu的话,需要选择合适的cuda版本,主要规则见xxx(以后会补)。

复制选择好的配置下面的命令:


conda install pytorch torchvision -c pytorch

一路回车,全部安装即可,如果部分安装失败,可以多试几次该命令。

注意:

因为换了镜像源,要把命令后面的-c pytorch去掉,这样才会使用自己配置的镜像。

6.检测pytorch安装成功与否

在pytorch激活环境下,输入python:

python

然后,依次输入:

import torch 
print(torch.__version__) 
#如果返回版本信息,则安装成功

最后退出:

exit()


其中关闭激活环境的命令:

source deactivate pytorch


7.conda问题

其中利用conda命令安装库的时候,应该保持conda版本最新,所以需要在激活环境下使用该命令:

conda update conda


该命令,可能会遇到:

“ImportError: libGL.so.1: cannot open shared object file: No such file or directory”

解决方案:

sudo apt update
sudo apt install libgl1-mesa-glx

然后在conda update conda即可:

conda update conda


8.网络问题

conda安装库的时候,可能会出现:

CondaHTTPError: HTTP 000 CONNECTION FAILED for url

这个上面通过国内镜像解决了,但是有时候也会遇到,这里只需要多试几遍,一般就可以了。

目录
相关文章
|
3天前
|
Ubuntu Linux
Linux 各发行版安装 ping 命令指南
如何在不同 Linux 发行版(Ubuntu/Debian、CentOS/RHEL/Fedora、Arch Linux、openSUSE、Alpine Linux)上安装 `ping` 命令,详细列出各发行版的安装步骤和验证方法,帮助系统管理员和网络工程师快速排查网络问题。
53 20
|
3天前
|
Unix Linux 编译器
UNIX/Linux 上的安装
UNIX/Linux 上的安装。
18 2
|
29天前
|
NoSQL Linux PHP
如何在不同操作系统上安装 Redis 服务器,包括 Linux 和 Windows 的具体步骤
本文介绍了如何在不同操作系统上安装 Redis 服务器,包括 Linux 和 Windows 的具体步骤。接着,对比了两种常用的 PHP Redis 客户端扩展:PhpRedis 和 Predis,详细说明了它们的安装方法及优缺点。最后,提供了使用 PhpRedis 和 Predis 在 PHP 中连接 Redis 服务器及进行字符串、列表、集合和哈希等数据类型的基本操作示例。
56 4
|
1月前
|
存储 安全 数据管理
如何在 Rocky Linux 8 上安装和配置 Elasticsearch
本文详细介绍了在 Rocky Linux 8 上安装和配置 Elasticsearch 的步骤,包括添加仓库、安装 Elasticsearch、配置文件修改、设置内存和文件描述符、启动和验证 Elasticsearch,以及常见问题的解决方法。通过这些步骤,你可以快速搭建起这个强大的分布式搜索和分析引擎。
43 5
|
1月前
|
存储 缓存 Linux
【Linux】另一种基于rpm安装yum的方式
通过本文的方法,您可以在离线环境中使用RPM包安装YUM并进行必要的配置。这种方法适用于无法直接访问互联网的服务器或需要严格控制软件源的环境。通过配置本地YUM仓库,确保了软件包的安装和更新可以顺利进行。希望本文能够为您在特定环境中部署YUM提供实用的指导。
161 0
|
2月前
|
算法 PyTorch 算法框架/工具
Pytorch学习笔记(九):Pytorch模型的FLOPs、模型参数量等信息输出(torchstat、thop、ptflops、torchsummary)
本文介绍了如何使用torchstat、thop、ptflops和torchsummary等工具来计算Pytorch模型的FLOPs、模型参数量等信息。
353 2
|
18天前
|
机器学习/深度学习 人工智能 PyTorch
Transformer模型变长序列优化:解析PyTorch上的FlashAttention2与xFormers
本文探讨了Transformer模型中变长输入序列的优化策略,旨在解决深度学习中常见的计算效率问题。文章首先介绍了批处理变长输入的技术挑战,特别是填充方法导致的资源浪费。随后,提出了多种优化技术,包括动态填充、PyTorch NestedTensors、FlashAttention2和XFormers的memory_efficient_attention。这些技术通过减少冗余计算、优化内存管理和改进计算模式,显著提升了模型的性能。实验结果显示,使用FlashAttention2和无填充策略的组合可以将步骤时间减少至323毫秒,相比未优化版本提升了约2.5倍。
35 3
Transformer模型变长序列优化:解析PyTorch上的FlashAttention2与xFormers
|
2月前
|
机器学习/深度学习 自然语言处理 监控
利用 PyTorch Lightning 搭建一个文本分类模型
利用 PyTorch Lightning 搭建一个文本分类模型
68 8
利用 PyTorch Lightning 搭建一个文本分类模型
|
2月前
|
机器学习/深度学习 自然语言处理 数据建模
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
本文深入探讨了Transformer模型中的三种关键注意力机制:自注意力、交叉注意力和因果自注意力,这些机制是GPT-4、Llama等大型语言模型的核心。文章不仅讲解了理论概念,还通过Python和PyTorch从零开始实现这些机制,帮助读者深入理解其内部工作原理。自注意力机制通过整合上下文信息增强了输入嵌入,多头注意力则通过多个并行的注意力头捕捉不同类型的依赖关系。交叉注意力则允许模型在两个不同输入序列间传递信息,适用于机器翻译和图像描述等任务。因果自注意力确保模型在生成文本时仅考虑先前的上下文,适用于解码器风格的模型。通过本文的详细解析和代码实现,读者可以全面掌握这些机制的应用潜力。
116 3
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
|
3月前
|
机器学习/深度学习 PyTorch 调度
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
在深度学习中,学习率作为关键超参数对模型收敛速度和性能至关重要。传统方法采用统一学习率,但研究表明为不同层设置差异化学习率能显著提升性能。本文探讨了这一策略的理论基础及PyTorch实现方法,包括模型定义、参数分组、优化器配置及训练流程。通过示例展示了如何为ResNet18设置不同层的学习率,并介绍了渐进式解冻和层适应学习率等高级技巧,帮助研究者更好地优化模型训练。
201 4
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
下一篇
DataWorks