深度学习租gpu

简介: 深度学习租gpu

我使用的是AutoDLhttps://www.autodl.com/home

官方文档:https://www.autodl.com/docs/pycharm/

1.租实例

进入控制台=》我的实例=》点击租用新实例

89bd779741fd4c21a9c6d12651015871.jpg

2.选择配置

f962b423a708497ba7663a60c651e3e5.jpg

按照需求进行就行,镜像如果在基础镜像选项中没有看到需要的,可以使用算法镜像试试,如上图想找到yolo项目的镜像。

选择好后点击立即创建即可,创建好实例后返回我的实例,可以看到创建的实例。如果不再使用这个实例,一定要关机或释放实例,否则会自动续时间

8a7e634947bd49ef9647cc86964f8dba.png

复制登录指令,命令格式如下:ssh -p port username@host

3.pycharm配置

接下来将实例用到pycharm(必须是专业版)中,

1.打开File=>Settings=>Project=>Python Interpreter=>Show All

1a7a9eb6aa8641b0abe985a79e7e068c.jpg

2.点击加号=>On SSH

fdfc2a82267341b58b6641d237e6ceb8.jpg将上面复制的登录指令中的Host, Username(一般为root), Port复制到下面,点击Next


448cc2da520540b3a83aa217a84e93f9.jpg

上次复制的登录的指令下面有个密码,点击复制,粘贴到下面Password中

b970f91bc3ed49f295532f40b28a5979.jpg一直Next,到下面这个界面,选择Existing

f2916c81e900411baeb28949b0abac4f.jpg

这里配置两个内容,分别是远程Python命令地址(一般是/root/miniconda3/bin/python)和本地项目和远程实例中的哪个目录进行关联


995d1f1b593e484fafcd026882aadac9.jpg

正在向远程服务器上传项目文件,等待完成即可。


441ba3a75f354665873dac0390d9136d.png

这个上传的时候很慢很慢,可以试试其他的办法,官方文档给的办法:https://www.autodl.com/docs/filezilla/,我试过的filezilla比较方便易懂。

4.传数据

下载地址:https://www.filezilla.cn/download/client

安装完成打开=>点击文件=>站点管理器

ee46fc4605294384b7f9798f7417980a.png

需要设置的内容与创建SSH连接时基本一致,需要注意的是协议选择SFTP,点击连接即可。接下来就可以将本地项目直接拖拽到远程磁盘中了。

f4411c6c9e10448e801efb025cd118eb.png


相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
12月前
|
机器学习/深度学习 测试技术 PyTorch
深度学习之测量GPU性能的方式
在深度学习中,测量GPU性能是一个多方面的任务,涉及运行时间、吞吐量、GPU利用率、内存使用情况、计算能力、端到端性能测试、显存带宽、框架自带性能工具和基准测试工具等多种方法。通过综合使用这些方法,可以全面评估和优化GPU的性能,提升深度学习任务的效率和效果。
947 5
|
机器学习/深度学习 并行计算 PyTorch
如何搭建深度学习的多 GPU 服务器
如何搭建深度学习的多 GPU 服务器
如何搭建深度学习的多 GPU 服务器
|
机器学习/深度学习 测试技术 PyTorch
深度学习之测量GPU性能的方式
在深度学习中,测量GPU性能是一个多方面的任务,涉及运行时间、吞吐量、GPU利用率、内存使用情况、计算能力、端到端性能测试、显存带宽、框架自带性能工具和基准测试工具等多种方法。通过综合使用这些方法,可以全面评估和优化GPU的性能,提升深度学习任务的效率和效果。
1065 3
|
机器学习/深度学习 人工智能 调度
显著提升深度学习 GPU 利用率,阿里云拿下国际网络顶会优胜奖!
显著提升深度学习 GPU 利用率,阿里云拿下国际网络顶会优胜奖!
929 7
|
机器学习/深度学习 并行计算 算法框架/工具
为什么深度学习模型在GPU上运行更快?
为什么深度学习模型在GPU上运行更快?
|
持续交付 测试技术 jenkins
JSF 邂逅持续集成,紧跟技术热点潮流,开启高效开发之旅,引发开发者强烈情感共鸣
【8月更文挑战第31天】在快速发展的软件开发领域,JavaServer Faces(JSF)这一强大的Java Web应用框架与持续集成(CI)结合,可显著提升开发效率及软件质量。持续集成通过频繁的代码集成及自动化构建测试,实现快速反馈、高质量代码、加强团队协作及简化部署流程。以Jenkins为例,配合Maven或Gradle,可轻松搭建JSF项目的CI环境,通过JUnit和Selenium编写自动化测试,确保每次构建的稳定性和正确性。
195 0
|
机器学习/深度学习 并行计算 TensorFlow
GPU加速TensorFlow模型训练:从环境配置到代码实践的全方位指南,助你大幅提升深度学习应用性能,让模型训练不再等待
【8月更文挑战第31天】本文以随笔形式探讨了如何在TensorFlow中利用GPU加速模型训练,并提供了详细的实践指南。从安装支持GPU的TensorFlow版本到配置NVIDIA CUDA及cuDNN库,再到构建CNN模型并使用MNIST数据集训练,全面展示了GPU加速的重要性与实现方法。通过对比CPU与GPU上的训练效果,突显了GPU在提升训练速度方面的显著优势。最后,还介绍了如何借助TensorBoard监控训练过程,以便进一步优化模型。
2143 0
|
24天前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
154 1
|
1月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
204 0
|
6月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
1090 61

热门文章

最新文章