1分钟构建你的tensorflow-gpu基于docker,cuda10.2,DriverVersion:440.26

简介: 1分钟构建你的tensorflow-gpu基于docker,cuda10.2,DriverVersion:440.26

本镜像由mkmk构造,

ubuntu16

gcc5

g++5

nvidia-smi 440.26

cuda10.2

python3.7

jupyter密码 ***

pip默认清华源

apt默认清华源

windows 开启你的容器
docker run -tdi  --net mynet10  --ip 10.10.20.21  --name  cujupt102 --privileged=true  registry.cn-hangzhou.aliyuncs.com/mkmk/gpujupyter:pydotGrapgviz /bin/bash  | docker exec -d cujupt102 /bin/bash -c "cd /home &&(/etc/init.d/ssh start) && nohup jupyter notebook --allow-root & " 
#一条命令启动你的jupyter服务
(docker run -tdi --gpus all  -p 60106:22 -p 60006:8888 --name  cujupt102 --privileged=true  registry.cn-hangzhou.aliyuncs.com/mkmk/gpujupyter:pydotGrapgviz /bin/bash) &&(docker exec -d cujupt102 /bin/bash -c "cd /home &&(/etc/init.d/ssh start) && nohup jupyter notebook --allow-root & " )
#删除容器
docker stop cujupt102 && docker rm cujupt102
#查看ssh服务
ps -e | grep ssh
/etc/init.d/ssh restart
#检测 gpu
watch -n 1 nvidia-smi
#解决容器中文问题
apt-get -y install language-pack-zh-hans
RUN apt-get update
RUN apt-get install -y locales
RUN locale-gen zh_CN
RUN locale-gen zh_CN.utf8
RUN update-locale LANG=zh_CN.UTF-8 LC_ALL=zh_CN.UTF-8 LANGUAGE=zh_CN.UTF-8
ENV LANG zh_CN.UTF-8
ENV LANGUAGE zh_CN.UTF-8
ENV LC_ALL zh_CN.UTF-8

命令解释

#构建容器
sudo docker run -tdi  -p 0.0.0.0:60006:8888  --gpus all  --name  cudajpter    --privileged=true registry.cn-hangzhou.aliyuncs.com/mkmk/gpujupyter:cuda102UTF8  init
#当容器暂停时重启启动容器
sudo docker start cudajpter
#启动jupyter 服务
sudo docker exec -d cudajpter /bin/bash -c "cd /home && nohup  /root/anaconda3/bin/jupyter notebook  --allow-root  &"
#进入容器内部
sudo docker exec -it cudajpter /bin/bash
#映射到公网
sshpass -p "Li" ssh -NTf -R 60006:172.16.102.168:60006 root@limengkai.work -o stricthostkeychecking=no
相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
23天前
|
存储 并行计算 调度
迈向可编程观测:在GPU Kernel中构建类eBPF风格的性能探针
本文旨在梳理作者学习路径,带领读者共同探索 GPU Kernel 性能分析从宏观到微观的技术演进。
346 24
迈向可编程观测:在GPU Kernel中构建类eBPF风格的性能探针
|
17天前
|
人工智能 前端开发 Docker
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
在 AI 智能体开发中,开发者常面临本地调试与云端部署的矛盾。本文介绍如何通过 Docker Compose 与 Docker Offload 解决这一难题,实现从本地快速迭代到云端高效扩容的全流程。内容涵盖多服务协同、容器化配置、GPU 支持及实战案例,助你构建高效、一致的 AI 智能体开发环境。
181 0
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
|
27天前
|
JavaScript Docker 容器
使用Docker多阶段构建优化镜像大小
使用Docker多阶段构建优化镜像大小
244 100
|
27天前
|
缓存 安全 Linux
优化Docker镜像大小的多阶段构建实践
优化Docker镜像大小的多阶段构建实践
196 99
|
27天前
|
缓存 前端开发 Docker
Docker Layer Caching:加速你的容器构建
Docker Layer Caching:加速你的容器构建
|
27天前
|
安全 Go Docker
使用Docker多阶段构建优化镜像大小
使用Docker多阶段构建优化镜像大小
|
6月前
|
Docker 容器 Perl
云效flow构建docker镜像更换apt源为阿里镜像源
在 Dockerfile 中添加命令以更换 Debian 源为阿里云镜像,加速容器内软件包下载。核心命令通过 `sed` 实现源地址替换,并更新 apt 软件源。其中 `cat` 命令用于验证替换是否成功,实际使用中可删除该行。
1224 32
|
27天前
|
Java Docker 容器
使用Docker多阶段构建优化镜像大小
使用Docker多阶段构建优化镜像大小
58 8
|
3月前
|
缓存 异构计算 Docker
构建高性能LLM推理服务的完整方案:单GPU处理172个查询/秒、10万并发仅需15美元/小时
本文将通过系统性实验不同的优化技术来构建自定义LLaMA模型服务,目标是高效处理约102,000个并行查询请求,并通过对比分析确定最优解决方案。
169 0
构建高性能LLM推理服务的完整方案:单GPU处理172个查询/秒、10万并发仅需15美元/小时
|
6月前
|
监控 Java Go
无感改造,完美监控:Docker 多阶段构建 Go 应用无侵入观测
本文将介绍一种基于 Docker 多阶段构建的无侵入 Golang 应用观测方法,通过此方法用户无需对 Golang 应用源代码或者编译指令做任何改造,即可零成本为 Golang 应用注入可观测能力。
317 85