Windows部署TensorFlow后识别GPU失败,原因是啥?

简介: Windows部署TensorFlow后识别GPU失败,原因是啥?


前面买GPU主要是为了接触一下深度学习HPE服务器通过显卡直通安装Tesla M4,这算亮机成功了吗?,经过了解,深度学习除了支持Linux系统之外,还支持Windows和macOS系统,那这么看,我完全可以在安装好了驱动的Windows系统上试一下切换到WDDM模式,Tesla M4可以用于本地显示输出了!

而且,为了测试显卡的算力,我打算用比较流行的机器学习库TensorFlow来做个简单测试,TensorFlow提供了一些基准测试脚本,我们可以用它们来比较不同硬件平台上的模型训练速度,并且可以通过设置不同的参数来测试CPU和GPU的性能。

一般来讲,深度学习中广泛使用Python编程语言,跑深度学习就要安装Python,我们可以参考之前的案例自行安装PythonPython办公自动化—环境搭建,并确保安装了常用的科学计算库,如NumPy、Pandas和Matplotlib。当然,我们也可以使用Anaconda等Python发行版来简化库的管理,然后再使用Anaconda来安装深度学习框架TensorFlow,或者PyTorch、Keras等框架。

首先,我们打开Anaconda官网(https://www.anaconda.com/),点击右上角的“Free Download”进入到下载页面。

或者直接打开下载页面(https://www.anaconda.com/download),选择适合自己电脑版本的Anaconda进行下载安装,比如我就选择默认的Windows版本。

安装包比较大,有1 GB多点,可能会下载比较慢,自己想想办法,比如用迅雷下载。下载完成后就可以开始安装了。

首屏直接点击“Next”继续安装。

点击“I Agree”同意用户协议。

确认安装可用的用户,默认选择为所有用户。

软件的占用空间还是比较大的,大约是5.7 GB,实际安装下来,空间大概要8 GB左右。

确认安装选项,点击“Install”开始安装。

然后就是比较漫长的安装过程,静待安装结束。

最后,点击“Finish”完成安装。

安装完成之后,打开Anaconda Navigator,进入“Environment”查看环境配置。

我们可以看到,Anaconda已经自动安装了包括Python在内的519个软件包,其中Python的版本为3.11.5,提示有可用更新,目前的最新版本应该是3.12.0,我们查看一下Python的版本确认一下。

然后我们点击页面下方的“Create”来创建一个新环境,指定名称,并选择已经安装的Python版本,点击“Create”完成创建。

可以看到,新的环境创建完成之后,仅仅包含了15个软件包。

然后点击新环境后面的启动按钮,选择“Open Terminal”打开命令行终端。

然后输入以下命令来激活testtensorflow环境:

activate testtensorflow

安装TensorFlow Benchmarks需要先安装TensorFlow,接下来,在激活的testtensorflow环境下,使用以下命令来安装TensorFlow。

pip install tensorflow

软件包比较大,可能需要比较长的时间。

安装完成后,还是点击新环境后面的启动按钮,这次选择“Open with Python”进入Python视图,输入以下命令检测GPU状态。

import tensorflow as tf
tf.test.is_gpu_available()

完蛋,应该就是之前修改GPU的工作模式为WDDM导致的切换到WDDM模式,Tesla M4可以用于本地显示输出了!

这下好了,遗留两个问题,一是pip安装的下载速度太慢,二是要修改GPU的工作模式为TCC,或者说是不修改工作模式为WDDM,我们下次再试一下。


相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
4月前
|
人工智能 自然语言处理 TensorFlow
134_边缘推理:TensorFlow Lite - 优化移动端LLM部署技术详解与实战指南
在人工智能与移动计算深度融合的今天,将大语言模型(LLM)部署到移动端和边缘设备已成为行业发展的重要趋势。TensorFlow Lite作为专为移动和嵌入式设备优化的轻量级推理框架,为开发者提供了将复杂AI模型转换为高效、低功耗边缘计算解决方案的强大工具。随着移动设备硬件性能的不断提升和模型压缩技术的快速发展,2025年的移动端LLM部署已不再是遥远的愿景,而是正在成为现实的技术实践。
|
10月前
|
Kubernetes 安全 异构计算
K8S 部署 Deepseek 要 3 天?别逗了!Ollama+GPU Operator 1 小时搞定
最近一年我都在依赖大模型辅助工作,比如 DeepSeek、豆包、Qwen等等。线上大模型确实方便,敲几个字就能生成文案、写代码、做表格,极大提高了效率。但对于企业来说:公司内部数据敏感、使用外部大模型会有数据泄露的风险。
K8S 部署 Deepseek 要 3 天?别逗了!Ollama+GPU Operator 1 小时搞定
|
存储 Kubernetes 对象存储
部署DeepSeek但GPU不足,ACK One注册集群助力解决IDC GPU资源不足
借助阿里云ACK One注册集群,充分利用阿里云强大ACS GPU算力,实现DeepSeek推理模型高效部署。
|
11月前
|
存储 人工智能 固态存储
轻量级AI革命:无需GPU就能运算的DeepSeek-R1-1.5B模型及其低配部署指南
随着AI技术发展,大语言模型成为产业智能化的关键工具。DeepSeek系列模型以其创新架构和高效性能备受关注,其中R1-1.5B作为参数量最小的版本,适合资源受限场景。其部署仅需4核CPU、8GB RAM及15GB SSD,适用于移动对话、智能助手等任务。相比参数更大的R1-35B与R1-67B+,R1-1.5B成本低、效率高,支持数学计算、代码生成等多领域应用,是个人开发者和初创企业的理想选择。未来,DeepSeek有望推出更多小型化模型,拓展低资源设备的AI生态。
2399 8
|
12月前
|
边缘计算 调度 对象存储
部署DeepSeek但IDC GPU不足,阿里云ACK Edge虚拟节点来帮忙
介绍如何使用ACK Edge与虚拟节点满足DeepSeek部署的弹性需求。
|
12月前
|
存储 Kubernetes 对象存储
部署DeepSeek但GPU不足,ACK One注册集群助力解决IDC GPU资源不足
部署DeepSeek但GPU不足,ACK One注册集群助力解决IDC GPU资源不足
358 3
|
机器学习/深度学习 弹性计算 网络安全
部署DeepSeek,你的GPU够用吗?
本文介绍如何将 DeepSeek-R1 开源模型部署到 GPU 云服务器,在 GPU 云服务器上安装与配置 Ollama 和 Open WebUI。
|
12月前
|
边缘计算 调度 对象存储
部署DeepSeek但IDC GPU不足,阿里云ACK Edge虚拟节点来帮忙
部署DeepSeek但IDC GPU不足,阿里云ACK Edge虚拟节点来帮忙
290 0
|
12月前
|
存储 Kubernetes 对象存储
部署 DeepSeek 但 GPU 不足,ACK One 注册集群助力解决 IDC GPU 资源不足
部署 DeepSeek 但 GPU 不足,ACK One 注册集群助力解决 IDC GPU 资源不足

热门文章

最新文章