程序员Feri一名12年+的程序员,做过开发带过团队创过业,擅长Java、鸿蒙、嵌入式、人工智能等开发,专注于程序员成长的那点儿事,希望在成长的路上有你相伴!君志所向,一往无前!
如果你还没安装Ollama,那么赶紧参考我上一篇博客《从0到1手把手教你本地部署大模型》
DeepSeek号称“国运级”,那么究竟怎么样?本篇主要带大家本地化部署
1.安装DeepSeek大模型
我们安装的是deepseek-r1,deepseek-r1是深度求索(DeepSeek)推出了第一代推理模型,其性能可与 OpenAI - o1 相媲美,其中包括基于 Llama 和通义千问(Qwen)从 DeepSeek - R1 提炼而来的六个稠密模型。
直接管理员打开命令行,输入下面的命令:
ollama run deepseek-r1:7b
我选择的7b的参数哈,为啥不选择其他的,主要也是结合我自己笔记本的情况。
整整重试了3次,才搞定
快来体验一下:可以直接命令框进行聊天问答
2.安装open-webui
使用pip命令安装openweb-ui
第一步:先对pip进行换源
这样下载才杠杠的
执行命令:
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
第二步:下载open-webui
pip install open-webui
结果出错啦,错误信息如下所示:
so ga,原来是版本的问题,执行下面命令,升级pip的版本
python.exe -m pip install --upgrade pip
要注意,python的版本只能在3.11和3.12之间,要不然也不可以哈
继续下载open-webui
pip install open-webui
第四步:启动open-webui
open-webui serve
第五步:浏览器直接访问
第一个用户就是我们的管理员哈,注意喽!
第一次的时候,总是让人那么难忘,所以有点慢,需要点耐心,后面就666的飞起啦
其实我使用DeepSeek之后最大的感觉,她具备了一定的人的思考过程,降低了大模型的使用门槛,无需考虑提示词,可以直接对话,让其给出我们想要的内容。
好啦,本篇就到这啦,今天开工啦,祝愿所有兄弟姐妹们,开工大吉,2025顺势而为!