MoneyPrinterPlus全面支持本地Ollama大模型

简介: 现在,MoneyPrinterPlus除了支持大模型厂商的服务之外,还可以接入本地的Ollama大模型了。

MoneyPrinterPlus现在支持批量混剪,一键AI生成视频,一键批量发布短视频这些功能了。

之前支持的大模型是常用的云厂商,比如OpenAI,Azure,Kimi,Qianfan,Baichuan,Tongyi Qwen, DeepSeek这些。

支持云厂商的原因是现在大模型使用基本都很便宜,并且大厂的稳定性,性能都比本地搭建要好很多。

但是很多小伙伴说还是希望接入本地的LLM模型。

所以,最近我对MoneyPrinterPlus进行了一些适配,最新版本已经支持Ollama了。

你可以在Ollama中接入你想要使用的大模型。

下面告诉大家如何在MoneyPrinterPlus中使用本地的Ollama模型。

软件准备

当然,前提条件就是你需要下载MoneyPrinterPlus软件啦。

下载地址: https://github.com/ddean2009/MoneyPrinterPlus

用得好的朋友,不妨给个star支持一下。

安装Ollama

如果已经有Ollama的朋友可以直接跳过本节。

对于没有安装过Ollama的朋友,可以直接进入Ollama的官网: https://ollama.com/ 进行安装和下载。

现在Ollama支持windows,linux和Mac这三种操作系统。

我们以linux环境为例来讲解一下Ollama的安装。

在linux环境中,Ollama只需要执行下面的命令即可:

curl -fsSL https://ollama.com/install.sh | sh

系统会自动下载Ollama的安装包,进行安装。

这样Ollama就安装好了。

Ollama支持很多models,我们可以在他的 https://ollama.com/library 网站中查找需要的模型。

比较常用的像llama3,mistral, llama2-chinese等等。

我们可以使用 ollama list 来查看现有的模型。

如果要下载对应的模型,可以ollama pull llama3从Ollama的模型注册表中拉取指定的模型到本地。

然后使用 ollama run llama3 来运行对应的模型。

当然ollama还有一些其他的用法。这里就不多讲了,大家可以去看下ollama的文档。

ollama安装好之后,我们可以通过下面的命令来测试一下ollama的使用:

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
    "prompt":"Why is the sky blue?"
    }'
如果有返回,那么说明你的ollama是没有问题的。可以继续使用了。

## 在MoneyPrinterPlus中配置Ollama

我们启动MoneyPrinterPlus,点击左边的基本配置,在右边的LLM大模型配置项中,我们下拉选择Ollama。



![image-20240715142420621](https://flydean-1301049335.cos.ap-guangzhou.myqcloud.com/img/202407151424830.png)



Ollama的配置需要设置两项。

第一项是Base Url,也就是调用Ollama的地址。

如果你的ollama在本地,就填:http://localhost:11434/

如果是在其他远程的机子上,就填:http://IP:11434/



需要注意的是,Ollama默认只会暴露端口给本机连接。
如果需要远程连接Ollama,还需要改下Ollama的配置:

```shell
vi /etc/systemd/system/ollama.service

在[Service]下面添加一下环境变量:
#配置远程访问
Environment="OLLAMA_HOST=0.0.0.0"
```

修改完之后重新load并重启ollama即可:

```shell
sudo systemctl daemon-reload 

sudo systemctl restart ollama
```



第二项是Ollama中的模型名字。

比如你用的是llama3,那么这里就填llama3就行了。



Ollama配置好之后,就可以进入AI视频区域:

在视频主题区输入你需要生成的视频主题,点击生成视频文案。



![image-20240715144309076](https://flydean-1301049335.cos.ap-guangzhou.myqcloud.com/img/202407151443554.png)



如果有文案生成,那么恭喜你,说明Ollama配置完成了。



接下来尽情使用MoneyPrinterPlus吧。




[点我查看更多精彩内容:www.flydean.com](www.flydean.com)
相关文章
|
10月前
|
人工智能 文件存储 数据中心
Ollama部署本地大模型并通过Infortress APP远程访问保姆级教程
本文介绍如何快速上手本地大模型部署工具Ollama及AI远程访问工具Infortress。通过Ollama,开发者可轻松部署如Llama、Deepseek等主流开源模型,仅需几行命令即可完成安装与运行。结合Infortress,用户能实现对本地大模型的远程访问,支持多设备无缝对接,同时提供便捷的模型切换与知识库管理功能。Infortress更兼具NAS软件特性,成为个人AI数据中心的理想选择。
|
人工智能 C++ iOS开发
ollama + qwen2.5-coder + VS Code + Continue 实现本地AI 辅助写代码
本文介绍在Apple M4 MacOS环境下搭建Ollama和qwen2.5-coder模型的过程。首先通过官网或Brew安装Ollama,然后下载qwen2.5-coder模型,可通过终端命令`ollama run qwen2.5-coder`启动模型进行测试。最后,在VS Code中安装Continue插件,并配置qwen2.5-coder模型用于代码开发辅助。
24876 71
|
8月前
|
人工智能 搜索推荐 Linux
ollama部署本地DeepSeek大模型
本地部署大模型具有省钱省心、数据安全、使用自由、无需联网、量身定制及响应高效等优势。DeepSeek 提供满血版与多种蒸馏版模型,适配不同硬件条件。通过 Ollama 可便捷部署,并结合客户端工具如 AnythingLLM 提升交互体验,打造个性化本地 AI 助手。
932 0
|
10月前
|
存储 人工智能
Ollama 本地运行 Qwen 3
本指南介绍如何安装和配置Ollama。首先,从官网下载Ollama并选择适合的安装方式:傻瓜式安装或指定路径安装。安装完成后,可通过系统环境变量配置模型下载路径(可选)。最后,运行对应模型命令进行测试使用,包括选择参数量、复制命令并在命令行工具中执行,验证安装是否成功。
5523 19
|
程序员 API 开发者
实战阿里qwen2.5-coder 32B,如何配置Cline的Ollama API接口。
阿里Qwen2.5大模型开源免费,适合编程应用。在Ollama平台下载时,推荐选择带有“cline”字样的Qwen2.5-Coder版本,仅需额外下载适配文件,无需重复下载模型文件。Ollama环境永久免费,配置简单,效果出色,适合开发者使用。
5708 77
|
架构师 Linux Docker
三分钟让Dify接入Ollama部署的本地大模型!
本文详细介绍了如何在 Dify 中接入 Ollama 模型,包括模型添加、参数配置及常见问题解决。通过运行 Ollama 服务并与 qwen2:0.5b 模型交互,实现本地化大模型应用开发。同时提供了 Docker、Mac、Linux 和 Windows 平台上 Ollama 的部署与环境变量设置指南,帮助开发者快速上手。更多实战技巧可访问[编程严选网](http://www.javaedge.cn/)或关注作者的 Github 仓库。
10150 2
三分钟让Dify接入Ollama部署的本地大模型!
|
Linux Docker 异构计算
基于Dify +Ollama+ Qwen2 完成本地 LLM 大模型应用实战
尼恩,一位拥有40年经验的老架构师,通过其丰富的行业经验和深入的技术研究,为读者提供了一套系统化、全面化的LLM大模型学习圣经。这套学习资料不仅帮助许多从业者成功转型,还助力多位工程师获得了高薪工作机会。

热门文章

最新文章