NobodyWho:每个NPC都有独立灵魂!Godot插件实现本地LLM对话,离线生成多线剧情

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
简介: NobodyWho 是一款为 Godot 游戏引擎设计的插件,支持在本地运行 LLM,实现互动小说创作,无需联网,确保隐私和高性能。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🔥 “Godot引擎觉醒『大脑』!开源社区造出LLM本地运行时,游戏叙事进入『生成式时代』”

大家好,我是蚝油菜花。当别人还在用AI生成NPC台词时,Godot开发者已经让游戏引擎「自主思考」了!

NobodyWho的三大降维打击:

  • 隐私与性能兼得:GGUF格式模型本地运行,Vulkan/Metal加速比云端快3倍
  • 叙事维度爆炸:多上下文系统同时管理角色记忆/剧情分支/世界观设定
  • 零代码革命:用NobodyWhoChat节点实现智能对话,拖拽即连接

现在,你可以在玩家电脑上直接运行7B参数的LLM——这意味着每个选择都可能触发完全独特的剧情线。准备好告别预设脚本,迎接真正的「无限叙事」了吗?

🚀 快速阅读

NobodyWho 是一款为 Godot 游戏引擎设计的插件,支持在本地运行大型语言模型(LLM),实现互动小说创作。

  1. 核心功能:本地运行 LLM、GPU 加速推理、多上下文支持、流式输出。
  2. 技术原理:通过 Vulkan 或 Metal 实现 GPU 加速,集成简单的节点系统与 Godot 场景无缝对接。

NobodyWho 是什么

NobodyWho

NobodyWho 是一款专为 Godot 游戏引擎设计的插件,允许开发者在本地运行大型语言模型(LLM),从而实现互动小说创作和其他文本生成任务。它支持 Windows、Linux 和 macOS 平台,用户无需联网即可使用高性能的 LLM 功能,如对话交互和文本生成。这不仅解决了隐私问题,还大大提升了开发的灵活性和便捷性。

该插件通过简单的节点系统(如 NobodyWhoModelNobodyWhoChat)实现与 LLM 的无缝对接,让创作者可以快速构建动态叙事内容。无论是互动故事、NPC 对话系统,还是多角色和多线叙事,NobodyWho 都能提供强大的支持。

NobodyWho 的主要功能

  • 本地运行:支持在本地运行 LLM,无需联网,避免了隐私问题。
  • 高性能推理:通过 GPU 加速(Linux/Windows 使用 Vulkan,macOS 使用 Metal),确保快速的推理性能。
  • 多上下文支持:可以同时维护多个独立的“对话”或叙事线程,适用于不同角色或游戏状态。
  • 流式输出:生成文本时逐字输出,使游戏对话更具动态性和实时性。
  • 采样器功能:根据上下文动态调整生成参数(如温度、种子等),以控制对话风格。
  • 嵌入功能:通过 LLM 比较自然文本的语义内容,不仅是关键词或字面内容。
  • 工具调用:支持 LLM 与游戏内的功能或系统交互,例如访问库存、触发事件等。
  • 记忆功能:为 LLM 提供长期记忆,以便在叙事中引用过去的事件,确保故事连贯性。

NobodyWho 的技术原理

  • 本地运行与 GPU 加速:NobodyWho 支持用户在本地运行 LLM,无需联网即可实现快速推理。通过 Vulkan(Linux/Windows)或 Metal(macOS)技术实现 GPU 加速,确保高性能。
  • 节点系统集成:插件通过 Godot 的节点系统实现功能集成。用户需要在场景中添加 NobodyWhoModel 节点来加载 LLM 模型文件(如 GGUF 格式),通过 NobodyWhoChat 节点实现与模型的交互。

如何运行 NobodyWho

1. 安装插件

你可以通过以下两种方式安装 NobodyWho 插件:

  • 在 Godot 4.3+ 版本中,进入 AssetLib 并搜索 "NobodyWho" 进行安装。
  • 或者从 GitHub Releases 页面下载特定版本的压缩包,并在 Godot 中通过 "AssetLib" 标签页导入。确保在导入对话框中设置忽略资产根目录选项。

2. 准备 LLM 模型

插件本身不包含 LLM 模型,你需要提供一个 GGUF 格式的 LLM 模型文件。可以从 HuggingFace 下载适合的模型。

3. 添加 NobodyWhoModel 节点

在 Godot 场景中添加一个 NobodyWhoModel 节点,并将模型文件设置为你刚刚下载的 GGUF 文件。这个节点包含了模型的权重,占用较多内存,因此建议在同一场景中复用同一个 NobodyWhoModel 节点。

4. 添加 NobodyWhoChat 节点

接下来,添加一个 NobodyWhoChat 节点,并在节点检查器中设置 "Model Node" 字段,指向你刚刚添加的 NobodyWhoModel 节点。你还可以提供一个提示(prompt),指导 LLM 如何进行对话。

5. 编写交互脚本

你可以为 NobodyWhoChat 节点编写一个 GDScript 脚本来实现交互。以下是一个简单的示例:

extends NobodyWhoChat

func _ready():
    # 配置节点
    model_node = get_node("../ChatModel")
    system_prompt = "You are an evil wizard. Always try to curse anyone who talks to you."

    # 发送消息
    say("Hi there! Who are you?")

    # 等待响应
    var response = await response_finished
    print("Got response: " + response)

    # 在实际使用中,建议连接 `response_updated` 信号以获得逐词输出的效果

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
5天前
|
人工智能 并行计算 语音技术
Open-LLM-VTuber:宅男福音!开源AI老婆离线版上线,实时语音+Live2D互动还会脸红心跳
Open-LLM-VTuber 是一个开源的跨平台语音交互 AI 伴侣项目,支持实时语音对话、视觉感知和生动的 Live2D 动态形象,完全离线运行,保护用户隐私。
123 10
Open-LLM-VTuber:宅男福音!开源AI老婆离线版上线,实时语音+Live2D互动还会脸红心跳
|
1月前
|
机器学习/深度学习 存储 人工智能
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
MNN-LLM App 是阿里巴巴基于 MNN-LLM 框架开发的 Android 应用,支持多模态交互、多种主流模型选择、离线运行及性能优化。
1752 20
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
|
5月前
|
前端开发 机器人 API
前端大模型入门(一):用 js+langchain 构建基于 LLM 的应用
本文介绍了大语言模型(LLM)的HTTP API流式调用机制及其在前端的实现方法。通过流式调用,服务器可以逐步发送生成的文本内容,前端则实时处理并展示这些数据块,从而提升用户体验和实时性。文章详细讲解了如何使用`fetch`发起流式请求、处理响应流数据、逐步更新界面、处理中断和错误,以及优化用户交互。流式调用特别适用于聊天机器人、搜索建议等应用场景,能够显著减少用户的等待时间,增强交互性。
1421 2
|
5月前
|
机器学习/深度学习 人工智能 运维
企业内训|LLM大模型在服务器和IT网络运维中的应用-某日企IT运维部门
本课程是为某在华日资企业集团的IT运维部门专门定制开发的企业培训课程,本课程旨在深入探讨大型语言模型(LLM)在服务器及IT网络运维中的应用,结合当前技术趋势与行业需求,帮助学员掌握LLM如何为运维工作赋能。通过系统的理论讲解与实践操作,学员将了解LLM的基本知识、模型架构及其在实际运维场景中的应用,如日志分析、故障诊断、网络安全与性能优化等。
154 2
|
5月前
|
机器学习/深度学习 数据采集 人工智能
文档智能 & RAG 让AI大模型更懂业务 —— 阿里云LLM知识库解决方案评测
随着数字化转型的深入,企业对文档管理和知识提取的需求日益增长。阿里云推出的文档智能 & RAG(Retrieval-Augmented Generation)解决方案,通过高效的内容清洗、向量化处理、精准的问答召回和灵活的Prompt设计,帮助企业构建强大的LLM知识库,显著提升企业级文档管理的效率和准确性。
|
21天前
|
物联网
LLM破局泛化诊断难题,MSSP刊登北航PHM实验室健康管理大模型交叉研究
北航PHM实验室提出了一种基于大型语言模型(LLM)的轴承故障诊断框架,结合传统诊断技术,解决了跨条件适应性、小样本学习和跨数据集泛化等问题。该框架通过信号特征量化方法提取振动数据的语义信息,并采用LoRA和QLoRA微调预训练模型,显著提升了诊断模型的泛化能力。实验结果显示,在跨数据集训练中,模型准确性提升了约10%,相关成果发表于《Mechanical Systems and Signal Processing》期刊。尽管存在计算资源需求高等挑战,该研究为旋转机械的高效维护提供了新思路。
40 2
|
2月前
|
自然语言处理
Nature:人类亲吻难题彻底难倒LLM,所有大模型全部失败!LLM根本不会推理,只是工具
近期,《自然》杂志发表的研究显示,所有大型语言模型(LLM)在解释特定情境下人类亲吻行为时均失败。尽管LLM在语言处理和文本生成上表现出色,但在理解和推理复杂人类行为方面存在显著限制,表明其缺乏对人类情感、社会及文化背景的深入理解。专家认为LLM更像是工具而非智能体,虽在客户服务、内容创作等领域有价值,但在复杂推理和理解方面仍显不足。
100 37
|
2月前
|
Linux Docker 异构计算
基于Dify +Ollama+ Qwen2 完成本地 LLM 大模型应用实战
尼恩,一位拥有40年经验的老架构师,通过其丰富的行业经验和深入的技术研究,为读者提供了一套系统化、全面化的LLM大模型学习圣经。这套学习资料不仅帮助许多从业者成功转型,还助力多位工程师获得了高薪工作机会。
|
2月前
|
人工智能 API Android开发
LLM大模型最新消息2025.01
本文介绍了多个大模型训练和部署工具及教程。使用unsloth支持llama3,显存占用约8G;GPT4ALL加载训练好的大模型;llama.cpp进行4bit量化后可用CPU运行。MAID手机App和MLC软件可在安卓设备上本地运行大模型或调用API。FASTGPT用于客制化大模型和AI私有化客服。相关教程链接已提供。
187 12
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出网络共识
大型语言模型(LLM)如ChatGPT正改变人机交互,但在生成看似真实的错误信息方面存在“幻觉”问题。这种现象源于LLM依赖统计概率而非语义理解,导致在处理争议或冷门话题时易出错。研究显示,LLM的准确性高度依赖于训练数据的质量和数量。尽管如此,LLM仍具巨大潜力,需持续优化并保持批判性使用。
97 12

热门文章

最新文章