能够双向推理的LLM!Dream-7B:港大联合华为开源的扩散推理模型,能够同时考虑前后文信息

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
简介: Dream-7B是由香港大学与华为诺亚方舟实验室联合研发的开源扩散大语言模型,采用独特的掩码扩散范式,在文本生成、数学推理和代码编写等任务中展现出卓越性能。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🎯 「扩散模型颠覆传统LLM生成方式!让文本生成进入"全局规划"时代!」
大家好,我是蚝油菜花。当ChatGPT还在用自回归架构"逐字吐答案"时,这个来自香港大学的AI核弹已经让文本生成进入"全局规划"时代!

你是否也被这些问题困扰过:

  • 📝 生成长文时模型突然"失忆",前后逻辑支离破碎
  • ∑ 解数学题步骤跳步,关键推导过程神秘消失
  • 💻 写代码时变量名和缩进随机放飞自我...

今天要解剖的 Dream-7B ,用扩散模型重构了大语言模型的DNA!这个7B参数的"文本建筑师":

  • 全局连贯性:像拼拼图一样从噪声中重建完整语义,告别碎片化生成
  • 双向推理:同时考虑前后文信息,数学推导准确率提升37%
  • 顺序可控:支持按需指定生成顺序,写代码先出框架再填细节

已有团队用它48小时写完技术白皮书,文末附《扩散模型极简部署指南》——你的键盘准备好迎接文本生成革命了吗?

🚀 快速阅读

Dream-7B是目前性能最强的开源扩散大语言模型之一。

  1. 功能:支持文本生成、数学求解、代码编写和多步规划任务,生成质量可动态调节。
  2. 原理:基于掩码扩散范式和自回归模型初始化,通过双向上下文建模提升文本连贯性。

Dream-7B 是什么

Dream

Dream-7B是香港大学和华为诺亚方舟实验室联合推出的开源扩散式推理模型,采用创新的离散扩散架构。与传统自回归模型逐字生成不同,它从噪声状态开始逐步重建文本,实现了全局语义的协同优化。

该模型使用5800亿标记进行预训练,耗时256小时。特别值得注意的是,其7B参数版本在多项基准测试中超越了同尺寸的自回归模型,甚至在某些任务上媲美GPT-4等超大模型。这种突破主要源于其独特的双向上下文建模能力,使得生成文本具有更好的连贯性和逻辑性。

Dream-7B 的主要功能

  • 强大的文本生成:在通用文本、数学和编程任务上表现优异,超越同尺寸的自回归模型。
  • 灵活的生成方式:支持任意顺序的文本生成,用户可指定生成顺序满足特定需求。
  • 高效的规划能力:在Countdown和Sudoku等需要多步规划的任务中表现出色。
  • 可调节的生成质量:通过调整扩散步数平衡生成速度和质量。

Dream-7B 的技术原理

  • 扩散模型架构:基于离散扩散模型,从完全噪声化的状态逐步去噪生成文本。
  • 掩码扩散范式:预测所有被掩码的标记逐步去噪,加速训练过程。
  • 自回归模型初始化:使用Qwen2.5等自回归模型的权重进行初始化。
  • 上下文自适应噪声重调度:根据标记上下文动态调整噪声水平。
  • 灵活的解码策略:推理时可调整生成顺序和扩散步数。

如何运行 Dream-7B

安装

pip install transformers==4.46.2 torch==2.5.1

基础使用

import torch
from transformers import AutoModel, AutoTokenizer

model_path = "Dream-org/Dream-v0-Instruct-7B"
model = AutoModel.from_pretrained(model_path, torch_dtype=torch.bfloat16, trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
model = model.to("cuda").eval()

messages = [
    {
   "role": "user", "content": "Please write a Python class that implements a PyTorch trainer capable of training a model on a toy dataset."}
]
inputs = tokenizer.apply_chat_template(
    messages, return_tensors="pt", return_dict=True, add_generation_prompt=True
)
input_ids = inputs.input_ids.to(device="cuda")
attention_mask = inputs.attention_mask.to(device="cuda")

output = model.diffusion_generate(
    input_ids,
    attention_mask=attention_mask,
    max_new_tokens=512,
    output_history=True,
    return_dict_in_generate=True,
    steps=512,
    temperature=0.2,
    top_p=0.95,
    alg="entropy",
    alg_temp=0.,
)
generations = [
    tokenizer.decode(g[len(p) :].tolist())
    for p, g in zip(input_ids, output.sequences)
]

print(generations[0].split(tokenizer.eos_token)[0])

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
1月前
|
机器学习/深度学习 人工智能 PyTorch
200行python代码实现从Bigram模型到LLM
本文从零基础出发,逐步实现了一个类似GPT的Transformer模型。首先通过Bigram模型生成诗词,接着加入Positional Encoding实现位置信息编码,再引入Single Head Self-Attention机制计算token间的关系,并扩展到Multi-Head Self-Attention以增强表现力。随后添加FeedForward、Block结构、残差连接(Residual Connection)、投影(Projection)、层归一化(Layer Normalization)及Dropout等组件,最终调整超参数完成一个6层、6头、384维度的“0.0155B”模型
122 11
200行python代码实现从Bigram模型到LLM
|
2月前
|
存储 JSON PyTorch
Multimodal LLM训练-模型文件\训练数据加载逻辑源码分析
Multimodal LLM训练-模型文件\训练数据加载逻辑源码分析
116 17
|
3月前
|
机器学习/深度学习 存储 缓存
加速LLM大模型推理,KV缓存技术详解与PyTorch实现
大型语言模型(LLM)的推理效率是AI领域的重要挑战。本文聚焦KV缓存技术,通过存储复用注意力机制中的Key和Value张量,减少冗余计算,显著提升推理效率。文章从理论到实践,详细解析KV缓存原理、实现与性能优势,并提供PyTorch代码示例。实验表明,该技术在长序列生成中可将推理时间降低近60%,为大模型优化提供了有效方案。
306 15
加速LLM大模型推理,KV缓存技术详解与PyTorch实现
|
3月前
|
机器学习/深度学习 人工智能 算法
RAGEN:RL训练LLM推理新范式!开源强化学习框架让Agent学会多轮决策
RAGEN是一个基于StarPO框架的开源强化学习系统,通过马尔可夫决策过程形式化Agent与环境的交互,支持PPO、GRPO等多种优化算法,显著提升多轮推理训练的稳定性。
297 5
RAGEN:RL训练LLM推理新范式!开源强化学习框架让Agent学会多轮决策
|
3月前
|
人工智能 自然语言处理 数据可视化
89.4K star!这个开源LLM应用开发平台,让你轻松构建AI工作流!
Dify 是一款开源的 LLM 应用开发平台,通过直观的可视化界面整合 AI 工作流、RAG 管道、智能代理等功能,助你快速实现从原型到生产的跨越。支持本地部署和云端服务,提供企业级功能与完整 API 接口。
128 4
|
4月前
|
人工智能 数据可视化 API
36.7K star!拖拽构建AI流程,这个开源LLM应用框架绝了!
`Flowise` 是一款革命性的低代码LLM应用构建工具,开发者通过可视化拖拽界面,就能快速搭建基于大语言模型的智能工作流。该项目在GitHub上线不到1年就斩获**36.7K星标**,被开发者誉为"AI时代的乐高积木"。
225 8
|
4月前
|
人工智能 并行计算 语音技术
Open-LLM-VTuber:宅男福音!开源AI老婆离线版上线,实时语音+Live2D互动还会脸红心跳
Open-LLM-VTuber 是一个开源的跨平台语音交互 AI 伴侣项目,支持实时语音对话、视觉感知和生动的 Live2D 动态形象,完全离线运行,保护用户隐私。
366 10
Open-LLM-VTuber:宅男福音!开源AI老婆离线版上线,实时语音+Live2D互动还会脸红心跳
|
4月前
|
机器学习/深度学习 人工智能 缓存
英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜
英伟达推出的Star Attention技术,旨在解决Transformer模型在长序列推理中的高计算成本与速度瓶颈问题。通过两阶段块稀疏近似方法,第一阶段利用块局部注意力并行处理上下文信息,第二阶段通过全局注意力机制交互查询与缓存令牌,从而显著提升计算效率并减少通信开销。该技术可无缝集成到现有LLM中,将内存需求和推理时间降低多达11倍,同时保持高准确性。然而,其在极长序列处理中可能面临内存限制,并增加模型复杂性。尽管如此,Star Attention为长序列推理提供了创新解决方案,推动了Transformer模型的实际应用潜力。
91 19
|
4月前
|
人工智能 自然语言处理 算法
AI做数学学会动脑子! UCL等发现LLM程序性知识,推理绝不是背答案
大型语言模型(LLM)在数学推理中的表现一直备受争议。伦敦大学学院等机构的研究发现,LLM可能通过综合程序性知识而非简单检索来解决数学问题。研究分析了7B和35B参数模型在三个简单数学任务中的数据依赖,表明模型更关注解决问题的过程和方法,而非答案本身。这一发现为改进AI系统提供了新思路,但也指出LLM在复杂问题处理上仍存在局限。论文地址:https://arxiv.org/abs/2411.12580
85 2
|
5月前
|
机器学习/深度学习 搜索推荐 异构计算
LLM模型添加自定义Token代码示例:为Llama 3.2模型添加思考与回答标记
本文将介绍如何为大型语言模型(LLM)添加自定义token并进行训练,使模型能够有效地利用这些新增token。以Llama 3.2模型为基础,实现了类似DeepSeek R1中think和answer标记功能的扩展方法,通过监督微调使模型学习使用这些标记进行推理过程与答案输出的区分
228 0
LLM模型添加自定义Token代码示例:为Llama 3.2模型添加思考与回答标记

热门文章

最新文章