魔搭社区每周速递(12.22-12.28)

简介: 魔搭ModelScope本期社区进展:1039个模型,128个数据集,63个创新应用,6篇内容。

🙋魔搭ModelScope本期社区进展:

📟1039个模型:DeepSeek-V3、QVQ-72B-Preview、ModernBERT、InternVL2_5-26B-MPO-AWQ等;

📁128个数据集:SWE-agent-trajectories、SWE-bench-extra、fineweb-c等;

🎨63个创新应用:QVQ-72B-preview、HelloMeme、CogAgent-Demo等;

📄 6篇内容:

  • 魔搭llamafile集成:让大模型开箱即用
  • ModernBERT-base:终于等到了 BERT 回归
  • Qwen开源视觉推理模型QVQ,更睿智地看世界!
  • MNN推理框架将大模型放进移动端设备,并达到SOTA推理性能!
  • 1分钟,用咒语+qwen-coder手搓一张会下雪的圣诞贺卡
  • HelloMeme:充分利用 SD1.5 基模的理解能力,实现表情与姿态的迁移

01.精选模型

DeepSeek-V3

DeepSeek-V3是幻方最新推出的一个强大的专家混合(MoE)语言模型,总参数量为 6710 亿,每个 token 激活 370 亿参数。为了实现高效推理和具有成本效益的训练,DeepSeek-V3 延续前一代 DeepSeek-V2 依然采用了多头潜在注意力(MLA)和 DeepSeekMoE 架构。

DeepSeek-V3 在各项性能测试中均表现优异,在 MMLU、MMLU-Pro 和 GPQA中,分别取得了 88.5、75.9 和 59.1 的高分,超越了所有其他开源模型,并在性能上接近封闭模型如 GPT-4o 和 Claude-Sonnet-3.5。

模型链接:

DeepSeek-V3:

https://www.modelscope.cn/models/deepseek-ai/DeepSeek-V3

DeepSeek-V3-Base:

https://www.modelscope.cn/models/deepseek-ai/DeepSeek-V3-Base

QVQ-72B-Preview:

QVQ-72B-Preview是Qwen团队最新开源的视觉推理模型,基于 Qwen2-VL-72B 构建,专长于视觉理解和推理。在MMMU多学科评测中得分70.3,超越前代。在MathVista、MathVision和OlympiadBench等数学科学领域基准测试中,表现卓越,展现了其在复杂数学和科学问题解决上的强大能力。

模型链接:

https://modelscope.cn/models/Qwen/QVQ-72B-Preview

示例代码

transformers推理代码:

from modelscope import Qwen2VLForConditionalGeneration, AutoTokenizer, AutoProcessor
from qwen_vl_utils import process_vision_info
# default: Load the model on the available device(s)
model = Qwen2VLForConditionalGeneration.from_pretrained(
    "Qwen/QVQ-72B-Preview", torch_dtype="auto", device_map="auto"
)
# default processer
processor = AutoProcessor.from_pretrained("Qwen/QVQ-72B-Preview")
# The default range for the number of visual tokens per image in the model is 4-16384. You can set min_pixels and max_pixels according to your needs, such as a token count range of 256-1280, to balance speed and memory usage.
# min_pixels = 256*28*28
# max_pixels = 1280*28*28
# processor = AutoProcessor.from_pretrained("Qwen/QVQ-72B-Preview", min_pixels=min_pixels, max_pixels=max_pixels)
messages = [
    {
        "role": "system",
        "content": [
            {"type": "text", "text": "You are a helpful and harmless assistant. You are Qwen developed by Alibaba. Answer in the language of the question. You should think step-by-step."}
        ],
    },
    {
        "role": "user",
        "content": [
            {
                "type": "image",
                "image": "https://qianwen-res.oss-accelerate-overseas.aliyuncs.com/QVQ/demo.png",
            },
            {"type": "text", "text": "What value should be filled in the blank space?"},
        ],
    }
]
# Preparation for inference
text = processor.apply_chat_template(
    messages, tokenize=False, add_generation_prompt=True
)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
    text=[text],
    images=image_inputs,
    videos=video_inputs,
    padding=True,
    return_tensors="pt",
)
inputs = inputs.to("cuda")
# Inference: Generation of the output
generated_ids = model.generate(**inputs, max_new_tokens=8192)
generated_ids_trimmed = [
    out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
    generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)

更多详情请见:

Qwen开源视觉推理模型QVQ,更睿智地看世界!

ModernBERT

ModernBERT是由Answer.AI 和 LightOn 发布的一款现代化的双向编码器 Transformer 模型(BERT 风格),预训练于 2 万亿个英文和代码数据标记,原生上下文长度可达 8,192 个token。集成了Rotary Positional Embeddings、Unpadding、GeGLU层、Alternating Attention和Flash Attention等多项最新架构改进,专为跨推理GPU的高效率设计。

ModernBERT 的原生长上下文长度使其非常适合需要处理长文档的任务,例如检索、分类和大型语料库内的语义搜索。该模型在大量的文本和代码语料库上进行了训练,适用于广泛的下游任务,包括代码检索和混合(文本 + 代码)语义搜索。

模型链接:

ModernBERT-base:

https://modelscope.cn/models/AI-ModelScope/ModernBERT-base

ModernBERT-large:

https://modelscope.cn/models/AI-ModelScope/ModernBERT-large

示例代码:

环境安装

!pip install git+https://github.com/huggingface/transformers.git

使用 AutoModelForMaskedLM模型推理

from transformers import AutoTokenizer, AutoModelForMaskedLM
from modelscope import snapshot_download
model_id = snapshot_download("answerdotai/ModernBERT-base")
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForMaskedLM.from_pretrained(model_id)
text = "The capital of France is [MASK]."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)
# To get predictions for the mask:
masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)
predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)
predicted_token = tokenizer.decode(predicted_token_id)
print("Predicted token:", predicted_token)
# Predicted token:  Paris

使用pipeline:

import torch
from transformers import pipeline
from pprint import pprint
pipe = pipeline(
    "fill-mask",
    model="answerdotai/ModernBERT-base",
    torch_dtype=torch.bfloat16,
)
input_text = "He walked to the [MASK]."
results = pipe(input_text)
pprint(results)

更多详见:

ModernBERT-base:终于等到了 BERT 回归

02.数据集推荐

SWE-agent-trajectories

数据集包含80,036条由SWE-agent框架生成的软件工程代理轨迹,旨在解决GitHub问题并生成代码补丁。

数据集链接:

https://modelscope.cn/datasets/AI-ModelScope/SWE-agent-trajectories

SWE-bench-extra

数据集包含6,415个来自1,988个Python存储库的问题-拉取请求对,旨在训练和评估解决GitHub问题的软件工程代理系统,通过基于执行的验证和过滤步骤确保数据质量。

数据集链接:

https://modelscope.cn/datasets/AI-ModelScope/SWE-bench-extra

fineweb-c

这个基于FineWeb2数据集的社区项目旨在通过多语言教育内容注释,提升全球人工智能技术的可访问性和效果,特别是优化大型语言模型的开发。

数据集链接:

https://modelscope.cn/datasets/AI-ModelScope/fineweb-c

03.精选应用

QVQ-72B-preview

QVQ是一个开源多模态推理模型,基于Qwen2-VL-72B构建,通过结合视觉理解和复杂问题解决能力,在MMMU评测中获得70.3分的优异成绩,尤其在需要复杂分析思维的视觉推理任务中表现出色。

体验直达:

https://modelscope.cn/studios/Qwen/QVQ-72B-preview

  • 小程序:

HelloMeme

用户可以直接上传图片或视频,尝试不同的模型版本,生成具有丰富表情和自然姿态的结果。此外,HelloMeme还支持视频生成,展现了在复杂视觉任务中的潜力。

体验直达:

https://modelscope.cn/studios/songkey/HelloMeme

  • 小程序:

CogAgent-Demo

支持上传mac截图,并输入指令之后会在右侧显示出图像区域

体验直达:

https://modelscope.cn/studios/ZhipuAI/CogAgent-Demo

  • 小程序:

04.社区精选文章

目录
相关文章
|
缓存 监控 网络协议
微服务系列:服务注册与发现原理详解
本文详细解析了微服务架构中的服务注册与发现原理,大厂面试高频,建议收藏。关注【mikechen的互联网架构】,10年+BAT架构经验倾囊相授。
微服务系列:服务注册与发现原理详解
|
缓存 网络协议 算法
提高服务端性能的几个socket选项
提高服务端性能的几个socket选项
471 3
|
人工智能 自然语言处理 Swift
ModernBERT-base:终于等到了 BERT 回归
BERT于 2018 年发布(史前人工智能!),但它至今仍被广泛使用,BERT的纯编码器架构使其成为每天出现的各种场景的理想选择,例如检索、分类和实体提取。
1369 3
|
人工智能 API 开发工具
ModelScope魔搭12月版本发布月报
为了给开发者提供更便捷的开源模型API访问方式,我们正式启动了 ModelScope API-Inference 的公测。在开源工具链方面,我们进行了ModelScope 1.21.0的新版本发布,提供了llamafile的集成以及模型加载/下载链路的优化,SWIFT 3.0大版本也已经合并主干,在这个基础上新模型的支持会更加顺畅与便利。
580 3
ModelScope魔搭12月版本发布月报
|
机器学习/深度学习 数据采集 自然语言处理
注意力机制中三种掩码技术详解和Pytorch实现
**注意力机制中的掩码在深度学习中至关重要,如Transformer模型所用。掩码类型包括:填充掩码(忽略填充数据)、序列掩码(控制信息流)和前瞻掩码(自回归模型防止窥视未来信息)。通过创建不同掩码,如上三角矩阵,模型能正确处理变长序列并保持序列依赖性。在注意力计算中,掩码修改得分,确保模型学习的有效性。这些技术在现代NLP和序列任务中是核心组件。**
1438 12
|
安全 虚拟化 Windows
|
数据中心 网络架构 Python
【计算巢】数据中心的网络架构设计原则
【5月更文挑战第31天】探讨数据中心网络架构设计原则:稳定性是基础,需抵御各种挑战;强调扩展性,适应业务发展;追求高效,确保数据传输速度;注重灵活性,灵活应对变化。简单Python代码示例展示网络节点连接。设计时需具备长远眼光,综合考虑技术方案,以构建坚固高效的信息桥梁。同学们,要持续学习和探索,为信息世界贡献力量!
330 2
|
存储 缓存 NoSQL
缓存、分布式缓存和持久化
这篇内容介绍了缓存的概念和Redis的作用,以口袋与公文包的比喻解释了缓存如何提高数据访问速度。Redis是一个内存中的高级缓存系统,能提升系统响应速度。接着讨论了为何需要分布式缓存,通过多个“篮子”(Redis节点)解决单点故障和性能瓶颈,保证高可用性和数据安全性。最后提到了Redis的两种持久化机制——RDB(定期数据快照)和AOF(记录写操作日志),分别用照片备份和实时同步来比喻,说明它们在数据丢失风险和恢复速度上的权衡。
|
存储 小程序 编译器
C语言从入门到实战——数据在内存中的存储方式
数据在内存中的存储方式是以二进制形式存储的。计算机中的内存由一系列存储单元组成,每个存储单元都有一个唯一的地址,用于标识它在内存中的位置。计算机可以通过这些地址来定位并访问内存中的数据。 数据在内存中的存储方式取决于数据的类型。数值类型的数据(例如整数、浮点数等)以二进制形式存储,并根据类型的不同分配不同的存储空间。字符串和字符数据由ASCII码存储在内存中。数据结构(例如数组、结构体、链表等)的存储方式也取决于其类型和组织结构。 总之,数据在内存中以二进制形式存储,并根据其类型和组织方式分配不同的存储空间。
762 0

热门文章

最新文章