ModelScope魔搭10月版本发布月报

简介: ModelScope 10月份整体上新啦!本次更新干货满满,推出了我们在内部开发与灰度许久的全新站点设计,其中也包括开发者反馈已久的暗黑模式支持等一系列功能,希望得到大家的使用反馈。

本月上新

ModelScope 10月份整体上新啦!本次更新干货满满,推出了我们在内部开发与灰度许久的全新站点设计,其中也包括开发者反馈已久的暗黑模式支持等一系列功能,希望得到大家的使用反馈。除此之外,还包括了诸多新特性与丰富的功能,通过社区持续的迭代,为广大开发者带来更流畅的围绕模型的AI分享和开发体验!

站点更新

1. ModelScope全新站点改版:旨在为用户提供更加直观和舒适的交互界面,并增加了暗黑模式,提供更加开发者友好的浏览体验。(欢迎参与我们的新版视觉用户调研,期待听到你们的宝贵意见!)

新支持亮、暗界面模式,在右上角进行选择~

2. 合集(Collection)板块:新增合集功能,让开发者更轻松地探索社区内容的自由关联与组合,目前支持将模型、数据集、创空间作为合集元素。


3. Notebook(GPU与CPU)免费持久化存储功能:

为了让开发者享受到可持续的AI开发体验,我们完善了Notebook环境的数据管理能力,让开发者无需再为数据的保存问题所困扰。当前持久化存储功能已在PAI-DSW实例上实现,通过"/mnt/data/"目录提供。


4.SwingDeploy模型列表扩展:通过SwingDeploy提供的OpenAI API兼容模型服务部署,除了支持平台验证过的一些头部模型以外,当前覆盖面全面延展到支持所有ModelScope上的GGUF格式LLM模型。


5. 数据集卡片智能翻译:英文内容的自动翻译,在除了模型卡片以外,本期添加了对数据集卡片描述的自动翻译支持。


6. 模型关联创空间:基于ModelScope模型开发的创空间,自动关联对应模型,方便大家更好了解模型的开发生态。


7. 创空间支持PR:创空间支持通过Pull Request提交修改,使应用开发者能够通过各自的贡献,共同完善社区AI应用


8. 移动端支持文件浏览:在移动设备上,现在可以方便地浏览模型和数据集的文件内容,让用户在端侧更快捷地获取相关社区资源内容信息。


· 开源SDK与工具链更新

1. ModelScope SDK 1.9版本发布    

a. ModelScope命令行工具添加clear-cache选项,用于清除本地缓存,具体参见文档中心相关介绍。    

b. ModelScope数据集适配了datasets最新的3.0大版本,并统一了dataset下载进度展示,同时完善了对于数据preview的支持。    

c. 通过AutoConfig,AutoTokenizer等类进行加载时,跳过模型ckpt下载。    

d. 添加了对大模型Template以及Ollama Modelfile自动导出的支持,支持通过Model Id迅速获取模型Template以及Ollama Modelfile

from modelscope.preprocessors.templates import TemplateType
from modelscope.preprocessors.templates.loader import TemplateLoader
template = TemplateLoader.load_by_model_id('deepseek-ai/DeepSeek-V2-Lite-Chat')
print(f"Template Type is: {template.template_type} \n")
ollama_modelfile = TemplateLoader.to_ollama('Qwen/Qwen2.5-7B-Instruct')
print(f"Modelfile for Ollama:\n{ollama_modelfile} \n")
Template Type is: deepseek2 
Modelfile for Ollama:
FROM {gguf_file}
# set the temperature to 0.7 [higher is more creative, lower is more coherent]
PARAMETER temperature 0.7
PARAMETER top_p 0.8
PARAMETER repeat_penalty 1.05
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>"
TEMPLATE """{{ if .Messages }}
{{- if or .System .Tools }}<|im_start|>system
{{ .System }}
{{- if .Tools }}
...

2. SWIFT训练框架2.5版本发布  

a. 支持了多模态大模型训练微调后进行GPTQ和AWQ的量化    

b. 在ViT部分支持动态的gradient_checkpointing,优化显存使用    

c. 添加多模态大模型的预训练

3. EvalScope 0.5.5版本发布    

a. 支持LongBench-Write长文本生成的质量评测    

b. 建设RAG评测功能,添加embeddings/rerank等模型评测,集成MTEB与CMTEB,并通过集成ragas支持RAG全链路的评测    

c. 添加MMBench-Video,Video-MME,MVBench视频评测支持,完善多模态评测能力。

相关文章
|
2月前
|
人工智能 资源调度 数据可视化
ModelScope魔搭25年7月发布月报
七月流火,这个夏天火热的开场已然揭开。6月30号,我们在北京举办了首届魔搭开发者大会(ModelScope DevCon 2025),邀请了国内外知名的开源模型,以及头部开源工具的研发团队,与广大开发者共聚一堂进行分享。顶尖的AI 模型首次从线上 Hub走进线下盛会,为大家呈现了一场“模型全明星”盛会。同时我们还邀请了社区开发者参加我们的“搭友之夜”(aka 大规模面基大会)。大会分享场场爆满,现场只能用一句话来描述:“好~多~人~啊”,不提前占位根本挤不进去~~
205 3
|
3月前
|
人工智能 移动开发 物联网
ModelScope魔搭25年6月发布月报
从2022年11月的青涩发布,魔搭现今已进入第三个年头,成为中国最大最活跃的开源模型社区,与超过1600万的开发者同行。
216 6
|
4月前
|
开发框架 人工智能 安全
ModelScope魔搭25年5月发布月报
不知不觉间,日历已经翻过了立夏,而开源模型的世界中似乎并没有春夏秋冬。在刚刚过去的四月份,见证了开源社区又一次蓬勃发展的浪潮。以Qwen3家族为代表,一系列新模型的开源为整个生态注入了新的活力。通过全面覆盖多种规格的 dense 与 MoE 模型架构,Qwen3 首次在开源模型中引入“快思考与慢思考” 双模式的支持,获得了广大开发者的热烈欢迎,成为新一代开源大模型的标杆之作。
204 10
|
6月前
|
存储 人工智能 数据可视化
ModelScope魔搭25年3月发布月报
在这个春天里,小鲸鱼的DeepSeek-R1系列在模型社区掀起的巨大浪潮尚未平息,我们又迎来了千问的QwQ-32B正式版本,社区在Reasoning模型上的热情还在升温。除此之外,业界其他模型在过去一
175 1
|
7月前
|
编解码 API 开发工具
ModelScope魔搭25年2月版本发布月报
新春佳节的鞭炮声已经渐渐远去,在刚刚过去的一个月里,小鲸鱼给全球的开发者带来了一个不平凡的春节。DeepSeek-R1一系列开源模型的发布,给大家带来了惊喜和震动。所有人的热情,也给ModelScope社区带来了前所未见的巨大下载需求和流量,在这个月里,我们进行了数次紧急扩容和线上优化,尽量为大家提供更好的支持与服务。非常感谢大家的陪伴和理解,我们会持续进行平台优化和开源工具的建设,服务好整个开源社区。
262 9
|
8月前
|
存储 IDE 开发工具
ModelScope魔搭25年1月版本发布月报
随着2025年帷幕的缓缓拉开,ModelScope团队怀着新年新气象的美好期许,为广大开发者带来了1月份的重磅更新。
349 13
|
9月前
|
人工智能 API 开发工具
ModelScope魔搭12月版本发布月报
为了给开发者提供更便捷的开源模型API访问方式,我们正式启动了 ModelScope API-Inference 的公测。在开源工具链方面,我们进行了ModelScope 1.21.0的新版本发布,提供了llamafile的集成以及模型加载/下载链路的优化,SWIFT 3.0大版本也已经合并主干,在这个基础上新模型的支持会更加顺畅与便利。
379 3
ModelScope魔搭12月版本发布月报
|
自然语言处理
在ModelScope中,你可以通过设置模型的参数来控制输出的阈值
在ModelScope中,你可以通过设置模型的参数来控制输出的阈值
395 1
|
API 语音技术
ModelScope-FunASR**有支持热词又支持时间戳的模型**。
【2月更文挑战第30天】ModelScope-FunASR**有支持热词又支持时间戳的模型**。
401 2
|
人工智能 API 决策智能
Modelscope结合α-UMi:基于Modelscope的多模型协作Agent
基于单个开源小模型的工具调用Agent,由于模型容量和预训练能力获取的限制,无法在推理和规划、工具调用、回复生成等任务上同时获得比肩大模型等性能。