|
10月前
|
机器学习/深度学习 人工智能 物联网
|

微软Phi-4系列开源:多模态与文本处理的创新突破

微软近期推出 Phi-4-multimodal 和 Phi-4-mini,这些模型是 Microsoft Phi 系列小型语言模型 (SLM) 中的最新模型。Phi-4-multimodal 能够同时处理语音、视觉和文本,为创建创新且具有上下文感知能力的应用程序开辟了新的可能性。另一方面,Phi-4-mini 在基于文本的任务方面表现出色,以紧凑的形式提供高精度和可扩展性。

647 4
|
10月前
|
机器学习/深度学习 人工智能 数据可视化
|

无需微调!扩散模型新突破:Attentive Eraser高效稳定移除目标物体

最近,扩散模型在生成模型领域异军突起,凭借其独特的生成机制在图像生成方面大放异彩,尤其在处理高维复杂数据时优势明显。然而,尽管扩散模型在图像生成任务中表现优异,但在图像目标移除任务中仍然面临诸多挑战。现有方法在移除前景目标后,可能会留下残影或伪影,难以实现与背景的自然融合。

361 9
|
11月前
|
机器学习/深度学习 人工智能 PyTorch
|

DeepSeek开源周第四弹之一!DualPipe:训练V3/R1的双向流水线并行技术,计算与训练完全重叠,训练效率提升200%

DeepSeek 开源的 DualPipe 技术通过双向流水线并行设计,显著提升大规模深度学习模型的训练效率,优化计算与通信重叠,降低内存峰值需求,适用于推理加速、多模态数据处理等场景。

814 1
来自: 科学计算  版块
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
|

Magma:微软放大招!新型多模态AI能看懂视频+浏览网页+UI交互+控制机器人,数字世界到物理现实无缝衔接

Magma 是微软研究院开发的多模态AI基础模型,结合语言、空间和时间智能,能够处理图像、视频和文本等多模态输入,适用于UI导航、机器人操作和复杂任务规划。

744 2
来自: 多模态  版块
|
11月前
|
机器学习/深度学习 人工智能 算法
|

ProtGPS:MIT再造生命科学新基建!蛋白质AI一键预测定位+设计新序列,登Nature子刊

ProtGPS 是麻省理工学院和怀特黑德研究所联合开发的蛋白质语言模型,能够预测蛋白质在细胞内的亚细胞定位,并设计具有特定亚细胞定位的新型蛋白质。

942 17
来自: 科学计算  版块
|
27天前
|
应用服务中间件 测试技术 数据库
|

0-1教程 ChatGPT Apps Store应用提交教程——和MCP开发部署

本文以“A2Z Bill Agent”为例,详细介绍如何提交应用至ChatGPT App Store。涵盖准备App图标、MCP服务器配置、域名验证、测试用例编写、截图要求等全流程,助开发者高效完成上架。

141 3
|
28天前
|
负载均衡 应用服务中间件 Nacos
|

Nacos配置中心

本文详细介绍Nacos作为配置中心的实现原理与实战步骤,涵盖配置管理、热更新、共享配置优先级及集群搭建,帮助微服务应用实现配置动态化、高可用部署。

115 4
|
2月前
|
存储 关系型数据库 MySQL
|

MajorRAG文件内容提取实现分析(2/3)

一个RAG项目,全文共三个部分:MajorRAG概述、MajorRAG文件内容提取实现分析、MajorRAG聊天问答系统实现分析。 1)第一次做RAG,欢迎带着指导意见评论 2)希望指出不足时可以附带替换方法 博客地址:https://zhangcraigxg.github.io

157 1
|
3月前
|
边缘计算 人工智能 PyTorch
|

130_知识蒸馏技术:温度参数与损失函数设计 - 教师-学生模型的优化策略与PyTorch实现

随着大型语言模型(LLM)的规模不断增长,部署这些模型面临着巨大的计算和资源挑战。以DeepSeek-R1为例,其671B参数的规模即使经过INT4量化后,仍需要至少6张高端GPU才能运行,这对于大多数中小型企业和研究机构来说成本过高。知识蒸馏作为一种有效的模型压缩技术,通过将大型教师模型的知识迁移到小型学生模型中,在显著降低模型复杂度的同时保留核心性能,成为解决这一问题的关键技术之一。

408 6
|
4月前
|
监控 Devops 持续交付
|

从 DevOps 文化到以平台为中心的交付

DevOps 工程师与平台工程师在软件交付中各司其职。DevOps 强调开发与运维协作,推动自动化与文化变革;平台工程则聚焦构建自助式内部开发者平台,提升开发效率与一致性。两者相辅相成,共同加速高质量软件交付。

229 1
|
6月前
|
机器学习/深度学习 数据采集 人工智能
|

全能高手&科学明星,上海AI实验室开源发布『书生』科学多模态大模型Intern-S1 | WAIC 2025

7月26日,2025世界人工智能大会(WAIC 2025)正式开幕。在当天下午举行的科学前沿全体会议上,上海人工智能实验室(上海AI实验室)发布并开源『书生』科学多模态大模型Intern-S1。

269 0
|
7月前
|
机器学习/深度学习 数据采集 自然语言处理
|

魔搭社区模型速递(6.2-6.7)

魔搭ModelScope本期社区进展:1910个模型,183个数据集,47个创新应用,5 篇内容

1050 11
|
8月前
|
并行计算 异构计算 算法框架/工具
|

Funasr GPU2.0.0部署推理,RTF达不到0.0008,连0.0076都达不到。

261 0
来自:语音 版块
|
9月前
|
数据可视化 搜索推荐
|

Ollama-Deep-Researcher-本地Mac结合魔搭社区模型搭建网页研究助手

Ollama Deep Researcher 是一款完全本地化的网络研究助手,可使用Ollama托管的任何 LLM 。输入一个主题,它将生成网络搜索查询,收集网络搜索结果(默认通过Tavily),总结网络搜索结果,反思总结以检查知识差距,生成新的搜索查询以解决差距,搜索并改进总结,循环次数由用户定义。它将为用户提供最终的 markdown 摘要,其中包含所有使用的来源。

390 2
|
9月前
|
人工智能 自然语言处理 物联网
|

"一丹一世界"二等奖 | TPSZ_二次元卡通梦幻插画风格-童梦拾光 创作分享

"一丹一世界"二等奖 | TPSZ_二次元卡通梦幻插画风格-童梦拾光 创作分享

308 7
|
9月前
|
JSON JavaScript 数据格式
|

何如定义 JSON Schema 并验证该 json 数据?

本文定义了一个包含 audio 和 tags 两个必需属性的 JSON Schema,用于规范数据结构。其中,audio 是非空字符串,表示音频组件;tags 是非空数组,表示标签组件。通过示例数据和验证工具(如 ajv, NJsonSchema),可确保 JSON 数据符合 Schema 要求,从而保障数据的一致性和正确性。

429 1
|
9月前
|
存储 人工智能 数据库
|

Cloudflare推出托管式RAG服务!AutoRAG:从数据上传到索引更新全程托管,文档变动自动同步

AutoRAG是Cloudflare推出的全托管检索增强生成服务,基于自动索引和向量化技术,帮助开发者快速构建上下文感知的AI应用,无需管理底层基础设施。

341 0
|
9月前
|
机器学习/深度学习 人工智能 文件存储
|

Llama Nemotron:英伟达开源基于Llama架构优化的推理模型,253B参数持平DeepSeek R1!

NVIDIA推出的Llama Nemotron系列推理模型,基于Llama架构优化,包含Nano/Super/Ultra三款,在数学推理、编程和工具调用等任务中展现卓越性能。

359 5
来自: 自然语言处理  版块
|
10月前
|
人工智能 编解码 测试技术
|

TripoSG:3D生成新纪元!修正流模型秒出高保真网格,碾压传统建模

TripoSG 是 VAST AI 推出的基于大规模修正流模型的高保真 3D 形状合成技术,能够从单张图像生成细节丰富的 3D 网格模型,在工业设计、游戏开发等领域具有广泛应用前景。

458 15
来自: 计算机视觉  版块
|
10月前
|
人工智能 自然语言处理 API
|

Oliva:语音RAG革命!开源多智能体秒解复杂搜索,实时对讲颠覆传统

Oliva是一款基于Langchain和Superlinked的开源语音RAG助手,通过实时语音交互在Qdrant向量数据库中进行语义搜索,支持多智能体协作处理复杂查询任务。

586 4
来自: 语音  版块
|
10月前
|
存储 机器学习/深度学习 人工智能
|

TaoAvatar:手机拍出电影级虚拟人!阿里3D高斯黑科技让动捕设备下岗

阿里巴巴最新推出的TaoAvatar技术,通过3D高斯溅射实现照片级虚拟人实时渲染,支持多信号驱动与90FPS流畅运行,将彻底改变电商直播与远程会议体验。

675 8
来自: 计算机视觉  版块
|
10月前
|
存储 人工智能 人机交互
|

Multi-Agent Orchestrator:亚马逊开源AI智能体自动协作黑科技!重构人机交互逻辑,1秒精准分配任务

Multi-Agent Orchestrator 是亚马逊开源的多智能体框架,能够动态分配代理、维护上下文、支持多种代理类型,适用于客户服务、智能交通、物流配送等复杂场景。

483 9
来自: 自然语言处理  版块
|
10月前
|
小程序 Java 关系型数据库
|

weixin049校园外卖平台设计与实现+ssm(文档+源码)_kaic

本文介绍了一款校园外卖平台的设计与实现过程。该平台采用Java的SSM框架进行后台管理开发,使用MySQL作为本地数据库,并通过微信小程序为用户提供便捷的操作界面。系统包括管理员、用户和商家三个角色,功能涵盖个人中心、用户及商家管理、菜品分类与信息管理、订单处理等。管理员可在浏览器上登录管理后台数据,用户与商家则通过微信小程序注册登录,分别实现订餐与菜品管理功能。此平台具备界面清晰、操作简单、功能齐全的特点,有助于提升校园外卖管理的效率与规范性。

542 8
|
10月前
|
机器学习/深度学习 人工智能 缓存
|

MHA2MLA:0.3%数据微调!复旦团队开源推理加速神器,KV缓存狂降96.87%

MHA2MLA是复旦大学、华东师范大学、上海AI Lab等机构联合推出的数据高效微调方法,通过引入多头潜在注意力机制(MLA),显著优化基于Transformer的LLM推理效率,降低推理成本。

400 1
来自: 科学计算  版块
|
10月前
|
机器学习/深度学习 人工智能 算法
|

PRefLexOR:MIT自进化AI框架上线!动态知识图谱+跨域推理,重塑自主思考

PRefLexOR 是 MIT 团队推出的新型自学习 AI 框架,结合偏好优化和强化学习,通过递归推理和多步反思,动态生成知识图谱,支持跨领域推理和自主学习。

508 3
来自: 自然语言处理  版块
|
10月前
|
机器学习/深度学习 异构计算
|

CLIPer:开创性框架提升CLIP空间表征,实现开放词汇语义分割突破

对比语言-图像预训练(CLIP)在多种图像级任务上表现出强大的零样本分类能力,促使研究行人尝试将CLIP应用于像素级开放词汇语义分割,而无需额外训练。关键在于提升图像级CLIP的空间表征能力,例如,用自-自注意力图或基于视觉基础模型的自注意力图替换最后一层的自注意力图。本文提出了一种新颖的分层框架CLIPer,该框架分层提升了CLIP的空间表征能力。

312 5
|
10月前
|
语音技术 网络架构 开发者
|

HumanOmni:首个专注人类中心场景的多模态大模型,视觉与听觉融合的突破!

HumanOmni是业内首个理解以人为中心的场景,可以同时处理视觉信息、音频信息的多模态大模型。

526 9
|
11月前
|
存储 算法 测试技术
|

CodeFuse-AAIS:改进低智能体框架助力高效程序修复

本文提出了一种基于低智能体框架的自适应自动化程序修复(APR)解决方案——AAIS。该方案结合了智能体的自适应性和低智能体的高效控制流,通过引入交互式缺陷定位和多模型辅助生成,显著提升了程序修复的准确性和多样性。实验结果表明,AAIS在SWE-Bench基准测试中表现出色,函数级定位准确率提升了46.94%-113.32%,Issue Solving任务上达到了35.67%的性能,展示了其在未来软件开发中的应用潜力。

334 0
|
11月前
|
机器学习/深度学习 人工智能 编解码
|

Evo 2:基因编程AI革命!!DNA版GPT-4问世:100万碱基全解析,自动设计基因编辑器

Evo 2 是一款由 Acr 研究所、英伟达和斯坦福大学联合开发的 DNA 语言模型,可处理长达百万碱基对的序列,支持基因组设计、变异预测及合成生物学研究。

806 5
来自: 科学计算  版块
|
11月前
|
人工智能 数据可视化 API
|

自动查文献+写代码+跑数据+出报告!港大开源 Auto Deep Research 搞定科研全流程

Auto-Deep-Research 是一款由香港大学开源的个人 AI 助理,基于模块化多 Agent 架构,专注于深度研究任务,兼容多种大语言模型,并提供一键启动和文件解析等强大功能。

1026 4
来自: 自然语言处理  版块
|
11月前
|
人工智能 自然语言处理 数据可视化
|

YAYI-Ultra:中国企业终于等来『全能大脑』!开源企业级AI『混合专家』横扫金融舆情中医领域,最长生成20万字报告

YAYI-Ultra 是由中科闻歌研发的企业级大语言模型,具备强大的多领域专业能力和多模态内容生成能力,支持数学、代码、金融等多个领域的专家组合,缓解垂直领域迁移中的“跷跷板”现象。

520 10
来自: 自然语言处理  版块
|
11月前
|
人工智能 自然语言处理 架构师
|

Praison AI:LangChain危险了!这个低代码框架让AI智能体「自主协作」,1行代码搞定任务编排

Praison AI 是一个开源的多智能体框架,支持低代码创建和管理AI代理,提供多种流程类型和集成选项,适用于企业流程自动化、智能客服等场景。

513 18
来自: 自然语言处理  版块
|
11月前
|
人工智能 自然语言处理 人机交互
|

Social Media Agent:告别文案焦虑!AI自动生成高转化帖子,输入URL快速生成爆款文案

Social Media Agent 是一款由 LangChain 推出的 AI 社交媒体内容管理工具,支持 Twitter 和 LinkedIn 平台,能快速生成高质量的帖子。

611 17
来自: 自然语言处理  版块
|
11月前
|
存储 人工智能 API
|

PDF to Podcast:英伟达开源黑科技!PDF 秒转播客/有声书,告别阅读疲劳轻松学习!

NVIDIA推出的PDF to Podcast工具,基于大型语言模型和文本到语音技术,将PDF文档转换为生动的音频内容。

751 14
来自: 多模态  版块
|
11月前
|
机器学习/深度学习 物联网
|

可控文生图:EliGen控制实体的位置细节变化

为文生图模型增加额外的控制条件一直是AIGC社区研究的重点之一,如ControlNet, IP-Adapter等一直是热门可控生成方法。近期,魔搭社区联合浙江大学对实体级可控文生图进行了探索,并开发了EliGen模型。

373 11
|
12月前
|
人工智能 Python
|

子曰-o1:网易有道开源国内首个分步式讲解推理模型,支持K12数学教学

子曰-o1是网易有道推出的国内首个分步式讲解推理模型,采用14B轻量级架构,专为消费级显卡设计,支持K12数学教学,提供精准的解题思路和答案。

634 1
来自: 自然语言处理  版块
|
1月前
|
人工智能 前端开发 JavaScript
|

告别"玄学调试":用这份指令让AI成为你的"赛博华佗"

调试占用了开发者50%的时间?本文提供一套专业的AI调试指令,将大模型转化为"拥有10年经验的代码医生"。通过结构化的诊断-修复-预防流程,告别低效的"玄学调试",实现从"修好Bug"到"根治隐患"的质变。

278 6
|
2月前
|
安全 Java 数据库连接
|

如何在Java代码中处理数据库连接异常

在Java中,合理处理数据库连接异常对程序稳定性至关重要。需捕获`ClassNotFoundException`和`SQLException`等具体异常,使用`try-with-resources`自动释放资源,结合日志记录与用户友好提示,并可引入重试机制应对网络波动,提升系统容错能力。

245 1
|
3月前
|
人工智能 编解码 芯片
|

【AI绘画】你有多久没有打开SD了?

曾几何时,Stable Diffusion的复杂参数令人崩溃,如今即梦、可灵等AI工具已让生成图片变得轻而易举。哩布哩布发布2.0升级公告,看似迈向更易用的未来,却也悄然为那个钻研模型、拼接工作流的“拓荒时代”奏响终章。技术迭代飞快,但那份对创造的热爱与探索精神,永不褪色。

768 9
|
3月前
|
机器学习/深度学习 存储 人工智能
|

106_模型合并:Task Arithmetic

在大语言模型(LLM)时代,模型合并技术正在成为高效整合不同模型能力的关键方法。随着开源模型的爆发式增长,如何在不进行昂贵的重新训练的情况下,将多个专用模型的知识整合到一个统一模型中,成为了研究和工业界的重要课题。Task Arithmetic作为一种新兴的模型合并方法,通过向量操作实现权重融合,为这一挑战提供了创新解决方案。

319 24
|
3月前
|
运维 监控 异构计算
|

142_故障容错:冗余与回滚机制 - 配置多副本的独特健康检查

在大语言模型(LLM)的生产环境部署中,系统的可靠性和稳定性至关重要。随着LLM应用场景的不断扩展,从简单的文本生成到复杂的多模态交互,用户对服务可用性和响应质量的要求也日益提高。据2025年最新的AI服务可用性报告显示,顶级AI服务提供商的SLA(服务级别协议)承诺已达到99.99%,这意味着每年的计划外停机时间不得超过52.56分钟。

527 11
|
3月前
|
存储 机器学习/深度学习 PyTorch
|

119_LLM训练的高效内存管理与优化技术:从ZeRO到Flash Attention

大型语言模型(LLM)的训练面临着前所未有的计算和内存挑战。随着模型规模达到数百亿甚至数千亿参数,高效的内存管理成为训练成功的关键因素之一。2025年,LLM训练的内存优化技术已经取得了显著进展,从ZeRO优化器到Flash Attention等创新技术,为训练超大规模模型提供了可能。

545 159
|
3月前
|
机器学习/深度学习 监控 PyTorch
|

126_自定义损失:多目标训练 - 设计加权损失的独特平衡策略

在2025年的大型语言模型(LLM)训练领域,多目标学习已成为提升模型综合性能的关键技术之一。传统的单一损失函数训练方法逐渐显现出局限性,尤其在处理复杂的语言理解、生成和推理任务时。多目标训练通过同时优化多个互补的学习目标,能够显著提升模型的泛化能力、知识保留和任务适应性。

188 3
|
3月前
|
机器学习/深度学习 自然语言处理 算法
|

48_动态架构模型:NAS在LLM中的应用

大型语言模型(LLM)在自然语言处理领域的突破性进展,很大程度上归功于其庞大的参数量和复杂的网络架构。然而,随着模型规模的不断增长,计算资源消耗、推理延迟和部署成本等问题日益凸显。如何在保持模型性能的同时,优化模型架构以提高效率,成为2025年大模型研究的核心方向之一。神经架构搜索(Neural Architecture Search, NAS)作为一种自动化的网络设计方法,正在为这一挑战提供创新性解决方案。本文将深入探讨NAS技术如何应用于LLM的架构优化,特别是在层数与维度调整方面的最新进展,并通过代码实现展示简单的NAS实验。

230 0
|
3月前
|
PyTorch 算法框架/工具 异构计算
|

75_TPU集成:Google Cloud加速

在大型语言模型(LLM)训练和推理的竞赛中,计算硬件的选择直接决定了研发效率和成本。Google的Tensor Processing Unit(TPU)作为专为AI计算设计的专用芯片,正逐渐成为大规模LLM开发的首选平台之一。随着2025年第七代TPU架构Ironwood的发布,Google在AI计算领域再次确立了技术领先地位。

541 0
|
3月前
|
人工智能 自然语言处理 安全
|

43_PaLM与Gemma:谷歌LLM演进

在人工智能发展的浪潮中,谷歌一直扮演着关键的技术引领者角色。从最初的神经机器翻译到如今的通用人工智能,谷歌通过持续的技术创新推动着自然语言处理领域的边界不断拓展。2022年,谷歌推出了革命性的PaLM(Pathways Language Model),这一模型不仅在规模上达到了前所未有的5400亿参数,更重要的是其采用了创新的Pathways训练方法,为大型语言模型的发展开辟了新路径。随后,谷歌又推出了Gemma系列开源模型,将先进的AI技术普惠给更广泛的开发者社区。

270 2

ModelScope模型即服务

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

3
今日
14976
内容
6
活动
3894
关注
你好!
登录掌握更多精彩内容

相关产品

  • 人工智能平台 PAI
  • 文字识别
  • 智能语音交互