物联网

首页 标签 物联网
# 物联网 #
关注
28011内容
ModelScope魔搭社区发布月报 -- 26年2月
临近年关,ModelScope迎来春节模型发布潮:Qwen3、GLM-4.7、MiniMax M2.1等大模型密集上新;AIGC生图、语音合成、具身智能全面突破;OpenAPI、OAuth、Gallery等生态基建同步升级,加速AI开源普惠。(239字)
别再用ChatGPT群发祝福了!30分钟微调一个懂你关系的“人情味”拜年AI
春节祝福太难写?本文手把手教你用LoRA微调大模型,让AI学会“看人下菜”:识别关系、风格、细节,30分钟训练出懂人情世故的拜年助手。无需代码,量化+批处理保障秒级响应,让每条祝福都像你亲手写的。(239字)
|
3月前
|
《GraphQL状态图建模与低时延控制能力解析》
本文围绕物联网场景下GraphQL在设备状态图查询与实时指令调度中的应用展开深度分析,从态联拓扑、柔性查询、边缘适配等角度,系统阐述其在结构化状态获取、按需数据拾取、统一交互口径等方面的核心价值,同时揭示复杂拓扑解析开销、终端算力约束、跨域链路损耗等现实局限。文章结合真实工程实践思路,探讨实时订阅机制在低延迟指令控制中的能力边界,明确网络波动、并发密度、资源竞争对实时性的影响。
32B大模型塞进消费级显卡?我用“人情味”做了场春节实验
本文分享用LoRA+量化在单卡/双卡上轻量微调Qwen3-32B,打造懂关系、有分寸的春节祝福助手。聚焦“人情世故”六要素填空式训练,自建3000+场景化数据,借助LLaMA-Factory Online实现低门槛实战,让AI从背模板转向调记忆。(239字)
从群发文案到私人定制:手把手教你微调一个懂人情世故的拜年助手
本文揭秘如何用微调技术让AI写出“专属感”祝福语:拆解人情世故为6个可量化要素,人工打磨3000条高质量种子数据,30分钟即让Qwen3学会“看人下菜碟”。结果不再是千篇一律的群发模板,而是带共同记忆、有温度的真挚表达——技术不止提效,更可传递心意。(239字)
大模型效率优化:多任务微调的原理、优势与落地技巧
本文详解多任务微调(MTFT):通过统一训练多个相关任务(如文本分类、情感分析、关键词提取),实现知识迁移,提升泛化性与训练效率。基于LLaMA-Factory+Qwen-7B,手把手教新手低门槛落地,兼顾性能与实用性。(239字)
LoRA 微调原理:参数高效微调的核心技术
LoRA(低秩适配)是当前最主流的大模型参数高效微调技术:通过冻结原模型、仅训练少量低秩矩阵,显著降低显存需求(消费卡即可运行),避免灾难性遗忘,且推理无损。本文深入浅出解析其原理、关键参数(秩r、学习率等)与实战要点,助初学者快速掌握。(239字)
微调黑话大揭秘:老司机必备的行话指南
本文系统梳理大模型微调核心术语:预训练、微调、全参数微调、PEFT(LoRA/QLoRA/Adapter/Prefix Tuning)、学习率、Warmup、Batch Size、Epoch、过拟合、验证集与测试集,助初学者快速构建知识体系,扫清理解障碍。
大模型微调内存优化全攻略:无需昂贵显卡,打造你的AI助手
本文深入解析大模型微调为何“烧显存”,从原理(模型参数、优化器状态、激活值三大显存杀手)到实战:推荐QLoRA等高效方法,结合梯度累积、序列截断、混合精度与DeepSpeed优化,并介绍LLaMA-Factory Online等低门槛平台,助开发者用消费级显卡轻松微调专属模型。(239字)
给AI模型“加外挂”:LoRA技术详解,让小白也能定制自己的大模型
LoRA是一种高效轻量的大模型微调技术,如同为万能咖啡机加装“智能香料盒”——不改动原模型(冻结参数),仅训练少量低秩矩阵(参数量降千倍),显著降低成本、保留通用能力,并支持插件式灵活部署。现已成为AI定制化普惠落地的核心方案。(239字)
免费试用