开发者社区 > ModelScope模型即服务 > 正文
2
0
分享

ModelScope中咨询下LoRA增量权重与LoRA merged的权重有啥区别吗?

ModelScope中咨询下LoRA增量权重与LoRA merged的权重有啥区别吗?0b877c126fd2cd7b9916cd3a5bddc983.pnglora增量权重是只使用lora的权重进行推理?

展开
收起
小小鹿鹿鹿 2024-03-05 15:16:28 298 0 发布于山西
举报
飞天免费试用计划
领取免费云资源,开启云上实践第一步
交互式建模 PAI-DSW
每月250计算时 3个月
额度3个月内有效
模型训练 PAI-DLC
100CU*H 3个月
额度3个月内有效
模型在线服务 PAI-EAS
A10/V100等 500元 1个月
额度1个月内有效
2 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    在ModelScope中,LoRA增量权重与LoRA merged权重是两种不同的微调策略。以下是具体分析:

    • LoRA增量权重:通常指的是通过LoRA方法微调时所得到的更新矩阵的权重。这些权重是在原始预训练模型权重冻结不动的情况下,通过低秩分解的方式注入到每一层中,并参与下游任务的训练过程。这种方式可以大大减少训练参数的数量,节省内存,加速微调过程。
    • LoRA merged权重:是将训练好的LoRA增量权重与原始模型权重进行合并的结果。这种策略在评估(evaluation)模式下,会将LoRA矩阵的值加到原始权重矩阵上,从而使得模型在推理时能够利用这些新学到的适应性信息。这样做的效果相当于对整个模型进行了完整的微调,但又不会增加模型推理时的计算成本。

    总的来说,LoRA增量权重专注于通过低秩矩阵捕捉模型微调过程中的学习变化,而LoRA merged权重则是将这些学习成果整合回原始模型权重中,以便模型能够在实际应用中发挥出更好的性能。

    2024-03-05 21:14:44 发布于河南 举报
    赞同 1 评论 打赏

    评论

    全部评论 (0)

    登录后可评论
  • merged是lora权重和原来模型的权重进行了合并。一般vllm推理时会要求合并权重。原来的模型权重也用。此回答来自钉群魔搭ModelScope开发者联盟群 ①。

    2024-03-05 17:31:51 发布于山西 举报
    赞同 评论 打赏

    评论

    全部评论 (0)

    登录后可评论

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等