开发者社区 > 通义大模型 > 正文

modelscope中关于用swift对LLM量化时,参数的含义咨询

https://modelscope.cn/docs/LLM%E9%87%8F%E5%8C%96%E6%96%87%E6%A1%A3 链接中对原始模型量化,类似这样的命令:

CUDA_VISIBLE_DEVICES=0 swift export \
    --model_type qwen1half-7b-chat --quant_bits 4 \
    --dataset alpaca-zh alpaca-en sharegpt-gpt4:default --quant_method awq

想给各专家了解下如下几个问题:
1、命令中的model_type取值都有哪些呢?怎么去确定这个取值
2、如果模型已经下载到本地,是不是有其他参数可以指定(swift 没找到查看相关选项,命令的操作)
3、在该文档中所有操作涉及到的--model_type含义都是一养的吗?比如推理

展开
收起
沉寂-风 2024-07-04 16:52:57 26 0
1 条回答
写回答
取消 提交回答
  • 北京阿里云ACE会长

    image.png

    image.png

    详细的信息这里可以看到,源码

    https://github.com/modelscope/swift

    quant_bits:指定量化的位数,量化可以减少模型的精度,以换取更快的推理速度和更小的模型大小。

    dataset:指定用于模型训练或评估的数据集。

    2024-07-07 07:59:35
    赞同 展开评论 打赏

通义千问大模型家族全面升级更大参数规模模型首次面世,全新通义千问2.0版本欢迎体验。https://tongyi.aliyun.com/

相关电子书

更多
OpenStack Swift 海量小文件优化之路 立即下载
From Java/Android to Swift iOS 立即下载
Swift在Airbnb的应用实践 立即下载