开发者社区> 问答> 正文

怎么应用Qwen-14B?

怎么应用Qwen-14B?

展开
收起
中意521 2024-08-14 11:31:44 14 0
2 条回答
写回答
取消 提交回答
  • 要应用Qwen-14B,您需要关注以下几个关键步骤和注意事项:

    1. 环境准备:确保您的项目在支持的地域运行,例如华北2(北京)、华东2(上海)、华南1(深圳)、华东1(杭州)。针对Qwen-14B模型,使用V100(32 GB显存)/A10及以上规格的GPU卡进行训练任务,采用QLoRA轻量化微调方法。
    2. 模型集成:通过阿里云的PAI-快速开始(PAI-QuickStart)模块来部署和微调Qwen1.5系列模型,根据实际需求选择合适规模的模型版本。
    3. 文档对话设置
      • 对于单文档对话,推荐做法是通过文件服务上传文档获取fileid,并将fileid置于system message中进行对话。文档大小限制在1M tokens以下时,可直接将内容放入system message。
      • 多文档对话场景,最佳实践是将所有文档通过文件服务上传,收集文档id并在system message中一并提供。避免直接在单个message中输入多份文档内容。
    4. API调用:利用提供的SDK或API接口,构造请求包含model参数设为"qwen-long",并正确构建messages数组,其中包含system role指定模型行为及文档信息。用户提问则作为'user'角色的内容。 确保遵循模型的能力限制,即最大支持10,000,000 tokens的上下文,包括问答历史和上传文档的总tokens。通过遵循这些指导,您可以有效且高效地应用Qwen-14B模型进行高级自然语言处理任务。

    参考链接:https://help.aliyun.com/zh/dashscope/developer-reference/tongyi-qianwen-7b-14b-72b-quick-start

    2024-08-14 17:13:48
    赞同 2 展开评论 打赏
  • 以下示例展示通过CURL命令来调用通义千问14B模型的脚本(SSE 关闭),如需调用7B模型或72B模型替换model参数即可。

    curl --location 'https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation' \ --header "Authorization: Bearer $DASHSCOPE_API_KEY" \ --header 'Content-Type: application/json' \ --data '{ "model": "qwen-14b-chat", "input":{ "messages":[ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "你好,哪个公园距离我最近?" } ] }, "parameters": { } }'

    image.png
    参考文档https://help.aliyun.com/zh/dashscope/developer-reference/tongyi-qianwen-7b-14b-72b-api-detailes?spm=a2c4g.11186623.0.i24

    2024-08-14 14:26:08
    赞同 3 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载