在LLM大语言模型如果是用阿里的服务的话 平均输入token在2000 输出在200左右 需要购买什么配置呢?
关于阿里云的大规模语言模型(LLM)服务的具体配置,比如平均输入2000个token、输出约200个token所需的资源配置,通常涉及到硬件、内存、计算单元等多个因素,这需要参考阿里云官方的定价和性能指南。由于具体的配置方案会随着服务更新和技术进步发生变化,建议直接咨询阿里云客服或查阅最新的产品文档以获取准确的配置推荐。
需要实测一下,因为我没测过vllm在不同GPU上的首个token性能信息。此回答整理自钉群“LLM大语言模型-阿里云支持”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。