我发现使用function call的时候,百炼上的qwen3-8b模型和我本地部署的qwen3-8b模型,效果不一致,本地部署的效果差很多,主要体现在fucntion的参数上,经常会漏,或者json格式不对,但是百炼上的就没问题
想问一下,百炼上的qwen3-8b的模型跟开源的模型版本一致吗?还是说百炼上的模型版本更高
我本地的模型是用vllm部署,部署命令如下:
vllm serve huggingface.co/Qwen/Qwen3-8B --served-model-name Qwen3-8B --enable-reasoning --reasoning-parser deepseek_r1 --enable-auto-too
l-choice --tool-call-parser hermes