开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

ModelScope像千问,百川这样的大模型,无法直接通过inference API的方式请求吗?

ModelScope像千问,百川这样的大模型,无法直接通过inference API的方式请求吗?

展开
收起
青城山下庄文杰 2023-08-06 08:28:27 138 0
2 条回答
写回答
取消 提交回答
  • 可以尝试在阿里云的dashscope 灵积上去体验api服务-此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2023-08-08 10:40:34
    赞同 展开评论 打赏
  • 北京阿里云ACE会长

    模型大小:大型模型往往具有巨大的参数量和计算量,可能需要较长的推理时间和更高的计算资源。这可能导致通过 API 请求的耗时过长,以至于请求超时或无法有效地处理。

    推理资源限制:通过 Inference API 进行推理需要一定的计算资源和内存。大型模型可能需要更多的计算资源和内存才能运行,而 API 可能有一定的资源限制,无法满足大型模型的要求。

    网络带宽和延迟:大型模型的推理请求可能会产生大量的数据传输,而网络带宽和延迟可能成为瓶颈。在请求过程中,数据的传输速度可能会受到网络连接的限制,从而导致请求的延迟增加。

    为了解决这些挑战,常见的方法是将大型模型部署在专用的推理服务器或边缘设备上,并通过 API 请求将计算推理任务发送到这些服务器进行处理。这样可以充分利用专用硬件和高性能计算资源,提高推理效率和响应速度。

    此外,一些模型可能提供特定的推理服务或解决方案,以更好地支持大规模的推理请求。您可以查看相关的文档或联系模型提供方,了解是否提供了专门针对大规模推理的解决方案。

    2023-08-07 20:22:45
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

相关电子书

更多
ACE 区域技术发展峰会:Flink Python Table API入门及实践 立即下载
Java Spring Boot开发实战系列课程【第15讲】:Spring Boot 2.0 API与Spring REST Docs实战 立即下载
Spring Boot2.0实战Redis分布式缓存 立即下载