在OpenSearch LLM智能问答中想在Query和向量化之前增加处理模块,支持此种自定义吗?

在OpenSearch LLM智能问答中想在Query 和 向量化之前增加处理模块,该模块需要使用 GPU,支持此种自定义定制吗?lQLPJyBg-5ft1xTNAvzNBZqwO0BXvmM4uiwFPT2ZOvLZAA_1434_764.png

展开
收起
三分钟热度的鱼 2023-11-15 20:03:39 134 发布于安徽 分享
分享
版权
举报
2 条回答
写回答
取消 提交回答
  • OpenSearch LLM智能问答系统本身不支持直接在Query和向量化之前增加处理模块。OpenSearch LLM智能问答系统的架构设计主要基于搜索和机器学习,而不是深度学习。因此,它并没有直接提供GPU支持的接口。

    然而,你可以在OpenSearch LLM智能问答系统的上游或下游应用深度学习模型。例如,你可以将OpenSearch LLM智能问答系统的输出作为深度学习模型的输入,然后在GPU上运行深度学习模型。这样,你就可以利用GPU的优势来提高处理效率。

    2023-11-30 09:44:03 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论
  • 这个特性正在开发中。此回答整理自钉群“OpenSearch LLM智能问答版用户交流群”

    2023-11-15 20:55:39 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论

智能推荐(Artificial Intelligence Recommendation,简称AIRec)基于阿里巴巴大数据和人工智能技术,以及在电商、内容、直播、社交等领域的业务沉淀,为企业开发者提供场景化推荐服务、全链路推荐系统开发平台、工程引擎组件库等多种形式服务,助力在线业务增长。

还有其他疑问?
咨询AI助理
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等