开发者社区 > 大数据与机器学习 > 智能搜索推荐 > 正文

在OpenSearch LLM智能问答中想在Query和向量化之前增加处理模块,支持此种自定义吗?

在OpenSearch LLM智能问答中想在Query 和 向量化之前增加处理模块,该模块需要使用 GPU,支持此种自定义定制吗?lQLPJyBg-5ft1xTNAvzNBZqwO0BXvmM4uiwFPT2ZOvLZAA_1434_764.png

展开
收起
三分钟热度的鱼 2023-11-15 20:03:39 113 0
2 条回答
写回答
取消 提交回答
  • OpenSearch LLM智能问答系统本身不支持直接在Query和向量化之前增加处理模块。OpenSearch LLM智能问答系统的架构设计主要基于搜索和机器学习,而不是深度学习。因此,它并没有直接提供GPU支持的接口。

    然而,你可以在OpenSearch LLM智能问答系统的上游或下游应用深度学习模型。例如,你可以将OpenSearch LLM智能问答系统的输出作为深度学习模型的输入,然后在GPU上运行深度学习模型。这样,你就可以利用GPU的优势来提高处理效率。

    2023-11-30 09:44:03
    赞同 展开评论 打赏
  • 这个特性正在开发中。此回答整理自钉群“OpenSearch LLM智能问答版用户交流群”

    2023-11-15 20:55:39
    赞同 展开评论 打赏

智能推荐(Artificial Intelligence Recommendation,简称AIRec)基于阿里巴巴大数据和人工智能技术,以及在电商、内容、直播、社交等领域的业务沉淀,为企业开发者提供场景化推荐服务、全链路推荐系统开发平台、工程引擎组件库等多种形式服务,助力在线业务增长。

相关产品

  • 智能开放搜索 OpenSearch
  • 相关电子书

    更多
    《开放搜索统一召回引擎实践》 立即下载
    《开放搜索查询分析服务架构分享》 立即下载
    《开放搜索在智能化行业搜索和业务增长领域的应用实践》 立即下载