阿里云 AI 搜索开放平台集成 DeepSeek 模型

简介: 阿里云 AI 搜索开放平台最新上线 DeepSeek -R1系列模型。

一、AI 搜索开放平台介绍

阿里云 AI 搜索开放平台面向企业及开发者提供丰富的 AI 搜索组件化服务,用户可灵活调用多模态数据解析、大语言模型、效果测评等数十个服务。自发布以来,已有1千多个企业及开发者开通使用,实现智能搜索、检索增强生成(RAG)、多模态搜索等场景的搭建。


核心优势:

  • 丰富的 AI 搜索能力:依托领先的模型底座训练AI搜索专属模型,内置搜索及 RAG 场景全链路组件化服务。
  • 灵活的调用方式:通过 API、SDK 调用服务,方便开发者、企业客户及 ISV 技术人员将部分或全链路 AI 搜索服务集成到自身业务链路中。
  • 开箱即用:开通后即可灵活调用全量服务。

随着大模型的快速发展,AI 搜索开放平台也在持续进行能力升级,提供更多优质的服务。

二、DeepSeek-R1 系列模型

DeepSeek-R1 是 DeepSeek 推出的一款专注于复杂推理任务的大语言模型,在复杂指令理解、结果准确性等方面表现均较为突出。

核心特点

  1. 复杂指令理解
    DeepSeek-R1 通过优化训练数据和模型架构,显著提升了处理多轮对话、模糊表述及复杂逻辑指令的能力,能更精准地捕捉用户意图。
  2. 结果准确性
    在知识密集型任务(如问答、推理)中,模型通过增强事实性校验和引入多步验证机制,减少了错误信息的生成,输出可靠性更高。
  3. 服务稳定性
    针对高并发场景优化了推理效率,确保在流量峰值时仍能保持低延迟和高响应速度,适合企业级应用。

三、快速体验DeepSeek-R1模型

STEP 1: 开通AI搜索开放平台

可免费开通服务,不使用不计费,详情请参见开通服务


STEP 2: 开获取服务调用地址和身份鉴权信息

详情请参见获取服务接入地址获取API-KEY

AI 搜索开放平台支持通过公网和 VPC 地址调用服务,目前支持上海、杭州、深圳、北京、张家口、青岛地域的用户,通过 VPC 地址调用。


STEP3 : 调用 DeepSeek  服务

详情请参见内容生成服务API参考

查看及体验更多 AI搜索开放平台服务:https://opensearch.console.aliyun.com/cn-shanghai/rag/server-market


最新优惠活动

模型服务

输入(元/千tokens

输出(元/千tokens

deepseek-r1

0.004

0.016

deepseek-v3

0.002

0.008

deepseek-r1-distill-qwen-7b

0.0005

0.001

deepseek-r1-distill-qwen-14b

0.001

0.003

ops-qwen-turbo

0.0004

0.0007

qwen-turbo

0.0003

0.0006

qwen-plus

0.0008

0.002

qwen-max

0.0024

0.0096

  • AI搜索开放平台 DeepSeek-R1 模型单次调用低至平均1分钱
  • AI搜索开放平台 Qwen-max、plus 等全系列模型降价20%-50%不等。

相关实践学习
使用阿里云Elasticsearch体验信息检索加速
通过创建登录阿里云Elasticsearch集群,使用DataWorks将MySQL数据同步至Elasticsearch,体验多条件检索效果,简单展示数据同步和信息检索加速的过程和操作。
ElasticSearch 入门精讲
ElasticSearch是一个开源的、基于Lucene的、分布式、高扩展、高实时的搜索与数据分析引擎。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr(也是基于Lucene)。 ElasticSearch的实现原理主要分为以下几个步骤: 用户将数据提交到Elastic Search 数据库中 通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据 当用户搜索数据时候,再根据权重将结果排名、打分 将返回结果呈现给用户 Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
目录
打赏
0
2
2
0
1593
分享
相关文章
生成AI的两大范式:扩散模型与Flow Matching的理论基础与技术比较
本文系统对比了扩散模型与Flow Matching两种生成模型技术。扩散模型通过逐步添加噪声再逆转过程生成数据,类比为沙堡的侵蚀与重建;Flow Matching构建分布间连续路径的速度场,如同矢量导航系统。两者在数学原理、训练动态及应用上各有优劣:扩散模型适合复杂数据,Flow Matching采样效率更高。文章结合实例解析两者的差异与联系,并探讨其在图像、音频等领域的实际应用,为生成建模提供了全面视角。
63 1
从大规模恶意攻击 DeepSeek 事件看 AI 创新隐忧:安全可观测体系建设刻不容缓
唯有通过全行业的协同努力,加强整体、完善的网络安全可观测建设,才能为 AI 技术的创新和发展构建一个安全而稳固的环境。我们期盼并相信,在攻克这些网络安全难题之后,AI 创新将迎来更加安全、灿烂的未来。
从 DeepSeek 到 AI 工具箱:Websoft9 应用托管平台赋能高校教学与科研
Websoft9应用托管平台整合DeepSeek大模型与主流AI工具,助力高校教学与科研智能化转型。平台解决环境部署碎片化、资源利用低效及技术应用孤岛化等挑战,通过智能内核层、工具矩阵层和资源调度层实现高效技术融合。实际案例显示,平台显著提升教学精准度与科研协作效率,同时遵循开放兼容、安全可控等原则,推动认知增强型课堂与虚实联动实验空间的构建,为高等教育带来可持续发展的智能化基座。
48 1
利用通义灵码AI在VS Code中快速开发扫雷游戏:Qwen2.5-Max模型的应用实例
本文介绍了如何利用阿里云通义灵码AI程序员的Qwen2.5-Max模型,在VS Code中一键生成扫雷小游戏。通过安装通义灵码插件并配置模型,输入指令即可自动生成包含游戏逻辑与UI设计的Python代码。生成的游戏支持难度选择,运行稳定无Bug。实践表明,AI工具显著提升开发效率,但人机协作仍是未来趋势。建议开发者积极拥抱新技术,同时不断提升自身技能以适应行业发展需求。
22087 7
小白避坑指南:国内用Colossal-AI微调DeepSeek 1.5B的完整踩坑记录(附镜像加速方案)
本文详细记录了使用Colossal-Ai对DeepSeek-Qwen模型进行微调的过程,包括模型下载、环境部署、数据集处理及代码实现等环节。重点介绍了LoRA低秩适配方法和Colossal-Ai分布式训练框架的使用技巧,解决了模型封装后函数调用冲突、梯度检查点配置等问题。通过命令行参数灵活调整训练配置,最终在两块A100 GPU上完成训练,单卡显存占用约11GB,利用率达85%。文章总结了常见问题及解决方法,为后续研究提供参考。
106 15
小白避坑指南:国内用Colossal-AI微调DeepSeek 1.5B的完整踩坑记录(附镜像加速方案)
如何在云效中使用 DeepSeek 等大模型实现 AI 智能评审
除了代码智能补全外,AI 代码智能评审是 DevOps 领域受开发者广泛关注的另一场景了。本文,我们将结合云效代码管理 Codeup、流水线 Flow 和 DeepSeek,分享一种企业可快速自主接入,即可实现的 AI 智能评审解决方案,希望给大家一些启发。
轻量级AI革命:无需GPU就能运算的DeepSeek-R1-1.5B模型及其低配部署指南
随着AI技术发展,大语言模型成为产业智能化的关键工具。DeepSeek系列模型以其创新架构和高效性能备受关注,其中R1-1.5B作为参数量最小的版本,适合资源受限场景。其部署仅需4核CPU、8GB RAM及15GB SSD,适用于移动对话、智能助手等任务。相比参数更大的R1-35B与R1-67B+,R1-1.5B成本低、效率高,支持数学计算、代码生成等多领域应用,是个人开发者和初创企业的理想选择。未来,DeepSeek有望推出更多小型化模型,拓展低资源设备的AI生态。
52 8
ACK Gateway with AI Extension:大模型推理的模型灰度实践
本文介绍了如何使用 ACK Gateway with AI Extension 组件在云原生环境中实现大语言模型(LLM)推理服务的灰度发布和流量分发。该组件专为 LLM 推理场景设计,支持四层/七层流量路由,并提供基于模型服务器负载感知的智能负载均衡能力。通过自定义资源(CRD),如 InferencePool 和 InferenceModel,可以灵活配置推理服务的流量策略,包括模型灰度发布和流量镜像。
17.1K star!两小时就能训练出专属与自己的个性化小模型,这个开源项目让AI触手可及!
🔥「只需一张消费级显卡,2小时完成26M参数GPT训练!」 🌟「从零构建中文大模型的最佳实践指南」 🚀「兼容OpenAI API,轻松接入各类AI应用平台」
阿里云 AI 搜索产品荣获 Elastic Innovation Award 2024
在新加坡 ElasticON 2025 的 Elastic 合作伙伴峰会上,阿里云 AI 搜索产品荣获 Elastic Innovation Award 2024!

热门文章

最新文章