关于阿里云 ODPS(MaxCompute)的全面介绍和应用

简介: 不忘初心,方得始终,终身学习,终身收益。

阿里云 ODPS(MaxCompute)全网参考资料

阿里云ODPS(Open Data Processing Service)的故事,是一部从内部技术突围,到引领AI时代的数据平台进化史。它始于2009年,今天成长为一个为AI而生的数据平台。

🌱 第一阶段:技术奠基与内部淬炼(2009-2013年)

    ODPS的起源可以追溯到2009年9月,它诞生于阿里云的“飞天”项目,承载着用自研技术取代传统商业软件和开源方案、实现核心技术自主可控的使命。

2010年:第一个版本上线,初步具备了分布式数据仓库的能力,能够支持SQL引擎和海量数据存储。

2012-2013年:为了解决阿里巴巴集团内部的数据孤岛问题,ODPS开始搭建统一的数据平台。2013年,它成功实现了单集群5000台服务器的调度能力,这为后来支撑“双十一”这样的超大规模数据洪流奠定了坚实的技术基础。

🚀 第二阶段:商业化启航与架构革新(2014-2019年)

这一时期,ODPS从“阿里内藏的利器”变成了“对外开放的服务”,并正式定名为MaxCompute。

2014年7月:ODPS作为阿里云首个对外服务的大数据平台,正式商业化。当时,使用ODPS分析100PB数据仅需6小时,成本门槛被极大拉低,使得华大基因、阿里小贷等机构能以极低的成本处理海量数据。

2015-2018年:平台更名为MaxCompute,并开启了技术架构的全面升级。MaxCompute 2.0引入了划时代的Serverless架构和存算分离技术,真正实现了“即开即用、按量付费”,将企业数据仓库的建设成本降低了50%以上。

技术荣誉:这段时间,MaxCompute开始在全球舞台上崭露头角。它在2015年和2016年连续打破全球Sort Benchmark排序竞赛的四项纪录,用实力证明了自己的性能。

🤖 第三阶段:全面拥抱AI,定义新范式(2020年至今)

随着AI时代的到来,ODPS的战略重心转向了“Data+AI”的深度融合。

2022年:在云栖大会上,ODPS从一个计算引擎(Processing)升级为一体化大数据平台(Platform),实现了存储、调度、元数据的一体化融合。同年,它荣获“世界互联网领先科技成果奖”。

2023-2025年:平台进入AI Native转型期。MaxCompute 4.0引入了开放架构,支持多模态数据统一处理,成为大模型训练的关键基础设施。2025年的升级更是标志性的:

算力层面:实现了CPU与GPU资源的统一调度,峰值数据处理能力高达50亿次/秒,能满足大模型训练对弹性资源的突发需求。

数据层面:通过湖仓一体架构和Object Table技术,实现了对图片、音视频等非结构化数据的统一管理。

开发层面:推出了MaxFrame(兼容Python生态的分布式框架)、SQL调用AI函数等能力,让数据开发者能在熟悉的界面里直接调用AI能力,极大地降低了AI应用的门槛。

🏆 荣誉与行业地位

经过十五年的发展,ODPS(MaxCompute)已成为全球大数据平台的领跑者之一。它连续6年在TPCx-BB国际基准测试中保持性能和性价比第一,并被Gartner魔力象限评为全球领导者。如今,它不仅是阿里巴巴集团内部99%数据任务的处理平台,更服务了数万家国内外企业。

MaxCompute不同类型的模型

模型类型

能力描述

实践教程

公共模型

  • MaxCompute内置了多种开箱即用的开源大模型,预先创建在名称为BIGDATA_PUBLIC_MODELSET公共项目、名称为default的公共schema中。
  • 使用时无须自行创建和管理模型对象,即可灵活使用AI Function调用模型,降低使用门槛。
  • 支持模型如下:
    • Qwen3-0.6B-GGUF
    • Qwen3-1.7B-GGUF
    • Qwen3-4B-GGUF
    • Qwen3-8B-GGUF
    • Qwen3-14B-GGUF
    • DeepSeek-R1-Distill-Qwen-1.5B
    • DeepSeek-R1-Distill-Qwen-7B
    • DeepSeek-R1-Distill-Qwen-14B
    • DeepSeek-R1-0528-Qwen3-8B

说明

  1. 使用公共模型时:
    • 若项目未开启租户级Schema语法开关,则使用bigdata_public_modelset.<model_name>
    • 若项目开启租户级Schema语法开关,则需指定bigdata_public_modelset.default.<model_name>
  2. 地域限制:目前仅在华北2(北京)、华东2(上海)、华东1(杭州)、华南1(深圳)、华北6(乌兰察布)、中国(香港)、新加坡、印度尼西亚(雅加达)、德国(法兰克福)地域提供公共模型,其他地域逐步上线中。

使用MaxCompute公共模型进行网络评论情感分析

远程模型

支持对接PAI-EAS上已经部署好的模型,指定访问PAI-EAS所需的Endpoint和token,可注册为MaxCompute远程模型,从而使用AI Function调用模型。

使用MaxCompute远程模型自动生成电商选品描述

内部训练模型

支持使用MaxCompute MaxFrame训练传统机器学习模型,执行TO_ODPS_MODEL将其保存为MaxCompute内部训练模型。

使用MaxCompute进行XGboost模型训练和预测

导入模型

Import Model

实际业务场景中,内置公共模型可能无法完全满足业务需求,而经过算法调优后的模型则可能会根据业务效果进行相应的调整,实现更好的效果。

支持导入在外部训练调优后保存的自定义模型文件,通过指定OSS模型文件地址导入至MaxCompute,供后续推理使用。

逐步上线

可以看出MaxCompute可以内置多种不同的ai开源大模型,还支持内部传统机器学习模型,保障了外部内部的不同需求,让小白更容易上手,仅需简单配置即可完成开箱即用,这样才能更好的将产品推向普通开发者。

MaxCompute SQL AI 实操教程

登录账号平台注册不明白可以问一下在线客服,会协助注册登录(一定要实名)建议用新用户参与活动,我这个老账号已经不能再用免费试用了,需要付费660元三个月资源,打开相关试用有两种方式,第一种直接选择上方权益,选择140+云产品免费试用,搜索MaxCompute选择个人认证,或者直接搜索网址:MaxCompute领取地址,想部署在服务器上可以搜索网址:服务器应用地址

image.png image.png

我这里就付费参与了,按量付费进行试用,希望不要扣太多钱,我选的是华北2-北京的资源,其实选相关的资源没有太大的区别,大家根据自己需求选择即可,别忘记点击创建必要的服务关联角色,否则进行不了下一步

image.png

image.png

然后我们跳转进入控制台,一定要看准地域,不同的地域就出不来你开通的资源了

image.png


MC产品控制台,创建项目,选择新建,填写项目名称,直接确认

image.png

他这里有直接可以应用的demo,我们可以调用看一下:demo内容,我们可以通过sql分析来应用一下,简单介绍一下AI_GENERATE是MaxCompute提供的AI Function,用于调用模型结合提示词执行推理任务,支持自然语言生成、复杂逻辑分析、情感分类、多模态理解等场景。用户可通过SQL直接完成非结构化数据的智能处理,无需外部服务依赖。主要作用就是通过这个调用大语言模型,调用公共模型推理时,需要SET odps.sql.using.public.model=true;打开使用公共模型开关。

选择sql分析提示开通 DataWorks 产品,咱们根据要求选择按量付费开通,选择旧版也可以进入,两边本质上没太大区别,但是鉴于旧版3月31日就关闭了,带大家体验一下新版情况。

image.png

image.png

DataWorks具体作用就是为适应云原生技术演进、满足日益复杂的数据分析需求,阿里云 MaxCompute 管控台 SQL 分析全新能力升级,与 DataWorks 新版数据开发 (DataStudio) 深度融合,为用户提供更高效、更智能、更统一的数据分析与元数据管理体验,开不开都可以,直接按我截图操作,下一步下一步即可。

image.png

image.png

image.png

image.png

现在我们再回到阿里云 MaxCompute SQL就可以体验新版了,点击体验新版即可打开

image.png

示例1:调用通义千问大语言模型,生成内容,我先问一下通俗的问题,比如中国有几个直辖市?How many municipalities directly under the Central Government are there in China?

调用MaxCompute提供的公共模型Qwen3-0.6B-GGUF,直接进行模型调用与内容生成。

点击新增新建一个sql文件,录入代码如下

SET odps.sql.using.public.model=true;
SELECT AI_GENERATE(bigdata_public_modelset.default.Qwen3-0.6B-GGUF,DEFAULT_VERSION,'How many municipalities directly under the Central Government are there in China');

image.png

选好项目和配额,录入相关代码,然后选择运行。

image.png

然后就变成了一个事故,一直是等待,等了好几分钟还没出结果,我咨询了官方售后,还是建议我不要用sql分析直接查,太慢了,因为sql 分析界面走的公共调度资源组,等待资源,可以在开发界面去执行,开发界面也在dataworks里,具体位置如下:https://dataworks.console.aliyun.com/workspace/list

image.png

当然也可以通过dataworks,看来我这个dataworks没有白创建,那我们接下来就看看怎么应用dataworks来调用大数据模型查询结果吧

第一步肯定是要打开dataworks链接直接给了:数据分析,选择数据分析与服务-数据分析

image.png

进入数据分析,选择sql查询,选择新增数据源

image.png

image.png

点击新增数据源选择MaxCompute,填写数据源名称(唯一)选择MaxCompute账号名称(咱们在MaxCompute创建的,默认访问身份选阿里云主账号即可,然后完成创建

image.png


然后回到sql查询页面,看到左边已经创建好相关数据源了,我们把代码录入进去,然后执行sql语句

image.png

执行完毕,有151个直辖市,可能他理解的直辖市和中国理解的不太一样,我又换了几个模型执行了一下,看看各个模型的区别

这是DeepSeek-R1-Distill-Qwen-1.5B的回答

"\nOkay, so I need to figure out how many municipalities are directly under the Central Government in China. I remember hearing that there's a hierarchy of governments in China, with the Central Government, then the Province Government, followed by the City Government, and then the District Government. \n\nLet me start by recalling what each of these levels entails. The Central Government is the top level, and its provinces are the first tier. Each province has cities and districts. So, for each province, there's a city and a district. I think the number of cities and districts varies by province, but I'm not sure exactly how many.\n\nI believe there are 22 provinces in China. Each province has at least one city and a district. So, if I multiply 22 by 2, that gives me 44. But I'm not sure if that's accurate because some provinces might have more than one city or district. I should check how many cities and districts each province has.\n\nFor example, the Shenzhen Province has two districts: Shenzhen District and Shenzhen Subdistrict. So, that's two cities and two districts. Similarly, other provinces might have multiple cities and districts. I think the total number is around 22 provinces, each with approximately two cities and two districts, making a total of about 88 municipalities. But I'm not entirely sure if this is the correct number.\n\nWait, maybe I should look up the exact numbers. I recall that the number of cities is around 50 and the number of districts is around 38. So, adding those together, that would make 88 municipalities. But I'm not entirely confident about this number because I'm not sure if the exact figures are accurate or if some provinces have more or fewer cities and districts.\n\nI think I should also consider if there are any exceptions or special cases. For example, does every province have a city and a district? I believe so, but I'm not 100% certain. Also, some provinces might have multiple cities or districts if they have a more complex administrative structure.\n\nSo, to summarize, I believe that China has about 88 municipalities directly under the Central Government. However, I'm not entirely sure if this number is accurate or if there's a more precise figure. I think it's important to note that the exact numbers can vary depending on the source, so it's best to verify this information through reliable sources"

还是不太准确。

image.png

直接来提一个量级,用DeepSeek-R1-0528-Qwen3-8B试一下,然后就是因为数据量太大报错了,任务实际消耗的内存(7680 MB)远远超过了系统最初为其规划的额度(1280 MB),导致 Worker 节点内存溢出(Out of Memory),从而被系统终止,这个也是避免内存消耗过大的一种熔断机制,同时报错日志及时给出了调整内容。

image.png

image.png

下面我们来执行一下案例2,执行代码如下:

SET odps.sql.using.public.model=true;
SELECT 
    prompt,
    AI_GENERATE(
        bigdata_public_modelset.default.Qwen3-1.7B-GGUF,
        DEFAULT_VERSION,
        concat('请对以下评论进行情感分析分类,输出结果仅限于以下三个选项之一:正面、负面、中性。待分析的评论:', prompt)
    ) AS generated_text
FROM (
    VALUES 
        ('今天天气真好,心情很不错!阳光明媚,适合出去散步。 /no_think'),
        ('今天天气真好,心情很不错!阳光明媚 /no_think'),
        ('科技发展日新月异,人工智能改变生活。 /no_think'),
        ('防控措施很到位,为医护人员点赞! /no_think'),
        ('这个商品质量很差 /no_think')
) t (prompt);

先简单说一下体验,因为这个需要调用外部数据源,同时要进行查询分析,所以时长不会太短,尤其是需要海量数据给出结果的信息,一般早1-3分钟之间,但是分析的结果大部分是正确的,只是希望后边多接入国产数据源,这样咱们的数据会更准确。

image.png

接下来,我们要通过本地客户端去调用,这里我们要本地安装一下相关客户端信息,同时我把相关步骤也放在链接里,大家可以一步一步跟着操作:本地化部署

这是github相关的地址:https://github.com/aliyun/aliyun-odps-console/releases

这是本地客户端的下载地址:下载MaxCompute客户端安装包(Github)

解压下载的安装包文件,得到binconflibplugins文件夹

image.png

进入conf文件夹,配置odps_config.ini文件。

image.png
     odps_config.ini文件中使用井号(#)作为注释。参数说明如下。

参数

是否必填

描述

示例

project_name

访问的目标MaxCompute项目名称。

如果您创建了标准模式的工作空间,在配置project_name时,请注意区分生产环境与开发环境(_dev)的项目名称,请参见必读:简单模式和标准模式的区别

您可以登录MaxCompute控制台,在工作区> 项目管理页面获取MaxCompute项目名称。

whb_test

(这是我创建的项目)

access_id

阿里云账号或RAM用户的AccessKey ID。

您可以进入AccessKey管理页面获取AccessKey ID。

这个可以直接生成获取,相当于非对称加密

access_key

AccessKey ID对应的AccessKey Secret。

您可以进入AccessKey管理页面获取AccessKey Secret。

key和id配合使用

end_point

MaxCompute服务的连接地址。

您需要根据创建MaxCompute项目时选择的地域以及网络连接方式配置Endpoint。各地域及网络对应的Endpoint值,请参见Endpoint

重要

  • Endpoint用于MaxCompute服务,Tunnel Endpoint用于MaxCompute的Tunnel服务,此处请填写Endpoint。
  • 如果Endpoint配置有误,会出现无法访问错误,请务必仔细确认。

https://help.aliyun.com/zh/maxcompute/user-guide/endpoints?spm=a2c4g.11186623.0.0.12b3f795B7KKlc#concept-m2j-h1y-5db
这是相关解析的地址,自己用的哪个地区就用哪个地区的api

log_view_host

Logview地址。您可以通过该地址查看作业的详细运行信息,并为报错处理提供依据。固定取值为:http://logview.odps.aliyun.com

说明

推荐您配置该参数,如果不配置该参数,在作业报错时无法快速定位问题。

http://logview.odps.aliyun.com

https_check

是否开启HTTPS访问机制,对访问MaxCompute项目的请求进行加密。取值范围如下:

  • True:采用HTTPS机制。
  • False:采用HTTP机制。

默认值为False。

True

data_size_confirm

输入数据量的最大值,单位为GB。取值范围无限制。推荐设置为100 GB。

100

update_url

预留参数,暂无需关注。

use_instance_tunnel

是否使用InstanceTunnel下载SQL执行结果。取值范围如下:

  • True:使用InstanceTunnel下载SQL执行结果。
  • False:不使用InstanceTunnel下载SQL执行结果。

默认值为False。

True

instance_tunnel_max_record

客户端返回的SQL执行结果的最大记录数。如果use_instance_tunnel值为True,需要配置该参数。最大值为10000。

10000

tunnel_endpoint

Tunnel服务的公网访问链接。如果您未配置Tunnel Endpoint,Tunnel会自动路由到MaxCompute服务所在网络对应的Tunnel Endpoint。如果您配置了Tunnel Endpoint,则以配置为准,不进行自动路由。

各地域及网络对应的Tunnel Endpoint值,请参见Endpoint

https://service.cn-beijing.maxcompute.aliyun.com/api

我是华北2北京,所以我选这个,这是如果上边没配置他会自动路由到这个api上,上边配了下边不太用处理

set.<key>

设置MaxCompute项目的属性。

更多属性信息,请参见属性列表

set.odps.sql.decimal.odps2=true

看下边截图,参数是打开2.0数据开关的

说明:确保上述信息配置正确,若信息配置错误,会导致项目连接失败。

这是创建key的时候的步骤,点击链接直接创建就可以了

image.png

这个是关于最后一行参数的解析,主要是打开2.0数据类型开关

image.png

调整好的参数请查收(我的id和key我就打码了)

image.png

注意:如果你的电脑没有java 8 以上的版本会提示 版本低或者no java,安装java的链接地址在这:https://www.java.com/zh-CN/download/,直接点击下载合适的java就行,下载后直接双击安装包

image.png

启动MaxCompute客户端

MaxCompute客户端可通过如下方式启动,您可以任选其中一种:

方式一:安装包的脚本文件

MaxCompute客户端安装路径下的bin文件夹中,双击odpscmd.bat文件(Windows系统)或者双击odpscmd文件(macOS系统),即可启动MaxCompute客户端。返回如下信息,表明已成功连接MaxCompute项目。启动成功

image.png

方式二:系统的命令行执行窗口

在系统的命令行执行窗口,进入MaxCompute客户端安装路径下的bin目录,执行odpscmd命令(Windows系统)或sh odpscmd(Linux系统或Mac系统),即可启动MaxCompute客户端。返回如下信息,表明已成功连接MaxCompute项目。

image.png

然后我们来执行相关sql语句试一下

SET odps.sql.using.public.model=true;
SELECT AI_GENERATE(bigdata_public_modelset.default.Qwen3-0.6B-GGUF,DEFAULT_VERSION,'what is the capital of China');

这是相关的结果代码,我就不贴图了

whb_test>SET odps.sql.using.public.model=true;
OK
whb_test>SELECT AI_GENERATE(bigdata_public_modelset.default.Qwen3-0.6B-GGUF,DEFAULT_VERSION,'what is the capital of China');
ID = 20260227013513223gba335gt0o2
Log view:
http://logview.odps.aliyun.com/logview/?h=https://service.cn-beijing.maxcompute.aliyun.com/api&p=whb_test&i=20260227013513223gba335gt0o2&token=d0lpckppQXlrMHlrdndUL093dzFVK05QcHJjPSxPRFBTX09CTzoxMDk4MjI2MTM5MTIyNDAzLDE3NzQ3NDgxMTMseyJTdGF0ZW1lbnQiOlt7IkFjdGlvbiI6WyJvZHBzOlJlYWQiXSwiRWZmZWN0IjoiQWxsb3ciLCJSZXNvdXJjZSI6WyJhY3M6b2RwczoqOnByb2plY3RzL3doYl90ZXN0L2luc3RhbmNlcy8yMDI2MDIyNzAxMzUxMzIyM2diYTMzNWd0MG8yIl19XSwiVmVyc2lvbiI6IjEifQ==
Job Queueing...
Job Queueing...
Job Queueing...
2026-02-27 09:34:48 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:34:54 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:34:59 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:35:04 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:35:09 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:35:14 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:19 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:25 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:30 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:35 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:39 M1_job_0:0/1/1[TERMINATED]
Summary:
resource cost: cpu 0.40 Core * Min, memory 0.50 GB * Min
inputs:
outputs:
        SQL_0_0_0_job_0:AdhocSink1: 1 (591 bytes)
------------------------------------------JOB:SQL_0_0_0_job_0------------------------------------------
Job run time: 53.844
Job run mode: fuxi job 2.0
Job run engine: execution engine
M1:
        instance count: 1
        run time: 53.751
        instance time:
                min: 24.193, max: 24.193, avg: 24.193
        input records:
        input bytes:
        output records:
                AdhocSink1: 1  (min: 1, max: 1, avg: 1)
        output bytes:
                AdhocSink1: 591  (min: 591, max: 591, avg: 591)
        metrics_output_count:
                AdhocSink1: 1  (min: 1, max: 1, avg: 1)
                Project1: 1  (min: 1, max: 1, avg: 1)
                Values1: 1  (min: 1, max: 1, avg: 1)
        metrics_inner_time_ms:
                AdhocSink1: 46  (min: 46, max: 46, avg: 46)     MaxInstance: 0
                GlobalInit: 970  (min: 970, max: 970, avg: 970) MaxInstance: 0
                Project1: 8887  (min: 8887, max: 8887, avg: 8887)       MaxInstance: 0
                Values1: 0  (min: 0, max: 0, avg: 0)    MaxInstance: 0
+------------+
| _c0        |
+------------+
| "The capital of China is **Beijing**." |
+------------+
A total of 1 records fetched by instance tunnel. Max record number: 10000

然后我们再做一个情感分析的,调用1.7B试一下,当然这些代码我也可以自己组织,用官方数据少一些错误,避免调sql语句的时候报错

whb_test>SET odps.sql.using.public.model=true;
SELECT
    prompt,
    AI_GENERATE(
        bigdata_public_modelset.default.Qwen3-1.7B-GGUF,
        DEFAULT_VERSION,
        concat('请对以下评论进行情感分析分类,输出结果仅限于以下三个选项之一:正面、负面、中性。待分析的评论:', prompt)
    ) AS generated_text
FROM (
    VALUES
        ('今天天气真好,心情很不错!阳光明媚,适合出去散步。 /no_think'),
        ('今天天气真好,心情很不错!阳光明媚 /no_think'),
        ('科技发展日新月异,人工智能改变生活。 /no_think'),
        ('防控措施很到位,为医护人员点赞! /no_think'),
        ('这个商品质量很差 /no_think')
OK
whb_test>>>>>>>>>>>>>>>) t (prompt);

ID = 20260227014054816grz394kh2kd4
Log view:
http://logview.odps.aliyun.com/logview/?h=https://service.cn-beijing.maxcompute.aliyun.com/api&p=whb_test&i=20260227014054816grz394kh2kd4&token=aE8xbm1DaGhScXpKQlpyZThpOTRsa1cvOFlrPSxPRFBTX09CTzoxMDk4MjI2MTM5MTIyNDAzLDE3NzQ3NDg0NTUseyJTdGF0ZW1lbnQiOlt7IkFjdGlvbiI6WyJvZHBzOlJlYWQiXSwiRWZmZWN0IjoiQWxsb3ciLCJSZXNvdXJjZSI6WyJhY3M6b2RwczoqOnByb2plY3RzL3doYl90ZXN0L2luc3RhbmNlcy8yMDI2MDIyNzAxNDA1NDgxNmdyejM5NGtoMmtkNCJdfV0sIlZlcnNpb24iOiIxIn0=
Job Queueing...
Job Queueing...
Job Queueing...
2026-02-27 09:40:30 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:35 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:40 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:45 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:50 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:55 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:01 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:06 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:11 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:16 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:21 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:26 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:31 M1_job_0:0/1/1[TERMINATED]
Summary:
resource cost: cpu 0.58 Core * Min, memory 0.72 GB * Min
inputs:
outputs:
        SQL_0_0_0_job_0:AdhocSink1: 5 (1289 bytes)
------------------------------------------JOB:SQL_0_0_0_job_0------------------------------------------
Job run time: 62.512
Job run mode: fuxi job 2.0
Job run engine: execution engine
M1:
        instance count: 1
        run time: 62.396
        instance time:
                min: 34.782, max: 34.782, avg: 34.782
        input records:
        input bytes:
        output records:
                AdhocSink1: 5  (min: 5, max: 5, avg: 5)
        output bytes:
                AdhocSink1: 1289  (min: 1289, max: 1289, avg: 1289)
        metrics_output_count:
                AdhocSink1: 5  (min: 5, max: 5, avg: 5)
                Project1: 5  (min: 5, max: 5, avg: 5)
                Values1: 5  (min: 5, max: 5, avg: 5)
        metrics_inner_time_ms:
                AdhocSink1: 60  (min: 60, max: 60, avg: 60)     MaxInstance: 0
                GlobalInit: 3739  (min: 3739, max: 3739, avg: 3739)     MaxInstance: 0
                Project1: 12004  (min: 12004, max: 12004, avg: 12004)   MaxInstance: 0
                Values1: 0  (min: 0, max: 0, avg: 0)    MaxInstance: 0
+------------+----------------+
| prompt     | generated_text |
+------------+----------------+
| 今天天气真好,心情很不错!阳光明媚,适合出去散步。 /no_think | "正面"           |
| 今天天气真好,心情很不错!阳光明媚 /no_think | "正面"           |
| 科技发展日新月异,人工智能改变生活。 /no_think | "正面"           |
| 防控措施很到位,为医护人员点赞! /no_think | "正面"           |
| 这个商品质量很差 /no_think | "负面"           |
+------------+----------------+
A total of 5 records fetched by instance tunnel. Max record number: 10000

本地部署完美完成,接下来我们就来个小总结,然后再把相关资源释放掉,费用这一块我就自己承担了,毕竟是老用户了,阿里云用了五六年了

总结如下:

通过使用不同开发工具的适用场景,表格分析如下

工具 适用场景 关键特点/痛点
DataWorks SQL分析 快速查询、小数据量分析 注意:公共调度资源组可能较慢,不适合执行耗时较长的AI推理任务。
DataWorks 数据开发 推荐。专业的数据开发、周期调度、复杂ETL 需创建DataWorks工作空间并绑定MaxCompute数据源。资源隔离性好,适合正式开发。
本地客户端 (odpscmd) 命令行爱好者、脚本集成、批量管理 需配置odps_config.ini文件(project_nameaccess_idend_point等关键信息)需安装Java 8+

公共模型调用:调用公共模型(如Qwen3-0.6B-GGUF)时,必须先在SQL中设置开关SET odps.sql.using.public.model=true;。

资源消耗:大模型推理消耗计算资源。你遇到的“任务等待”或“内存溢出”报错,正是公共资源池排队和复杂任务资源估算的体现。建议在DataWorks开发环境中使用独立的资源组执行。

结果准确性:不同模型对同一问题的回答可能存在差异。对于需要精确数据的问题(如“中国有几个直辖市”),大模型可能不如传统SQL查询准确。而情感分析等自然语言理解任务,大模型表现出色。

ODPS(MaxCompute)已经从单纯的数据仓库演变为一个 “Data+AI”一体化的云原生数据平台。

对开发者:它最大的价值在于降低了AI应用的门槛。你不再需要维护复杂的GPU集群,也不再需要编写繁琐的模型调用代码。通过熟悉的SQL,就能直接使用最前沿的大模型能力。

对业务:它让数据分析和AI模型推理能够在同一平台上完成,避免了数据搬移带来的成本和安全风险,真正实现了“数据在哪里,计算就在哪里”。

非常适合大家来使用,希望更多的人试用阿里云的ai应用,更多的可以从这里进去:一站式轻松搭建企业级 AI Agent

接下来,我们要开始释放资源了

第一步先进入MaxCompute控制台:https://maxcompute.console.aliyun.com/cn-beijing/overview,选择项目管理然后删除项目

image.png

第二步进入DataWorks控制台的空间工作列表:https://dataworks.console.aliyun.com/workspace/list,删除工作空间

image.png

然后key这个可以保留或者删除,这个不占用资源,咱们可以自行处理,时间长了也就冻结了,这是地址:https://ram.console.aliyun.com/profile/access-keys

image.png

最后我们看这种按量付费昨天试用后一共消耗了多少资源,第一个是包月的dataworks,这个没有用资源是免费的0,maxcompute也是0,可能按量付费还没出来,也可能我用的资源太少了,不够这个额度,好像是1个G8毛钱,很感谢大家的阅览,也希望大家多多学习,多多了解最新的ai行业动态。

image.png

image.png

目录
相关文章
|
2天前
|
人工智能 自然语言处理 JavaScript
2026年Windows+Ollama本地部署OpenClaw保姆级教程:本地AI Agent+阿里云上快速搭建
2026年OpenClaw凭借本地部署、私有化运行的特性,成为打造个人智能体的核心工具,而Ollama作为轻量级本地大模型管理工具,能让OpenClaw摆脱对云端大模型的依赖,实现**本地推理、数据不泄露、全流程私有化**的智能体验。本文基于Windows 11系统,从硬件环境准备、Ollama安装与模型定制、OpenClaw部署配置、技能扩展到常见问题排查,打造保姆级本地部署教程,同时补充阿里云OpenClaw(Clawdbot)快速部署步骤,兼顾本地私有化需求与云端7×24小时运行需求,文中所有代码命令均可直接复制执行,确保零基础用户也能快速搭建属于自己的本地智能体。
4200 18
|
9天前
|
存储 人工智能 负载均衡
阿里云OpenClaw多Agent实战宝典:从极速部署到AI团队搭建,一个人=一支高效军团
在AI自动化时代,单一Agent的“全能模式”早已无法满足复杂任务需求——记忆臃肿导致响应迟缓、上下文污染引发逻辑冲突、无关信息加载造成Token浪费,这些痛点让OpenClaw的潜力大打折扣。而多Agent架构的出现,彻底改变了这一现状:通过“单Gateway+多分身”模式,让一个Bot在不同场景下切换独立“大脑”,如同组建一支分工明确的AI团队,实现创意、写作、编码、数据分析等任务的高效协同。
3587 27
|
13天前
|
人工智能 自然语言处理 监控
OpenClaw skills重构量化交易逻辑:部署+AI全自动炒股指南(2026终极版)
2026年,AI Agent领域最震撼的突破来自OpenClaw(原Clawdbot)——这个能自主规划、执行任务的智能体,用50美元启动资金创造了48小时滚雪球至2980美元的奇迹,收益率高达5860%。其核心逻辑堪称教科书级:每10分钟扫描Polymarket近千个预测市场,借助Claude API深度推理,交叉验证NOAA天气数据、体育伤病报告、加密货币链上情绪等多维度信息,捕捉8%以上的定价偏差,再通过凯利准则将单仓位严格控制在总资金6%以内,实现低风险高频套利。
7181 62
|
3天前
|
人工智能 JSON JavaScript
手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人
手把手教你用 OpenClaw(v2026.2.22-2)+ 飞书,10分钟零代码搭建专属AI机器人!内置飞书插件,无需额外安装;支持Claude等主流模型,命令行一键配置。告别复杂开发,像聊同事一样自然对话。
1555 5
手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人
|
3天前
|
人工智能 网络安全 数据安全/隐私保护
Docker部署OpenClaw(Clawdbot)攻略+阿里云部署OpenClaw 2026版教程
OpenClaw(前身为Clawdbot、Moltbot)作为一款高性能的AI代理平台,凭借自然语言驱动的任务自动化、多平台无缝协作、轻量化容器化架构等核心优势,成为2026年办公自动化、智能协作、跨端指令执行的主流工具,可实现邮件处理、日程管理、航班值机、多IM平台消息联动等丰富功能,无需复杂开发即可快速搭建专属AI助手。Docker作为轻量级容器化技术,能完美解决OpenClaw部署过程中的环境冲突、依赖配置、跨平台兼容等问题,实现一键搭建、快速启动、灵活迁移的部署体验。
1123 2
|
1月前
|
人工智能 自然语言处理 Shell
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
本教程指导用户在开源AI助手Clawdbot中集成阿里云百炼API,涵盖安装Clawdbot、获取百炼API Key、配置环境变量与模型参数、验证调用等完整流程,支持Qwen3-max thinking (Qwen3-Max-2026-01-23)/Qwen - Plus等主流模型,助力本地化智能自动化。
46269 159
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
|
4天前
|
存储 人工智能 BI
2026年OpenClaw(Clawdbot)极简部署:接入小红书全自动运营,一个人=一支团队
2026年的小红书运营赛道,AI自动化工具已成为核心竞争力。OpenClaw(原Clawdbot)凭借“Skill插件化集成、全流程自动化、跨平台联动”的核心优势,彻底颠覆传统运营模式——从热点追踪、文案创作、封面设计到自动发布、账号互动,仅需一句自然语言指令,即可实现全链路闭环。而阿里云作为OpenClaw官方推荐的云端部署载体,2026年推出专属秒级部署方案,预装全套运行环境与小红书运营插件,让零基础用户也能10分钟完成部署,轻松拥有7×24小时在线的“专属运营团队”。
1312 6
|
8天前
|
人工智能 自然语言处理 安全
2026年OpenClaw Skills安装指南:Top20必装清单+阿里云上部署实操(附代码命令)
OpenClaw(原Clawdbot)的强大之处,不仅在于其开源免费的AI执行引擎核心,更在于其庞大的Skills生态——截至2026年2月,官方技能市场ClawHub已收录1700+各类技能插件,覆盖办公自动化、智能交互、生活服务等全场景。但对新手而言,面对海量技能往往无从下手,盲目安装不仅导致功能冗余,还可能引发权限冲突与安全风险。
1965 9
|
5天前
|
人工智能 JavaScript API
2026年Windows系统本地部署OpenClaw指南:附阿里云简易部署OpenClaw方案,零技术基础也能玩转AI助手
在AI办公自动化全面普及的2026年,OpenClaw(原Clawdbot、Moltbot)凭借“自然语言指令操控、多任务自动化执行、多工具无缝集成”的核心优势,成为个人与轻量办公群体打造专属AI助手的首选。它彻底打破了传统AI“只会对话不会执行”的局限——“手”可读写本地文件、执行代码、操控命令行,“脚”能联网搜索、访问网页并分析内容,“大脑”则可灵活接入通义千问、OpenAI等云端API,或利用本地GPU运行模型,真正实现“聊天框里办大事”。
1232 2

热门文章

最新文章