关于阿里云 ODPS(MaxCompute)的全面介绍和应用

简介: 不忘初心,方得始终,终身学习,终身收益。

阿里云 ODPS(MaxCompute)全网参考资料

阿里云ODPS(Open Data Processing Service)的故事,是一部从内部技术突围,到引领AI时代的数据平台进化史。它始于2009年,今天成长为一个为AI而生的数据平台。

🌱 第一阶段:技术奠基与内部淬炼(2009-2013年)

    ODPS的起源可以追溯到2009年9月,它诞生于阿里云的“飞天”项目,承载着用自研技术取代传统商业软件和开源方案、实现核心技术自主可控的使命。

2010年:第一个版本上线,初步具备了分布式数据仓库的能力,能够支持SQL引擎和海量数据存储。

2012-2013年:为了解决阿里巴巴集团内部的数据孤岛问题,ODPS开始搭建统一的数据平台。2013年,它成功实现了单集群5000台服务器的调度能力,这为后来支撑“双十一”这样的超大规模数据洪流奠定了坚实的技术基础。

🚀 第二阶段:商业化启航与架构革新(2014-2019年)

这一时期,ODPS从“阿里内藏的利器”变成了“对外开放的服务”,并正式定名为MaxCompute。

2014年7月:ODPS作为阿里云首个对外服务的大数据平台,正式商业化。当时,使用ODPS分析100PB数据仅需6小时,成本门槛被极大拉低,使得华大基因、阿里小贷等机构能以极低的成本处理海量数据。

2015-2018年:平台更名为MaxCompute,并开启了技术架构的全面升级。MaxCompute 2.0引入了划时代的Serverless架构和存算分离技术,真正实现了“即开即用、按量付费”,将企业数据仓库的建设成本降低了50%以上。

技术荣誉:这段时间,MaxCompute开始在全球舞台上崭露头角。它在2015年和2016年连续打破全球Sort Benchmark排序竞赛的四项纪录,用实力证明了自己的性能。

🤖 第三阶段:全面拥抱AI,定义新范式(2020年至今)

随着AI时代的到来,ODPS的战略重心转向了“Data+AI”的深度融合。

2022年:在云栖大会上,ODPS从一个计算引擎(Processing)升级为一体化大数据平台(Platform),实现了存储、调度、元数据的一体化融合。同年,它荣获“世界互联网领先科技成果奖”。

2023-2025年:平台进入AI Native转型期。MaxCompute 4.0引入了开放架构,支持多模态数据统一处理,成为大模型训练的关键基础设施。2025年的升级更是标志性的:

算力层面:实现了CPU与GPU资源的统一调度,峰值数据处理能力高达50亿次/秒,能满足大模型训练对弹性资源的突发需求。

数据层面:通过湖仓一体架构和Object Table技术,实现了对图片、音视频等非结构化数据的统一管理。

开发层面:推出了MaxFrame(兼容Python生态的分布式框架)、SQL调用AI函数等能力,让数据开发者能在熟悉的界面里直接调用AI能力,极大地降低了AI应用的门槛。

🏆 荣誉与行业地位

经过十五年的发展,ODPS(MaxCompute)已成为全球大数据平台的领跑者之一。它连续6年在TPCx-BB国际基准测试中保持性能和性价比第一,并被Gartner魔力象限评为全球领导者。如今,它不仅是阿里巴巴集团内部99%数据任务的处理平台,更服务了数万家国内外企业。

MaxCompute不同类型的模型

模型类型

能力描述

实践教程

公共模型

  • MaxCompute内置了多种开箱即用的开源大模型,预先创建在名称为BIGDATA_PUBLIC_MODELSET公共项目、名称为default的公共schema中。
  • 使用时无须自行创建和管理模型对象,即可灵活使用AI Function调用模型,降低使用门槛。
  • 支持模型如下:
    • Qwen3-0.6B-GGUF
    • Qwen3-1.7B-GGUF
    • Qwen3-4B-GGUF
    • Qwen3-8B-GGUF
    • Qwen3-14B-GGUF
    • DeepSeek-R1-Distill-Qwen-1.5B
    • DeepSeek-R1-Distill-Qwen-7B
    • DeepSeek-R1-Distill-Qwen-14B
    • DeepSeek-R1-0528-Qwen3-8B

说明

  1. 使用公共模型时:
    • 若项目未开启租户级Schema语法开关,则使用bigdata_public_modelset.<model_name>
    • 若项目开启租户级Schema语法开关,则需指定bigdata_public_modelset.default.<model_name>
  2. 地域限制:目前仅在华北2(北京)、华东2(上海)、华东1(杭州)、华南1(深圳)、华北6(乌兰察布)、中国(香港)、新加坡、印度尼西亚(雅加达)、德国(法兰克福)地域提供公共模型,其他地域逐步上线中。

使用MaxCompute公共模型进行网络评论情感分析

远程模型

支持对接PAI-EAS上已经部署好的模型,指定访问PAI-EAS所需的Endpoint和token,可注册为MaxCompute远程模型,从而使用AI Function调用模型。

使用MaxCompute远程模型自动生成电商选品描述

内部训练模型

支持使用MaxCompute MaxFrame训练传统机器学习模型,执行TO_ODPS_MODEL将其保存为MaxCompute内部训练模型。

使用MaxCompute进行XGboost模型训练和预测

导入模型

Import Model

实际业务场景中,内置公共模型可能无法完全满足业务需求,而经过算法调优后的模型则可能会根据业务效果进行相应的调整,实现更好的效果。

支持导入在外部训练调优后保存的自定义模型文件,通过指定OSS模型文件地址导入至MaxCompute,供后续推理使用。

逐步上线

可以看出MaxCompute可以内置多种不同的ai开源大模型,还支持内部传统机器学习模型,保障了外部内部的不同需求,让小白更容易上手,仅需简单配置即可完成开箱即用,这样才能更好的将产品推向普通开发者。

MaxCompute SQL AI 实操教程

登录账号平台注册不明白可以问一下在线客服,会协助注册登录(一定要实名)建议用新用户参与活动,我这个老账号已经不能再用免费试用了,需要付费660元三个月资源,打开相关试用有两种方式,第一种直接选择上方权益,选择140+云产品免费试用,搜索MaxCompute选择个人认证,或者直接搜索网址:MaxCompute领取地址,想部署在服务器上可以搜索网址:服务器应用地址

image.png image.png

我这里就付费参与了,按量付费进行试用,希望不要扣太多钱,我选的是华北2-北京的资源,其实选相关的资源没有太大的区别,大家根据自己需求选择即可,别忘记点击创建必要的服务关联角色,否则进行不了下一步

image.png

image.png

然后我们跳转进入控制台,一定要看准地域,不同的地域就出不来你开通的资源了

image.png


MC产品控制台,创建项目,选择新建,填写项目名称,直接确认

image.png

他这里有直接可以应用的demo,我们可以调用看一下:demo内容,我们可以通过sql分析来应用一下,简单介绍一下AI_GENERATE是MaxCompute提供的AI Function,用于调用模型结合提示词执行推理任务,支持自然语言生成、复杂逻辑分析、情感分类、多模态理解等场景。用户可通过SQL直接完成非结构化数据的智能处理,无需外部服务依赖。主要作用就是通过这个调用大语言模型,调用公共模型推理时,需要SET odps.sql.using.public.model=true;打开使用公共模型开关。

选择sql分析提示开通 DataWorks 产品,咱们根据要求选择按量付费开通,选择旧版也可以进入,两边本质上没太大区别,但是鉴于旧版3月31日就关闭了,带大家体验一下新版情况。

image.png

image.png

DataWorks具体作用就是为适应云原生技术演进、满足日益复杂的数据分析需求,阿里云 MaxCompute 管控台 SQL 分析全新能力升级,与 DataWorks 新版数据开发 (DataStudio) 深度融合,为用户提供更高效、更智能、更统一的数据分析与元数据管理体验,开不开都可以,直接按我截图操作,下一步下一步即可。

image.png

image.png

image.png

image.png

现在我们再回到阿里云 MaxCompute SQL就可以体验新版了,点击体验新版即可打开

image.png

示例1:调用通义千问大语言模型,生成内容,我先问一下通俗的问题,比如中国有几个直辖市?How many municipalities directly under the Central Government are there in China?

调用MaxCompute提供的公共模型Qwen3-0.6B-GGUF,直接进行模型调用与内容生成。

点击新增新建一个sql文件,录入代码如下

SET odps.sql.using.public.model=true;
SELECT AI_GENERATE(bigdata_public_modelset.default.Qwen3-0.6B-GGUF,DEFAULT_VERSION,'How many municipalities directly under the Central Government are there in China');

image.png

选好项目和配额,录入相关代码,然后选择运行。

image.png

然后就变成了一个事故,一直是等待,等了好几分钟还没出结果,我咨询了官方售后,还是建议我不要用sql分析直接查,太慢了,因为sql 分析界面走的公共调度资源组,等待资源,可以在开发界面去执行,开发界面也在dataworks里,具体位置如下:https://dataworks.console.aliyun.com/workspace/list

image.png

当然也可以通过dataworks,看来我这个dataworks没有白创建,那我们接下来就看看怎么应用dataworks来调用大数据模型查询结果吧

第一步肯定是要打开dataworks链接直接给了:数据分析,选择数据分析与服务-数据分析

image.png

进入数据分析,选择sql查询,选择新增数据源

image.png

image.png

点击新增数据源选择MaxCompute,填写数据源名称(唯一)选择MaxCompute账号名称(咱们在MaxCompute创建的,默认访问身份选阿里云主账号即可,然后完成创建

image.png


然后回到sql查询页面,看到左边已经创建好相关数据源了,我们把代码录入进去,然后执行sql语句

image.png

执行完毕,有151个直辖市,可能他理解的直辖市和中国理解的不太一样,我又换了几个模型执行了一下,看看各个模型的区别

这是DeepSeek-R1-Distill-Qwen-1.5B的回答

"\nOkay, so I need to figure out how many municipalities are directly under the Central Government in China. I remember hearing that there's a hierarchy of governments in China, with the Central Government, then the Province Government, followed by the City Government, and then the District Government. \n\nLet me start by recalling what each of these levels entails. The Central Government is the top level, and its provinces are the first tier. Each province has cities and districts. So, for each province, there's a city and a district. I think the number of cities and districts varies by province, but I'm not sure exactly how many.\n\nI believe there are 22 provinces in China. Each province has at least one city and a district. So, if I multiply 22 by 2, that gives me 44. But I'm not sure if that's accurate because some provinces might have more than one city or district. I should check how many cities and districts each province has.\n\nFor example, the Shenzhen Province has two districts: Shenzhen District and Shenzhen Subdistrict. So, that's two cities and two districts. Similarly, other provinces might have multiple cities and districts. I think the total number is around 22 provinces, each with approximately two cities and two districts, making a total of about 88 municipalities. But I'm not entirely sure if this is the correct number.\n\nWait, maybe I should look up the exact numbers. I recall that the number of cities is around 50 and the number of districts is around 38. So, adding those together, that would make 88 municipalities. But I'm not entirely confident about this number because I'm not sure if the exact figures are accurate or if some provinces have more or fewer cities and districts.\n\nI think I should also consider if there are any exceptions or special cases. For example, does every province have a city and a district? I believe so, but I'm not 100% certain. Also, some provinces might have multiple cities or districts if they have a more complex administrative structure.\n\nSo, to summarize, I believe that China has about 88 municipalities directly under the Central Government. However, I'm not entirely sure if this number is accurate or if there's a more precise figure. I think it's important to note that the exact numbers can vary depending on the source, so it's best to verify this information through reliable sources"

还是不太准确。

image.png

直接来提一个量级,用DeepSeek-R1-0528-Qwen3-8B试一下,然后就是因为数据量太大报错了,任务实际消耗的内存(7680 MB)远远超过了系统最初为其规划的额度(1280 MB),导致 Worker 节点内存溢出(Out of Memory),从而被系统终止,这个也是避免内存消耗过大的一种熔断机制,同时报错日志及时给出了调整内容。

image.png

image.png

下面我们来执行一下案例2,执行代码如下:

SET odps.sql.using.public.model=true;
SELECT 
    prompt,
    AI_GENERATE(
        bigdata_public_modelset.default.Qwen3-1.7B-GGUF,
        DEFAULT_VERSION,
        concat('请对以下评论进行情感分析分类,输出结果仅限于以下三个选项之一:正面、负面、中性。待分析的评论:', prompt)
    ) AS generated_text
FROM (
    VALUES 
        ('今天天气真好,心情很不错!阳光明媚,适合出去散步。 /no_think'),
        ('今天天气真好,心情很不错!阳光明媚 /no_think'),
        ('科技发展日新月异,人工智能改变生活。 /no_think'),
        ('防控措施很到位,为医护人员点赞! /no_think'),
        ('这个商品质量很差 /no_think')
) t (prompt);


先简单说一下体验,因为这个需要调用外部数据源,同时要进行查询分析,所以时长不会太短,尤其是需要海量数据给出结果的信息,一般早1-3分钟之间,但是分析的结果大部分是正确的,只是希望后边多接入国产数据源,这样咱们的数据会更准确。

image.png

接下来,我们要通过本地客户端去调用,这里我们要本地安装一下相关客户端信息,同时我把相关步骤也放在链接里,大家可以一步一步跟着操作:本地化部署

这是github相关的地址:https://github.com/aliyun/aliyun-odps-console/releases

这是本地客户端的下载地址:下载MaxCompute客户端安装包(Github)

解压下载的安装包文件,得到binconflibplugins文件夹

image.png

进入conf文件夹,配置odps_config.ini文件。

image.png

     odps_config.ini文件中使用井号(#)作为注释。参数说明如下。

参数

是否必填

描述

示例

project_name

访问的目标MaxCompute项目名称。

如果您创建了标准模式的工作空间,在配置project_name时,请注意区分生产环境与开发环境(_dev)的项目名称,请参见必读:简单模式和标准模式的区别

您可以登录MaxCompute控制台,在工作区> 项目管理页面获取MaxCompute项目名称。

whb_test

(这是我创建的项目)

access_id

阿里云账号或RAM用户的AccessKey ID。

您可以进入AccessKey管理页面获取AccessKey ID。

这个可以直接生成获取,相当于非对称加密

access_key

AccessKey ID对应的AccessKey Secret。

您可以进入AccessKey管理页面获取AccessKey Secret。

key和id配合使用

end_point

MaxCompute服务的连接地址。

您需要根据创建MaxCompute项目时选择的地域以及网络连接方式配置Endpoint。各地域及网络对应的Endpoint值,请参见Endpoint

重要

  • Endpoint用于MaxCompute服务,Tunnel Endpoint用于MaxCompute的Tunnel服务,此处请填写Endpoint。
  • 如果Endpoint配置有误,会出现无法访问错误,请务必仔细确认。

https://help.aliyun.com/zh/maxcompute/user-guide/endpoints?spm=a2c4g.11186623.0.0.12b3f795B7KKlc#concept-m2j-h1y-5db
这是相关解析的地址,自己用的哪个地区就用哪个地区的api

log_view_host

Logview地址。您可以通过该地址查看作业的详细运行信息,并为报错处理提供依据。固定取值为:http://logview.odps.aliyun.com

说明

推荐您配置该参数,如果不配置该参数,在作业报错时无法快速定位问题。

http://logview.odps.aliyun.com

https_check

是否开启HTTPS访问机制,对访问MaxCompute项目的请求进行加密。取值范围如下:

  • True:采用HTTPS机制。
  • False:采用HTTP机制。

默认值为False。

True

data_size_confirm

输入数据量的最大值,单位为GB。取值范围无限制。推荐设置为100 GB。

100

update_url

预留参数,暂无需关注。

use_instance_tunnel

是否使用InstanceTunnel下载SQL执行结果。取值范围如下:

  • True:使用InstanceTunnel下载SQL执行结果。
  • False:不使用InstanceTunnel下载SQL执行结果。

默认值为False。

True

instance_tunnel_max_record

客户端返回的SQL执行结果的最大记录数。如果use_instance_tunnel值为True,需要配置该参数。最大值为10000。

10000

tunnel_endpoint

Tunnel服务的公网访问链接。如果您未配置Tunnel Endpoint,Tunnel会自动路由到MaxCompute服务所在网络对应的Tunnel Endpoint。如果您配置了Tunnel Endpoint,则以配置为准,不进行自动路由。

各地域及网络对应的Tunnel Endpoint值,请参见Endpoint

https://service.cn-beijing.maxcompute.aliyun.com/api

我是华北2北京,所以我选这个,这是如果上边没配置他会自动路由到这个api上,上边配了下边不太用处理

set.<key>

设置MaxCompute项目的属性。

更多属性信息,请参见属性列表

set.odps.sql.decimal.odps2=true

看下边截图,参数是打开2.0数据开关的

说明:确保上述信息配置正确,若信息配置错误,会导致项目连接失败。

这是创建key的时候的步骤,点击链接直接创建就可以了

image.png

这个是关于最后一行参数的解析,主要是打开2.0数据类型开关

image.png

调整好的参数请查收(我的id和key我就打码了)

image.png

注意:如果你的电脑没有java 8 以上的版本会提示 版本低或者no java,安装java的链接地址在这:https://www.java.com/zh-CN/download/,直接点击下载合适的java就行,下载后直接双击安装包

image.png

启动MaxCompute客户端

MaxCompute客户端可通过如下方式启动,您可以任选其中一种:

方式一:安装包的脚本文件

MaxCompute客户端安装路径下的bin文件夹中,双击odpscmd.bat文件(Windows系统)或者双击odpscmd文件(macOS系统),即可启动MaxCompute客户端。返回如下信息,表明已成功连接MaxCompute项目。启动成功

image.png

方式二:系统的命令行执行窗口

在系统的命令行执行窗口,进入MaxCompute客户端安装路径下的bin目录,执行odpscmd命令(Windows系统)或sh odpscmd(Linux系统或Mac系统),即可启动MaxCompute客户端。返回如下信息,表明已成功连接MaxCompute项目。

image.png

然后我们来执行相关sql语句试一下

SET odps.sql.using.public.model=true;
SELECT AI_GENERATE(bigdata_public_modelset.default.Qwen3-0.6B-GGUF,DEFAULT_VERSION,'what is the capital of China');

这是相关的结果代码,我就不贴图了

whb_test>SET odps.sql.using.public.model=true;
OK
whb_test>SELECT AI_GENERATE(bigdata_public_modelset.default.Qwen3-0.6B-GGUF,DEFAULT_VERSION,'what is the capital of China');
ID = 20260227013513223gba335gt0o2
Log view:
http://logview.odps.aliyun.com/logview/?h=https://service.cn-beijing.maxcompute.aliyun.com/api&p=whb_test&i=20260227013513223gba335gt0o2&token=d0lpckppQXlrMHlrdndUL093dzFVK05QcHJjPSxPRFBTX09CTzoxMDk4MjI2MTM5MTIyNDAzLDE3NzQ3NDgxMTMseyJTdGF0ZW1lbnQiOlt7IkFjdGlvbiI6WyJvZHBzOlJlYWQiXSwiRWZmZWN0IjoiQWxsb3ciLCJSZXNvdXJjZSI6WyJhY3M6b2RwczoqOnByb2plY3RzL3doYl90ZXN0L2luc3RhbmNlcy8yMDI2MDIyNzAxMzUxMzIyM2diYTMzNWd0MG8yIl19XSwiVmVyc2lvbiI6IjEifQ==
Job Queueing...
Job Queueing...
Job Queueing...
2026-02-27 09:34:48 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:34:54 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:34:59 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:35:04 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:35:09 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:35:14 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:19 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:25 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:30 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:35 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:35:39 M1_job_0:0/1/1[TERMINATED]
Summary:
resource cost: cpu 0.40 Core * Min, memory 0.50 GB * Min
inputs:
outputs:
        SQL_0_0_0_job_0:AdhocSink1: 1 (591 bytes)
------------------------------------------JOB:SQL_0_0_0_job_0------------------------------------------
Job run time: 53.844
Job run mode: fuxi job 2.0
Job run engine: execution engine
M1:
        instance count: 1
        run time: 53.751
        instance time:
                min: 24.193, max: 24.193, avg: 24.193
        input records:
        input bytes:
        output records:
                AdhocSink1: 1  (min: 1, max: 1, avg: 1)
        output bytes:
                AdhocSink1: 591  (min: 591, max: 591, avg: 591)
        metrics_output_count:
                AdhocSink1: 1  (min: 1, max: 1, avg: 1)
                Project1: 1  (min: 1, max: 1, avg: 1)
                Values1: 1  (min: 1, max: 1, avg: 1)
        metrics_inner_time_ms:
                AdhocSink1: 46  (min: 46, max: 46, avg: 46)     MaxInstance: 0
                GlobalInit: 970  (min: 970, max: 970, avg: 970) MaxInstance: 0
                Project1: 8887  (min: 8887, max: 8887, avg: 8887)       MaxInstance: 0
                Values1: 0  (min: 0, max: 0, avg: 0)    MaxInstance: 0
+------------+
| _c0        |
+------------+
| "The capital of China is **Beijing**." |
+------------+
A total of 1 records fetched by instance tunnel. Max record number: 10000

然后我们再做一个情感分析的,调用1.7B试一下,当然这些代码我也可以自己组织,用官方数据少一些错误,避免调sql语句的时候报错

whb_test>SET odps.sql.using.public.model=true;
SELECT
    prompt,
    AI_GENERATE(
        bigdata_public_modelset.default.Qwen3-1.7B-GGUF,
        DEFAULT_VERSION,
        concat('请对以下评论进行情感分析分类,输出结果仅限于以下三个选项之一:正面、负面、中性。待分析的评论:', prompt)
    ) AS generated_text
FROM (
    VALUES
        ('今天天气真好,心情很不错!阳光明媚,适合出去散步。 /no_think'),
        ('今天天气真好,心情很不错!阳光明媚 /no_think'),
        ('科技发展日新月异,人工智能改变生活。 /no_think'),
        ('防控措施很到位,为医护人员点赞! /no_think'),
        ('这个商品质量很差 /no_think')
OK
whb_test>>>>>>>>>>>>>>>) t (prompt);

ID = 20260227014054816grz394kh2kd4
Log view:
http://logview.odps.aliyun.com/logview/?h=https://service.cn-beijing.maxcompute.aliyun.com/api&p=whb_test&i=20260227014054816grz394kh2kd4&token=aE8xbm1DaGhScXpKQlpyZThpOTRsa1cvOFlrPSxPRFBTX09CTzoxMDk4MjI2MTM5MTIyNDAzLDE3NzQ3NDg0NTUseyJTdGF0ZW1lbnQiOlt7IkFjdGlvbiI6WyJvZHBzOlJlYWQiXSwiRWZmZWN0IjoiQWxsb3ciLCJSZXNvdXJjZSI6WyJhY3M6b2RwczoqOnByb2plY3RzL3doYl90ZXN0L2luc3RhbmNlcy8yMDI2MDIyNzAxNDA1NDgxNmdyejM5NGtoMmtkNCJdfV0sIlZlcnNpb24iOiIxIn0=
Job Queueing...
Job Queueing...
Job Queueing...
2026-02-27 09:40:30 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:35 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:40 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:45 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:50 M1_job_0:0/0/1[RUNNING]
2026-02-27 09:40:55 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:01 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:06 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:11 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:16 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:21 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:26 M1_job_0:1/0/1[RUNNING]
2026-02-27 09:41:31 M1_job_0:0/1/1[TERMINATED]
Summary:
resource cost: cpu 0.58 Core * Min, memory 0.72 GB * Min
inputs:
outputs:
        SQL_0_0_0_job_0:AdhocSink1: 5 (1289 bytes)
------------------------------------------JOB:SQL_0_0_0_job_0------------------------------------------
Job run time: 62.512
Job run mode: fuxi job 2.0
Job run engine: execution engine
M1:
        instance count: 1
        run time: 62.396
        instance time:
                min: 34.782, max: 34.782, avg: 34.782
        input records:
        input bytes:
        output records:
                AdhocSink1: 5  (min: 5, max: 5, avg: 5)
        output bytes:
                AdhocSink1: 1289  (min: 1289, max: 1289, avg: 1289)
        metrics_output_count:
                AdhocSink1: 5  (min: 5, max: 5, avg: 5)
                Project1: 5  (min: 5, max: 5, avg: 5)
                Values1: 5  (min: 5, max: 5, avg: 5)
        metrics_inner_time_ms:
                AdhocSink1: 60  (min: 60, max: 60, avg: 60)     MaxInstance: 0
                GlobalInit: 3739  (min: 3739, max: 3739, avg: 3739)     MaxInstance: 0
                Project1: 12004  (min: 12004, max: 12004, avg: 12004)   MaxInstance: 0
                Values1: 0  (min: 0, max: 0, avg: 0)    MaxInstance: 0
+------------+----------------+
| prompt     | generated_text |
+------------+----------------+
| 今天天气真好,心情很不错!阳光明媚,适合出去散步。 /no_think | "正面"           |
| 今天天气真好,心情很不错!阳光明媚 /no_think | "正面"           |
| 科技发展日新月异,人工智能改变生活。 /no_think | "正面"           |
| 防控措施很到位,为医护人员点赞! /no_think | "正面"           |
| 这个商品质量很差 /no_think | "负面"           |
+------------+----------------+
A total of 5 records fetched by instance tunnel. Max record number: 10000

本地部署完美完成,接下来我们就来个小总结,然后再把相关资源释放掉,费用这一块我就自己承担了,毕竟是老用户了,阿里云用了五六年了

总结如下:

通过使用不同开发工具的适用场景,表格分析如下

工具 适用场景 关键特点/痛点
DataWorks SQL分析 快速查询、小数据量分析 注意:公共调度资源组可能较慢,不适合执行耗时较长的AI推理任务。
DataWorks 数据开发 推荐。专业的数据开发、周期调度、复杂ETL 需创建DataWorks工作空间并绑定MaxCompute数据源。资源隔离性好,适合正式开发。
本地客户端 (odpscmd) 命令行爱好者、脚本集成、批量管理 需配置odps_config.ini文件(project_nameaccess_idend_point等关键信息)需安装Java 8+

公共模型调用:调用公共模型(如Qwen3-0.6B-GGUF)时,必须先在SQL中设置开关SET odps.sql.using.public.model=true;。

资源消耗:大模型推理消耗计算资源。你遇到的“任务等待”或“内存溢出”报错,正是公共资源池排队和复杂任务资源估算的体现。建议在DataWorks开发环境中使用独立的资源组执行。

结果准确性:不同模型对同一问题的回答可能存在差异。对于需要精确数据的问题(如“中国有几个直辖市”),大模型可能不如传统SQL查询准确。而情感分析等自然语言理解任务,大模型表现出色。

ODPS(MaxCompute)已经从单纯的数据仓库演变为一个 “Data+AI”一体化的云原生数据平台。

对开发者:它最大的价值在于降低了AI应用的门槛。你不再需要维护复杂的GPU集群,也不再需要编写繁琐的模型调用代码。通过熟悉的SQL,就能直接使用最前沿的大模型能力。

对业务:它让数据分析和AI模型推理能够在同一平台上完成,避免了数据搬移带来的成本和安全风险,真正实现了“数据在哪里,计算就在哪里”。

非常适合大家来使用,希望更多的人试用阿里云的ai应用,更多的可以从这里进去:一站式轻松搭建企业级 AI Agent

接下来,我们要开始释放资源了

第一步先进入MaxCompute控制台:https://maxcompute.console.aliyun.com/cn-beijing/overview,选择项目管理然后删除项目

image.png

第二步进入DataWorks控制台的空间工作列表:https://dataworks.console.aliyun.com/workspace/list,删除工作空间

image.png

然后key这个可以保留或者删除,这个不占用资源,咱们可以自行处理,时间长了也就冻结了,这是地址:https://ram.console.aliyun.com/profile/access-keys

image.png

最后我们看这种按量付费昨天试用后一共消耗了多少资源,第一个是包月的dataworks,这个没有用资源是免费的0,maxcompute也是0,可能按量付费还没出来,也可能我用的资源太少了,不够这个额度,好像是1个G8毛钱,很感谢大家的阅览,也希望大家多多学习,多多了解最新的ai行业动态。

image.png

image.png

目录
相关文章
|
20天前
|
SQL 人工智能 分布式计算
关于阿里云 ODPS(MaxCompute)的全面介绍和应用
不忘初心,方得始终,终身学习,终身收益。
351 1
|
20天前
|
机器学习/深度学习 人工智能 自然语言处理
以小胜大!千问Qwen3.5重磅发布,每百万Token仅0.8元
阿里巴巴开源全新一代千问Qwen3.5-Plus:全球最强开源大模型,3970亿参数、仅激活170亿,原生多模态,支持图文视频理解与长视频分析;推理吞吐量最高提升19倍,API价格低至0.8元/百万Token。
以小胜大!千问Qwen3.5重磅发布,每百万Token仅0.8元
|
19天前
|
人工智能 API
重磅!阿里云Coding Plan全面上线Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5
阿里云Coding Plan上线Qwen3.5、GLM-5、M2.5、K2.5四大顶尖开源模型,支持Qwen Code等工具自由切换。Lite/Pro套餐首月仅7.9元/39.9元,分别享1.8万/9万次请求。Qwen3.5以397B总参、17B激活参数实现高性价比,全面优化编程与Agent能力。
|
6天前
|
人工智能 安全 API
从零到一玩转 OpenClaw:1分钟部署、阿里云百炼API配置与 Skills 拓展及问题解答
OpenClaw(前身为Clawdbot、Moltbot)作为2026年热门的开源AI自动化工具,凭借自然语言驱动、多场景适配的核心优势,在个人办公与中小企业协同中得到广泛应用。很多用户部署后发现其仅能满足基础交互需求,核心原因在于未配置针对性的Skills(技能插件)。本文将完整覆盖本地多系统(MacOS/Linux/Windows11)部署、阿里云云端部署、阿里云百炼API配置、Skills安装与分类推荐、常见问题排查等核心内容,所有操作步骤均经过实测验证,代码可直接复制使用,帮助用户快速搭建功能完善的OpenClaw环境。
260 4
|
17天前
|
存储 弹性计算 人工智能
2026最新阿里云服务器一年价格:轻量、ECS云服务器和GPU全机型报价单
2026年阿里云服务器最新报价与省钱指南:轻量服务器低至38元/年(新用户秒杀),ECS普惠款99元起;详解5大实测技巧——抢新客权益、选多年付(3年省40%+)、避坑按量付费、叠加优惠券、按需选配。个人、学生、中小企业及企业用户均可精准控本,低成本上云。
427 6
|
1月前
|
监控 安全 测试技术
GPT-4o 下线 24 小时:3 类线上问题会集中爆发
2026年2月13日起,ChatGPT将退役GPT-4o等旧模型,企业用户可延用至4月3日;API暂不变。此举倒逼测试从业者的模型生命周期管理、行为回归、风格可控性验证及合规边界测试能力升级——大模型正从“稳定依赖”变为“动态运行时”。
|
2月前
|
人工智能 Java API
阿里 Assistant Agent 开源,助力开发者快速构建答疑、诊断智能助手
Assistant Agent 是一个基于 Spring AI Alibaba 构建的企业级智能助手框架,采用代码即行动(Code-as-Action)范式,通过生成和执行代码来编排工具、完成任务。它是一个能理解、能行动、能学习的智能助手解决方案,可帮助企业快速构建智能答疑客服、系统诊断、运维助手、业务助理、AIOps 等智能体。
阿里 Assistant Agent 开源,助力开发者快速构建答疑、诊断智能助手
|
20天前
|
数据采集 人工智能 自然语言处理
OpenClaw部署接入MiniMax等模型太费Token(rmb)了!OpenClaw自进化指南:让AI助理“自己养活自己”
2026年,OpenClaw(原Clawdbot)已从基础AI助手进化为可“自我成长”的数字员工——它不仅能执行预设任务,还能通过自动安装技能、扩展服务、切换模型,实现“自己养活自己”。但很多用户在使用中面临两大痛点:一是部署流程复杂,二是长期使用成本高(如MiniMax模型单日消耗可达9元)。
2226 1

热门文章

最新文章