开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

MaxCompute处理后的数据sparkonmc支持么?

MaxCompute处理后的数据sparkonmc支持么?spark读取mc数据之后转成pdf对象,然后foreach写入到oss里面

展开
收起
冰激凌甜筒 2023-04-19 10:19:44 1389 0
25 条回答
写回答
取消 提交回答
  • 是的,阿里云MaxCompute处理后的数据可以通过SparkOnMaxCompute进行处理。SparkOnMaxCompute是一种在MaxCompute上运行Spark作业的技术,它提供了完全兼容的Spark API,使得用户可以使用Spark生态系统中的各种工具和库来处理MaxCompute中的数据。

    2023-05-31 11:12:41
    赞同 1 展开评论 打赏
  • 无所不能的蛋蛋

    MaxCompute是阿里云提供的一个云原生大数据计算平台,支持SQL、Java和Python等多种编程语言。而SparkOnMaxCompute是MaxCompute的一个生态项目,是由MaxCompute与Spark生态互通的体现,支持使用Spark提交MaxCompute作业、使用MaxCompute读写Spark数据源、使用MaxCompute计算分布式SQL等功能。

    在SparkOnMaxCompute中,可以使用Spark读取MaxCompute中的表数据,也可以将表数据存储到MaxCompute中。然而,Spark与MaxCompute之间存在一些差异,主要在于数据类型、数据分区、数据格式和数据存储等方面。因此,需要在使用SparkOnMaxCompute时,特别注意一些问题,确保数据格式的兼容性。

    在您的应用程序中,您可以使用Spark读取MaxCompute中的表数据,将其转换为PDF对象,然后通过ForeachPartition或Foreach分区操作将PDF对象写入到OSS中。

    2023-05-27 10:38:25
    赞同 展开评论 打赏
  • 公众号:网络技术联盟站,InfoQ签约作者,阿里云社区签约作者,华为云 云享专家,BOSS直聘 创作王者,腾讯课堂创作领航员,博客+论坛:https://www.wljslmz.cn,工程师导航:https://www.wljslmz.com

    是的,阿里云MaxCompute处理后的数据可以通过Spark on MaxCompute(SparkonMaxCompute)进行读取和处理。Spark on MaxCompute是一种在MaxCompute上运行的Spark服务,可以通过Spark API对MaxCompute中存储的数据进行查询和计算。

    在将处理后的数据写入OSS时,可以使用saveAsHadoopFilesaveAsTextFile等Spark RDD的输出方法。具体操作步骤如下:

    1. 将MaxCompute中的数据读取到Spark RDD中。
    val df = spark.read.format("jdbc")
        .option("url", "jdbc:dm://<endpoint>:<port>/<db>")
        .option("driver", "com.aliyun.odps.jdbc.OdpsDriver")
        .option("dbtable", "<table>")
        .option("user", "<accessKeyId>")
        .option("password", "<accessKeySecret>")
        .load()
    
    // 进行数据转换和处理
    val res = df.select($"column1", $"column2").filter($"column3" > 10)
    
    1. 将处理后的数据进行输出。
    res.rdd.saveAsTextFile("oss://bucket/path/filename")
    
    // 或者使用saveAsHadoopFile方法
    res.rdd.saveAsHadoopFile(
        "oss://bucket/path/filename",
        classOf[Text],
        classOf[TextOutputFormat[Text, Text]]
    )
    

    其中,第一个参数为OSS中的路径,第二个参数为输出文件的格式,第三个参数为输出文件的格式对应的OutputFormat。

    写入OSS时需要先将数据转换成正确的格式,比如将DataFrame转换成RDD,然后使用saveAsTextFilesaveAsHadoopFile方法进行输出。

    2023-05-26 16:50:16
    赞同 展开评论 打赏
  • 从事java行业8年至今,热爱技术,热爱以博文记录日常工作,csdn博主,座右铭是:让技术不再枯燥,让每一位技术人爱上技术

    你好,可以通过Spark读取MaxCompute数据,然后再将读取的MaxCompute数据转化成pdf,最后存入阿里云对象存储OSS中,关于Spark中进行MaxCompute数据的读写操作的详细内容可以参考文档:文档

    2023-05-23 17:45:42
    赞同 展开评论 打赏
  • 发表文章、提出问题、分享经验、结交志同道合的朋友

    有个方案可以参考下:Spark On MC支持Spark读取MaxCompute数据,可以使用Spark SQL或DataFrame API来读取MaxCompute中的数据,然后使用PDF模板和输出流将结果写入到oss中。

    2023-05-19 14:31:08
    赞同 展开评论 打赏
  • MaxCompute 是阿里云提供的一种大数据计算服务,主要用于海量数据的批处理和低延迟的交互式分析。SparkOnMaxCompute(Spark on Alibaba Cloud MaxCompute)是基于 MaxCompute 平台开发的 Spark 机器学习框架,可以提供在 MaxCompute 集群中运行 Spark SQL、DataFrames、MLlib 和 GraphX 应用程序的能力。

    由于 SparkOnMaxCompute 是基于 MaxCompute 平台开发的,因此可以很好地支持从 MaxCompute 中读取数据,并进行相关计算和分析。同时,Spark 也提供了与对象存储(OSS)交互的 API,因此可以将 Spark 处理后的结果写入到 OSS 中。

    具体实现方法如下:

    1. 首先需要读取 MaxCompute 中的数据,可以使用 SparkOnMaxCompute 的 API 或者 Spark 中的 Hadoop 输入格式读取 MaxCompute 中的数据。

    2. 把数据转换成 PDF 对象,可以使用第三方库进行转换,如 iText 等。转换过程中需要对数据进行格式化、排版等操作,以满足输出要求。

    3. 将 PDF 对象写入到 OSS 中,可以使用 Spark 中提供的 OSS 输出格式来实现。通过配置 OSS 的相关参数,可以实现数据的上传和存储。

    需要注意的是,由于计算和存储的数据量较大,可能会对计算和存储资源造成一定的压力,因此需要对计算资源和存储资源进行适当的调整和优化,以保证计算和存储的效率和稳定性。如果处理过程中出现异常或者问题,需要适时地进行排查和调试,以保证处理效果和结果的正确性和完整性。

    2023-05-19 09:12:45
    赞同 展开评论 打赏
  • 在MaxCompute中处理的数据可以被SparkOnMaxCompute支持。SparkOnMaxCompute是在MaxCompute中可直接运行的Spark服务,它可以将MaxCompute中的数据读入到Spark中进行分析处理和计算,具有并行计算和高效性能等优势。

    要在SparkOnMaxCompute中读取MaxCompute数据,可以使用MaxCompute提供的Spark接口,并通过Spark的DataFrame API来进行读取和处理。例如,以下是一个使用SparkOnMaxCompute读取MaxCompute表数据并转换成DataFrame的示例代码:

    
    import org.apache.spark.sql.SparkSession
    
    val spark = SparkSession.builder()
        .config("spark.hadoop.odps.project.name", [project_name])
        .config("spark.hadoop.odps.access.id", [access_id])
        .config("spark.hadoop.odps.access.key", [access_key])
        .config("spark.hadoop.odps.end.point", [end_point])
        .getOrCreate()
    
    val df = spark.read
        .format("maxcompute")
        .option("odpsUrl", [odps_url])
        .option("tunnelServer", [tunnel_server])
        .option("project", [project_name])
        .option("accessKeyId", [access_id])
        .option("accessKeySecret", [access_secret])
        .option("table", [table_name])
        .load()
    

    其中,需要替换的参数包括:

    [project_name]: MaxCompute 项目名称。 [access_id]: MaxCompute 账号的 AccessKey ID。 [access_key]: MaxCompute 账号的 AccessKey Secret。 [end_point]: MaxCompute 访问地址。 [odps_url]: MaxCompute 访问地址。 [access_secret]: MaxCompute 账号的 AccessKey Secret。 要将数据写入OSS,也可以使用Spark的DataFrame API或RDD API来进行操作。例如,以下是一个使用DataFrame API将数据写入到OSS中的示例代码:

    df.write
        .option("delimiter", "|")
        .option("quoteMode", "NONE")
        .option("nullValue", "NULL")
        .csv("oss://[bucket_name]/[path]/[filename]")
    

    其中需要替换的参数为:

    [bucket_name]: OSS 中的 Bucket 名称。 [path]: OSS 中的数据存储路径。 需要注意的是,在向OSS写入数据时,需要先将SparkOnMaxCompute的结果数据存储到OSS的本地节点,再逐个文件进行上传。建议根据实际情况进行数据划分和上传操作,以提高效率和性能。

    2023-05-19 09:06:23
    赞同 展开评论 打赏
  • 天下风云出我辈,一入江湖岁月催,皇图霸业谈笑中,不胜人生一场醉。
    1. Spark读取MaxCompute中的数据
    2. 将数据处理成PDF对象
    3. 将PDF对象写入OSS 这可以通过以下步骤实现:
    4. 在sparkonmc中配置MaxCompute项目相关信息,用于访问MaxCompute数据和资源。
    5. 使用Spark SQL或MaxComputeSystem.loadFromMC读取MaxCompute中的数据。
    6. 使用PDF相关库(如PDFBox)将DataFrame处理转换为PDF内容。
    7. 使用OSS相关库(如Spark on AliCloud OSS)将PDF内容上传至OSS。
    2023-05-18 16:08:44
    赞同 展开评论 打赏
  • MaxCompute处理的数据可以通过MaxCompute SparkOnMCS进行处理。SparkOnMCS是MaxCompute提供的一种开放式云原生计算平台,支持使用Spark生态进行大数据处理和分析。通过SparkOnMCS,您可以在MaxCompute中使用Spark SQL或者Spark RDD等API处理经过MaxCompute处理的数据。

    SparkOnMCS提供了完整的Spark集群和Hadoop生态环境,无需自行搭建集群,只需要准备好数据,上传到MaxCompute对应的ODPS表中,即可通过SparkOnMCS进行处理。通过SparkOnMCS,您还可以使用MaxCompute提供的高可用、安全、权限管理等服务,更加便捷地进行大数据计算和分析。

    需要注意的是,使用SparkOnMCS进行数据处理时,需要将Spark作业代码编写为符合SparkOnMCS计算模型的方式,同时还需要按照MaxCompute SparkOnMCS的要求,对代码进行打包、上传等操作,具体可参考官方文档进行操作。

    2023-05-18 11:39:15
    赞同 展开评论 打赏
  • MaxCompute处理后的数据可以通过SparkOnMaxCompute(SparkonMC)进行读取和处理。在SparkonMC中,可以使用Spark的API来对MaxCompute中的数据进行处理,并将处理后的结果写入到MaxCompute中或其他存储介质中,包括OSS。 具体来说,可以使用Spark的DataFrame API或Dataset API来读取和处理MaxCompute中的数据。读取MaxCompute数据的方式如下所示:

    
    
    import org.apache.spark.sql.SparkSession
    val spark = SparkSession
      .builder()
      .appName("Read from MaxCompute")
      .getOrCreate()
    // 读取MaxCompute表
    val df = spark.read.format("jdbc")
      .option("url", "jdbc:odps:xxx")
      .option("database", "xxx")
      .option("user", "xxx")
      .option("password", "xxx")
      .option("dbtable", "xxx")
      .load()
    

    在处理完数据之后,将结果写入到OSS中的方式如下所示:

    
    
    import org.apache.spark.sql.SaveMode
    // 将数据保存到OSS
    df.write.mode(SaveMode.Overwrite)
      .format("csv")
      .option("header", "true")
      .option("delimiter", ",")
      .save("oss://bucket/object")
    

    需要注意的是,将数据写入到OSS的时候,需要使用OSS的Spark Connector,具体可以参考阿里云官方文档。同时,需要确保Spark版本和Spark Connector版本的兼容性。

    2023-05-17 23:39:14
    赞同 展开评论 打赏
  • 云端行者觅知音, 技术前沿我独行。 前言探索无边界, 阿里风光引我情。

    SparkOnMC是一个基于Spark的分布式计算框架,可以用于处理MaxCompute处理后的数据。SparkOnMC支持使用Spark对MaxCompute处理后的数据进行数据分析、机器学习等处理。

    对于您提到的情况,SparkOnMC支持将处理后的数据转换为PDF对象并将其写入到OSS中。您可以使用SparkOnMC中的PDF生成器API生成PDF文件,然后使用OSS客户端将PDF文件写入到OSS中。具体实现方式可以参考SparkOnMC的文档和示例代码。

    另外,如果您想要将处理后的数据写入到OSS中,也可以使用SparkOnMC的写入OSS的API进行写入。例如,您可以使用SparkOnMC中的BucketingOutputStream将数据写入到OSS中。

    2023-05-17 19:42:35
    赞同 展开评论 打赏
  • 在MaxCompute中处理的数据可以通过Spark on MaxCompute(SparkOnMaxCompute)进行读取和处理。SparkOnMaxCompute是一种在MaxCompute上运行Spark作业的服务,它可以让您使用Spark的编程模型和功能来处理MaxCompute中的数据。

    2023-05-17 15:16:40
    赞同 展开评论 打赏
  • 在MaxCompute中处理过的数据可以使用Spark on MaxCompute (SparkSQL for ODPS) 读取和处理。

    读取MaxCompute表:在Spark on MaxCompute中,可以通过类似于传统Spark SQL的方式来读取MaxCompute中的表,并进行相关的计算和分析操作。具体来说,可以使用odps://project_name/这种URL方式来指定要读取的MaxCompute表的位置,然后利用SparkSQL提供的API进行查询和数据处理。

    将数据写入OSS:在Spark on MaxCompute中,可以使用以下代码将数据写入OSS:

    df.write.mode('overwrite').parquet('oss://bucket/path/to/folder') 其中,df是已经处理好的DataFrame对象,mode('overwrite')表示覆盖写入模式,parquet表示写入文件格式,'oss://bucket/path/to/folder'是OSS目标路径。

    需要注意的是,在将数据写入OSS前,需要先对数据进行序列化,例如将DataFrame对象转换为PDF对象或其他适合的格式。另外,还需要对访问OSS的权限进行设置,确保能够正常地读写数据。

    总之,Spark on MaxCompute支持读取MaxCompute中的表,并且可以将计算结果写入到OSS中。建议根据实际需求选择合适的数据格式和存储方式,并参考相关文档进行操作。

    2023-05-16 15:23:00
    赞同 展开评论 打赏
  • 支持,可以使用Spark on MaxCompute(SparkOnMaxCompute)读取已在MaxCompute中进行处理的数据,并将其转换为PDF对象,最后写入OSS中

    2023-05-16 15:06:23
    赞同 展开评论 打赏
  • 值得去的地方都没有捷径

    是的,Spark on MaxCompute (Spark SQL) 支持读取MaxCompute中的数据,并将其转换为DataFrame或RDD。您可以使用以下代码将MaxCompute中的数据读取为DataFrame:

    import org.apache.spark.sql.SparkSession val spark = SparkSession.builder().appName("Read from MaxCompute").getOrCreate() val df = spark.read.format("maxcompute").option("project", "your_project_name").option("table", "your_table_name").load() scala 其中,"your_project_name"和"your_table_name"分别为您的MaxCompute项目名和表名。通过这种方式,您可以将MaxCompute中的数据读取为DataFrame,并进行后续的处理。

    在将DataFrame写入OSS时,您可以使用foreachPartition()方法,将每个分区的数据写入OSS。具体来说,您可以使用以下代码将DataFrame写入OSS:

    import org.apache.spark.sql.Row import com.aliyun.oss.OSSClient import java.util.Properties val props = new Properties() props.load(this.getClass.getClassLoader.getResourceAsStream("oss.properties")) val accessKeyId = props.getProperty("accessKeyId") val accessKeySecret = props.getProperty("accessKeySecret") val endpoint = props.getProperty("endpoint") val bucketName = props.getProperty("bucketName") val ossClient = new OSSClient(endpoint, accessKeyId, accessKeySecret) df.foreachPartition(rows => { val iter = rows.map(row => { val col1 = row.getAsString val col2 = row.getAsString // ... val content = s"$col1,$col2,..." val key = s"${System.currentTimeMillis()}" (key, content) }) val buffer = new java.util.ArrayList[(String, String)] while (iter.hasNext) { buffer.add(iter.next()) } val iter2 = buffer.iterator() while (iter2.hasNext) { val (key, content) = iter2.next() val bytes = content.getBytes("UTF-8") ossClient.putObject(bucketName, key, new ByteArrayInputStream(bytes)) } }) scala 其中,您需要将"oss.properties"文件中的"accessKeyId"、“accessKeySecret”、"endpoint"和"bucketName"替换为您自己的OSS配置信息。在foreachPartition()方法中,我们将DataFrame中每个分区的数据转换为一个元组,其中第一个元素为OSS对象的Key,第二个元素为对象的内容。然后,我们将这些元组放入一个ArrayList中,并使用Java迭代器将其写入OSS。这样,就可以将DataFrame中的数据写入到OSS中了。

    2023-05-16 15:00:23
    赞同 展开评论 打赏
  • Spark可以通过读取MaxCompute的数据源,将数据转换成DataFrame或RDD对象,然后对这些对象进行操作和分析。在读取MaxCompute数据源时,可以使用Spark的MaxCompute数据源插件,也可以使用Spark的JDBC连接器。如果使用MaxCompute数据源插件,需要配置一些参数,例如MaxCompute的Endpoint、AccessKey、SecretKey、Project和Table等信息,然后通过Spark的API读取数据。

    读取MaxCompute数据后,可以将数据转换成DataFrame或RDD对象,然后进行各种操作,例如过滤、聚合、排序、分组等。最后可以将处理后的数据写入到OSS里面,可以使用Spark的API将DataFrame或RDD写入到OSS的对象中。

    示例代码如下:

    import org.apache.spark.sql.SparkSession
    
    // 创建SparkSession对象
    val spark = SparkSession.builder()
      .appName("SparkOnMC")
      .getOrCreate()
    
    // 读取MaxCompute数据源
    val df = spark.read
      .format("com.aliyun.odps.spark2")
      .option("odps.url", "http://service.odps.aliyun.com/api")
      .option("odps.access.id", "YOUR_ACCESS_ID")
      .option("odps.access.key", "YOUR_ACCESS_KEY")
      .option("odps.project.name", "YOUR_PROJECT_NAME")
      .option("odps.table.name", "YOUR_TABLE_NAME")
      .load()
    
    // 将DataFrame写入到OSS对象
    df.write
      .format("parquet")
      .option("header", "true")
      .mode("overwrite")
      .save("oss://YOUR_BUCKET_NAME/YOUR_OBJECT_NAME")
    
    

    MaxCompute和OSS都是阿里云的云服务,需要在同一区域内使用,否则可能会出现额外的数据传输费用。同时,需要根据实际情况调整读写数据的本地性级别,尽量减少网络开销。

    2023-05-16 14:53:39
    赞同 展开评论 打赏
  • 月移花影,暗香浮动

    Spark on MaxCompute是阿里云MaxCompute提供的新型数据处理方式,支持以类似本地Spark方式处理MaxCompute中的数据。Spark on MaxCompute 中,可以将MaxCompute表数据读取到Spark DataFrame中并进行操作,最后将结果写回到MaxCompute表中,也可以将结果写到其他数据源如OSS、OTS等。

    所以根据你的需求,可以在Spark on MaxCompute中将读取到的MaxCompute表数据转化成Spark DataFrame对象,并进行操作,最后再将结果写入到OSS中即可。

    需要注意的是,在将处理结果写入到OSS时,最好将结果保存为Hadoop文件格式(如Parquet、ORC等),因为当有大量小文件存在时,OSS的性能会受到影响。可以考虑使用Apache Spark中的coalescerepartition方法将数据减少为更少的文件,再将它们存储在OSS上进行优化。

    2023-05-16 11:26:40
    赞同 展开评论 打赏
  • 是的,MaxCompute通过Spark on MaxCompute(Spark SQL支持MaxCompute)提供了一种基于Spark的数据处理方式。在Spark on MaxCompute中,用户可以使用Spark SQL直接在MaxCompute中处理数据,利用Spark的分布式计算能力进行复杂的数据分析和处理。

    Spark on MaxCompute提供了MaxCompute Connector,可以将MaxCompute数据直接加载到Spark中进行分析和处理。用户可以在Spark中使用Spark SQL来操作MaxCompute中的数据表,实现MaxCompute和Spark平台数据的互通。

    另外,由于Spark是分布式计算框架,在处理数据时具有较高的计算性能和并发处理能力。因此,使用Spark on MaxCompute可以有效提高MaxCompute数据的计算和分析效率,使数据处理更加灵活高效。

    需要注意的是,在使用Spark on MaxCompute时,需要先在MaxCompute中创建好需要处理的数据表,并通过Spark SQL语句对数据进行操作。同时,根据实际情况,需要对应配置好数据源连接和配置参数,以保证数据处理的正确性和效率。

    2023-05-16 11:08:57
    赞同 展开评论 打赏
  • 十分耕耘,一定会有一分收获!

    楼主你好,MaxCompute处理后的数据可以在Spark on MaxCompute(SparkOnMC)中使用。您可以将MaxCompute表转换为Spark DataFrame,并对其进行操作和分析,然后再保存到OSS中。下面是一个示例代码:

    # 导入必要的库
    from odps import ODPS
    from pyspark.sql import SparkSession
    
    # 创建ODPS连接
    odps = ODPS(access_id='_access_id&gt;', access_key='_access_key&gt;', project='_project_name&gt;',
                endpoint='_endpoint&gt;')
    
    # 使用SparkSession创建SparkOnMC上下文
    spark = SparkSession \
        .builder \
        .appName('example_app') \
        .master('yarn') \
        .config('spark.hadoop.odps.project.name', '_project_name&gt;') \
        .config('spark.hadoop.odps.access.id', '_access_id&gt;') \
        .config('spark.hadoop.odps.access.key', '_access_key&gt;') \
        .config('spark.hadoop.odps.end.point', '_endpoint&gt;') \
        .config('spark.sql.shuffle.partitions', '5') \
        .getOrCreate()
    
    # 将MaxCompute表转换为Spark DataFrame
    df = spark.read.format('jdbc').options(
            url='jdbc:odps:_endpoint&gt;/_project_name&gt;',
            driver='com.aliyun.odps.jdbc.OdpsDriver',
            dbtable='_table_name&gt;',
            user='_access_id&gt;',
            password='_access_key&gt;'
        ).load()
    
    # 对DataFrame进行必要的转换和操作
    pdf = df.toPandas()  # 转成pandas对象
    
    # 将DataFrame保存到OSS中,这里假设目标路径为oss://_bucket_name&gt;/_path&gt;
    pdf.to_csv('oss://_bucket_name&gt;/_path&gt;', index=False)
    

    需要注意的是,SparkOnMC中可能会存在一些限制和差异,具体请参考官方文档。另外,保存到OSS时也需要保证足够的权限和空间。

    2023-05-16 09:49:30
    赞同 展开评论 打赏
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    是的,MaxCompute处理后的数据可以通过SparkOn MaxCompute(以下简称sparkonmc)进行进一步处理和分析。

    SparkOn MaxCompute是阿里云推出的一项新型大数据计算服务,它将Apache Spark框架与MaxCompute存储引擎相结合,提供了一种高效、低成本、易于使用的数据分析平台。用户可以使用SparkOn MaxCompute来快速进行大规模数据分析和机器学习等任务,而无需购买和维护Spark集群。

    在SparkOn MaxCompute中,用户可以通过Spark SQL或DataFrame API来访问MaxCompute中的表,对其进行SQL查询、数据清洗、特征工程、机器学习等操作。由于SparkOn MaxCompute基于Spark框架开发,因此它具有与Spark相同的特点,如易于扩展、支持多种编程语言、支持复杂的数据处理操作等。

    需要注意的是,在使用SparkOn MaxCompute时,由于底层存储引擎是MaxCompute,因此不同于传统的Spark集群,需要遵循一些限制和要求,例如不能使用自定义的UDF函数、不能直接访问MaxCompute外部资源等。同时,SparkOn MaxCompute也提供了一些专门针对MaxCompute的优化策略,以提高计算性能和降低成本。

    总之,SparkOn MaxCompute是一种高性能、高可靠性、易于使用的大数据分析平台,能够为MaxCompute用户提供更多的数据处理和分析功能。

    2023-05-15 22:39:17
    赞同 展开评论 打赏
滑动查看更多

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 相关电子书

    更多
    大数据AI一体化的解读 立即下载
    极氪大数据 Serverless 应用实践 立即下载
    大数据&AI实战派 第2期 立即下载