• 关于

    yarn-cluster

    的搜索结果

问题

yarn模式下 一个flink-cluster就是一个yarn-cluster吗 pe #Flink

yarn模式下 一个flink-cluster就是一个yarn-cluster吗 per-job模式下一个yarn-cluster只能有一个job? 还是说一个yarn-cluster可以对应多个flink-cluster&#...
黄一刀 2020-06-03 20:32:19 4 浏览量 回答数 1

回答

我也遇到了楼主同样的报错,我这边是因为flink 配置文件 flink-conf.yaml 中 配置了 high-availability.cluster-id: /cluster_one,这时如果使用同一个配置文件启动多个flink yarn session,会导致 high-availability.cluster-id 冲突,解决方法是:1.去掉该配置项 high-availability.cluster-id: /cluster_one。2.每启动一个flink yarn session之前,修改 high-availability.cluster-id的值为不同的值,然后同步配置文件到整个集群中
夏目同学 2019-12-02 01:47:01 0 浏览量 回答数 0

回答

如果在yarn群集上运行作业,则可以运行以下命令: spark-submit --master yarn --jars --conf --name 例如: spark-submit --master yarn --jars example.jar --conf spark.executor.instances=10 --name example_job example.py arg1 arg2因为mnistOnSpark.py你应该传递上面命令中提到的参数。 spark submit认为你正试图通过--cluster_mode s park 工作。
社区小助手 2019-12-02 01:46:28 0 浏览量 回答数 0

阿里云高校特惠,助力学生创业梦!0元体验,快速入门云计算!

建个炫酷的简历网页,制作一个浪漫的表白网页,打造个人专属网盘,多种动手场景应用免费学!!!

问题

请问下我spark-submit指定yarn模式为什么还是运行在本地?

请问下我spark-submit指定yarn模式为什么还是运行在本地? executor还是在本地 提交命令是 spark-submit --class hbase.SparkExToHBase hbasemov...
初商 2019-12-01 19:49:27 4 浏览量 回答数 1

回答

--executor-memory 是指定每个executor(执行器)占用的内存 --total-executor-cores是所有executor总共使用的cpu核数 --executor-cores是每个executor使用的cpu核数 对于spark-shell还可以在yarn上执行: --master yarn-client 这里必须是client,不同于spark-submit的yarn-cluster, 因为spark-shell作为一个与用户交互的命令行,必须将Driver运行在本地,而不是yarn上, 其他的参数与submit一样. 答案来源于网络
养狐狸的猫 2019-12-02 02:15:18 0 浏览量 回答数 0

问题

Spark-Submit with Pyspark文件。

我正在尝试在集群中测试TensorflowOnSpark程序。我想我使用的是错误的spark-submit命令。请看下面我试图提交一份如图所示的工作~]$ spark-submit mnistOnSpark.py --cluster_siz...
社区小助手 2019-12-01 19:23:53 697 浏览量 回答数 1

回答

1)cluster模式:./spark-submit –class xx.xx.xx –master yarn –deploy-mode cluster xx.jar 2) client模式:./spark-submit –class xx.xx.xx –master yarn –deploy-mode client xx.jar
珍宝珠 2019-12-02 03:07:57 0 浏览量 回答数 0

问题

flink消费kafka问题

我在使用flink实时统计kafka数据,现在有两个任务同时执行,消费同一个kafka的topic消息,但是两个任务不能同时消费到消息,kafka消费者组已经改成不同的了 flink...
pnjkg63stsae 2019-12-01 21:50:34 31 浏览量 回答数 1

回答

检查 Spark Streaming 作业的运行模式是否是 yarn-client,若是建议改成 yarn-cluster 模式。E-MapReduce 对 yarn-client 模式的 Spark Streaming 作业的状态监控存在问题,会尽快修复。
开源大数据EMR 2019-12-02 02:02:17 0 浏览量 回答数 0

问题

如何在不同的节点上运行Flink作业管理器和任务管理器?

我在Yarn上有一个长期运行的Flink集群。这是启动它的命令sudo -E flink run -m yarn-cluster -ynm FlinkStreamBootstrap -yn 2 -s $ {SAVEPOINT} -d -c ...
社区小助手 2019-12-01 19:25:15 466 浏览量 回答数 1

问题

在YARN群集中提交作业之前,Flink TaskManagers不会启动

我正在使用Amazon EMR在YARN上运行Flink Cluster。我的设置包含1个主节点和2个核心节点的m4.large实例。我已经使用以下命令在YARN上启动了Flink CLuster : flink-yarn-session ...
flink小助手 2019-12-01 19:24:28 667 浏览量 回答数 1

问题

在maxcompute下提交原生pyspark任务 报错odps-0420031 具体情况如下

刚刚开始接触阿里云大数据开发平台,通过官方文档看到,是完全支持原生spark的任务的提交,于是按照文档的环境配置,搭建了spark-2.3.0版本的客户端环境,但是在提交任务的过程中,已local[N]的模式提交,运行spark下的exam...
游客v5iscfxtv4tju 2019-12-01 19:41:29 394 浏览量 回答数 0

问题

管理器的数量是否与yarn上的nodeManager数量相关

我使用'在YARN上运行单个Flink作业'模式在YARN上运行flink作业,命令如下:./ bin / link run -m yarn-cluster -yn 5 ./examples/batch/WordCount.jar问题是:无...
flink小助手 2019-12-01 19:24:31 539 浏览量 回答数 1

回答

A:检查Spark Streaming作业的运行模式是否是yarn-client,若是建议改成yarn-cluster模式。E-MapReduce对yarn-client模式的Spark Streaming作业的状态监控存在问题,会尽快修复。
LiuWH 2020-03-20 10:02:28 0 浏览量 回答数 0

问题

错误,spark-submit --master yarn --deploy-mode cluster

在AWS EMR系统上提交我的应用程序时,我遇到了以下错误。在客户端模式下提交spark应用程序正常。如果为了在aws emr中以集群模式工作,需要完成其他任何配置,请告诉我。 [hadoop@ip-172-31-81-182 ~]$ sp...
社区小助手 2019-12-01 19:29:06 1103 浏览量 回答数 1

回答

yarn模式下,perjob是一个flink-cluster一个job,一个flink/cluster 在yarn模式下可以提交多job,相当于standard-along部署在yarn
黄二刀 2020-06-03 20:54:50 0 浏览量 回答数 0

回答

执行命令 :bin/flink run -d -m yarn-cluster ... 或 bin/yarn-session.sh ... 来提交 per-job 运行模式或 session 运行模式的应用;解析命令参数项并初始化,启动指定运行模式,如果是 per-job 运行模式将 根据命令行参数指定的 Job 主类创建 job graph; ● 如果可以从命令行参数 (-yid ) 或 YARN properties 临时文件 (${java.io.tmpdir}/.yarn-properties-${user.name}) 中获取应用 ID,向指定的应用提交 Job; ● 否则当命令行参数中包含 -d(表示 detached 模式)和 -m yarn-cluster(表 示指定 YARN 集群模式),启动 per-job 运行模式; ● 否则当命令行参数项不包含 -yq(表示查询 YARN 集群可用资源)时,启动 session 运行模式;获取 YARN 集群信息、新应用 ID 并启动运行前检查; ● 通 过 YarnClient 向 YARN ResourceManager( 下 文 缩 写 为:YARN RM,YARN Master 节点,负责整个集群资源的管理和调度 ) 请求创建一个 新应用(YARN RM 收到创建应用请求后生成新应用 ID 和 container 申请的 资源上限后返回),并且获取 YARN Slave 节点报告(YARN RM 返回全部 slave 节点的 ID、状态、rack、http 地址、总资源、已使用资源等信息); ● 运行前检查:(1) 简单验证 YARN 集群能否访问;(2) 最大 node 资源能否满足 flink JobManager/TaskManager vcores 资源申请需求;(3) 指定 queue 是 否存在 ( 不存在也只是打印 WARN 信息,后续向 YARN 提交时排除异常并退 出 );(4) 当预期应用申请的 Container 资源会超出 YARN 资源限制时抛出异 常并退出;(5) 当预期应用申请不能被满足时(例如总资源超出 YARN 集群可 用资源总量、Container 申请资源超出 NM 可用资源最大值等)提供一些参考 信息。将应用配置 (flink-conf.yaml、logback.xml、log4j.properties) 和相关文 件 (flink jars、ship files、user jars、job graph 等 ) 上传至分布式存储 ( 例 如 HDFS) 的应用暂存目录 (/user/${user.name}/.flink/);准备应用提交上下文 (ApplicationSubmissionContext,包括应用的名 称、类型、队列、标签等信息和应用 Master 的 container 的环境变量、 classpath、资源大小等 ),注册处理部署失败的 shutdown hook(清理应 用对应的 HDFS 目录),然后通过 YarnClient 向 YARN RM 提交应用;循环等待直到应用状态为 RUNNING,包含两个阶段: ● 循环等待应用提交成功(SUBMITTED):默认每隔 200ms 通过 YarnClient 获取应用报告,如果应用状态不是 NEW 和 NEW_SAVING 则认为提交成 功并退出循环,每循环 10 次会将当前的应用状态输出至日志:"Application submission is not finished, submitted application is still in ",提交成功后 输出日志:"Submitted application " ● 循环等待应用正常运行(RUNNING):每隔 250ms 通过 YarnClient 获取应 用报告,每轮循环也会将当前的应用状态输出至日志:"Deploying cluster, current state "。应用状态成功变为 RUNNING 后将输出日志 "YARN application has been deployed successfully." 并退出循环,如果等到的是非预期状态 如 FAILED/FINISHED/KILLED, 就会在输出 YARN 返回的诊断信息("The YARN application unexpectedly switched to state during deployment. Diagnostics from YARN: ...")之后抛出异常并退出。
Lee_tianbai 2020-12-30 16:42:36 0 浏览量 回答数 0

问题

当yarn崩溃时恢复Flink

我正在EMR上运行一个Yarn3节点集群(1个Master 2 Core节点)。我使用的是1.6.0。我启用了检查指向(rocksdb),写入S3。检查指向似乎在其他测试中正常工作。在主节点上Yarn崩溃的情况下,我无法从最后一个检查点恢复...
flink小助手 2019-12-01 19:26:19 1791 浏览量 回答数 1

回答

本文介绍在文件存储HDFS上搭建及使用Apache Flink的方法。 准备工作 在文件存储HDFS上使用Apache Flink,需要先完成以下准备工作。 说明 本文档的操作步骤中涉及的安装包版本号、文件夹路径,请根据实际情况进行替换。 开通文件存储HDFS服务并创建文件系统实例和挂载点,详情请参见HDFS快速入门。 在计算节点上安装JDK。 版本不能低于1.8。 在计算节点上安装Scala。 Scala下载地址:官方链接,其版本要与使用的Apache Flink版本相兼容。 下载Apache Hadoop压缩包。 Apache Hadoop下载地址:官方链接。建议您选用的Apache Hadoop版本不低于2.7.2,本文档中使用的Apache Hadoop版本为Apache Hadoop 2.7.2。 下载Apache Flink压缩包。 在文件存储HDFS上使用的Flink的版本必须为1.9.0及以上,Apache Flink下载地址:官方链接。本文档中使用的Flink版本为官方提供的预编译版本Flink 1.9.0。 配置Apache Hadoop 执行如下命令解压Apache Hadoop压缩包到指定文件夹。 tar -zxvf hadoop-2.7.2.tar.gz -C /usr/local/ 修改hadoop-env.sh配置文件。 执行如下命令打开hadoop-env.sh配置文件。 vim /usr/local/hadoop-2.7.2/etc/hadoop/hadoop-env.sh 配置JAVA_HOME目录,如下所示。 export JAVA_HOME=/usr/java/default 修改core-site.xml配置文件。 执行如下命令打开core-site.xml配置文件。 vim /usr/local/hadoop-2.7.2/etc/hadoop/core-site.xml 在core-site.xml配置文件中,配置如下信息,详情请参见挂载文件系统。 fs.defaultFS dfs://x-xxxxxxxx.cn-xxxxx.dfs.aliyuncs.com:10290 fs.dfs.impl com.alibaba.dfs.DistributedFileSystem fs.AbstractFileSystem.dfs.impl com.alibaba.dfs.DFS io.file.buffer.size 8388608 alidfs.use.buffer.size.setting true dfs.usergroupservice.impl com.alibaba.dfs.security.LinuxUserGroupService.class dfs.connection.count 16 修改mapred-site.xml配置文件。 执行如下命令打开mapred-site.xml配置文件。 vim /usr/local/hadoop-2.7.2/etc/hadoop/mapred-site.xml 在mapred-site.xml配置文件中,配置如下信息。 mapreduce.framework.name yarn 修改yarn-site.xml配置文件。 执行如下命令打开yarn-site.xml配置文件。 vim /usr/local/hadoop-2.7.2/etc/hadoop/yarn-site.xml 在yarn-site.xml配置文件中,配置如下信息。 yarn.resourcemanager.hostname xxxx yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.nodemanager.resource.memory-mb 16384 yarn.nodemanager.resource.cpu-vcores 4 yarn.scheduler.maximum-allocation-vcores 4 yarn.scheduler.minimum-allocation-mb 3584 yarn.scheduler.maximum-allocation-mb 14336 修改slaves配置文件。 执行如下命令打开slaves配置文件。 vim /usr/local/hadoop-2.7.2/etc/hadoop/slaves 在slaves配置文件中,配置如下信息。 node1 node2 配置环境变量。 执行如下命令打开/etc/profile配置文件。 vim /etc/profile 在/etc/profile配置文件中,配置如下信息。 export HADOOP_HOME=/usr/local/hadoop-2.7.2 export HADOOP_CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath) export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 执行如下命令使配置生效。 source /etc/profile 执行如下命令配置文件存储HDFS的SDK。 您可以单击下载文件存储HDFS的SDK(此处以aliyun-sdk-dfs-1.0.3.jar为例),将其部署在Apache Hadoop生态系统组件的CLASSPATH上,详情请参见挂载文件系统。 cp aliyun-sdk-dfs-1.0.3.jar /usr/local/hadoop-2.7.2/share/hadoop/hdfs 执行如下命令将${HADOOP_HOME}文件夹同步到集群的其他节点。 scp -r hadoop-2.7.2/ root@node2:/usr/local/ 验证Apache Hadoop配置 完成Apache Hadoop配置后,不需要格式化namenode,也不需要使用start-dfs.sh来启动HDFS相关服务。如需使用yarn服务,只需在resourcemanager节点启动yarn服务,具体验证Apache Hadoop配置成功的方法请参见验证安装。 编译flink-shade 下载 flink-shade源码到指定目录。 git clone https://github.com/apache/flink-shaded.git ~/flink-shade 修改flink-shade源码中的pom文件。 修改Hadoop版本为您的集群中使用的版本,在本文档中使用的Hadoop版本为2.7.2。 vim ~/flink-shaded/flink-shaded-hadoop-2-parent/pom.xml flink-shade_1 在依赖项中添加文件存储HDFS SDK,在本文档使用文件存储HDFS SDK版本为1.0.3。 vim ~/flink-shaded/flink-shaded-hadoop-2-parent/flink-shaded-hadoop-2/pom.xml ... com.aliyun.dfs aliyun-sdk-dfs 1.0.3 ... flink-shade_2 编译打包。 cd ~/flink-shaded mvn package -Dshade-sources 配置Apache Flink 执行如下命令解压Flink压缩包到指定文件夹。 tar -zxvf flink-1.9.0-bin-scala_2.11.tgz -C /usr/local/ 拷贝flink-shade编译的flink-shaded-hadoop-2-uber-x.y.z.jar到Flink的lib目录下。 cp ~/flink-shaded/flink-shaded-hadoop-2-parent/flink-shaded-hadoop-2-uber/target/flink-shaded-hadoop-2-uber-2.7.2-11.0.jar /usr/local/flink-1.9.0/lib/ 说明 在使用Apache Flink之前必须在您的集群环境变量中配置HADOOP_HOME,HADOOP_CLASSPATH和HADOOP_CONF_DIR,详情请参见配置Apache Hadoop中的步骤7:配置环境变量。 如果您使用的Flink版本中已经包含flink-shaded-hadoop-2-uber-x.y.z.jar,则需要使用编译flink-shade中编译的flink-shaded-hadoop-2-uber-x.y.z.jar进行替换。 如果您需要对Flink进行额外的配置,请参考官方文档:配置操作指南。 验证Apache Flink配置 使用Flink自带的WordCount.jar对文件存储HDFS上的数据进行读取,并将计算结果写入到文件存储HDFS,在测试之前需要先启动yarn服务。 生成测试数据。 此处使用Apache Hadoop 2.7.2自带的jar包hadoop-mapreduce-examples-2.7.2.jar中的randomtextwriter方法在文件存储HDFS上生成测试数据。 /usr/local/hadoop-2.7.2/bin/hadoop jar /usr/local/hadoop-2.7.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar randomtextwriter -D mapreduce.randomtextwriter.totalbytes=10240 -D mapreduce.randomtextwriter.bytespermap=1024 -D mapreduce.job.maps=4 -D mapreduce.job.reduces=2 dfs://f-xxxxx.cn-xxx.dfs.aliyuncs.com:10290/flink-test/input 其中,dfs://f-xxxxx.cn-xxx.dfs.aliyuncs.com:10290为文件存储HDFS的挂载点,请根据您的实际情况替换。 查看在文件存储HDFS上生成的测试数据。 /usr/local/hadoop-2.7.2/bin/hadoop fs -cat dfs://f-xxxxx.cn-xxx.dfs.aliyuncs.com:10290/flink-test/input/* 其中,dfs://f-xxxxx.cn-xxx.dfs.aliyuncs.com:10290为文件存储HDFS的挂载点,请根据您的实际情况替换。 提交wordcount程序。 /usr/local/flink-1.9.0/bin/flink run -m yarn-cluster -yn 1 -yjm 1024 -ytm 1024 /usr/local/flink-1.9.0/examples/batch/WordCount.jar --input dfs://f-xxxxx.cn-xxx.dfs.aliyuncs.com:10290/flink-test/input --output dfs://f-xxxxx.cn-xxx.dfs.aliyuncs.com:10290/flink-test/output 其中,dfs://f-xxxxx.cn-xxx.dfs.aliyuncs.com:10290为文件存储HDFS的挂载点,请根据您的实际情况替换。 查看在文件存储HDFS上的结果文件。 /usr/local/hadoop-2.7.2/bin/hadoop fs -cat dfs://f-xxxxx.cn-xxx.dfs.aliyuncs.com:10290/flink-test/output 其中,dfs://f-xxxxx.cn-xxx.dfs.aliyuncs.com:10290为文件存储HDFS的挂载点,请根据您的实际情况替换。
1934890530796658 2020-03-31 02:53:23 0 浏览量 回答数 0

回答

问题解决了,spark与hbase衔接由于版本的问题,会有jar包找不到的问题,在spark配置中加入spark.executor.extraClassPath=/opt/cloudera/parcels/CDH/lib/hbase/lib/htrace-core-3.1.0-incubating.jar 在spark提交任务的时候:spark-submit --master yarn-cluster --driver-class-path /etc/hbase/conf:/opt/cloudera/parcels/CDH/lib/hbase/lib/htrace-core-3.1.0-incubating.jar .... http://community.cloudera.com/t5/Apache-Hadoop-Concepts-and/Class-not-found-running-Spark-sample-hbase-importformat-py-in/td-p/27084 终于搞完了,花了一天时间还是很有收获的
kun坤 2020-05-30 15:09:49 0 浏览量 回答数 0

回答

宝牛: ./bin/flink run -m yarn-cluster -yid application_1541123088922_0041 ./examples/batch/WordCount.jar 通过 -yid 来指定
赵慧 2019-12-02 01:54:10 0 浏览量 回答数 0

问题

hadoop ResourceManager无法启动?报错

自己在搭建hadoop 2.2.0的环境,过程中遇到了一个问题,就是sbin/start-yarn.sh无法启动ResourceManager 1.运行 sbin/start-dfs.sh,成...
爱吃鱼的程序员 2020-06-22 11:02:00 0 浏览量 回答数 1

问题

在AWS EMR中部署Flink自定义JAR文件时出错

基本上我想将Flink自定义JAR文件部署到新的AWS EMR集群。以下是我所做的总结。我创建了一个新的AWS EMR集群。第1步:软件和步骤更改 -使用flink作为服务创建AWS EMR集群。(EMR发布版本 - 5.17.0)并单击F...
flink小助手 2019-12-01 19:23:58 1133 浏览量 回答数 1

问题

flink on yarn使用yarn-cluster模式,datanode的内存是隔 #Flink

flink on yarn使用yarn-cluster模式,datanode的内存是隔离的,但是一个datanode上可能会分配多个flink job的task的,这样如果某个flink job的task导致整个datanod...
黄一刀 2020-05-18 20:27:00 2 浏览量 回答数 1

问题

Spark on Yarn 使用Docker Container 400 请求报错 

Spark on Yarn 使用Docker Container Executor处理任务时出错ExitCodeException exitCode=1 运行命令: spark-submit --class org...
kun坤 2020-05-29 23:06:16 0 浏览量 回答数 1

回答

Spark 中各个角色的JVM参数设置:Driver 的 JVM 参数: GC 方式,如果是 yarn-client 模式,默认读取的是 spark-class 文件中的 JAVAOPTS;如果是 yarn-cluster 模式,则读取的是 spark-default.conf 文件中的 spark.driver.extraJavaOptions 对应的参数值。 Executor 的 JVM 参数: GC 方式,两种模式都是读取的是 spark-default.conf 文件中的spark.executor.extraJavaOptions 对应的 JVM 参数值。
珍宝珠 2020-02-17 11:28:06 0 浏览量 回答数 0

问题

Airflow SparkSubmitOperator - 如何在另一台服务器中进行spark-submit

我们的airflow 调度程序和我们的hadoop集群没有设置在同一台机器上(第一个问题:这是一个好习惯吗?)。 我们有许多需要调用pyspark脚本的自动过程。那些pyspark脚本存储在hadoop集群(10.70.1.35)中。air...
社区小助手 2019-12-01 19:29:03 1904 浏览量 回答数 1

回答

当客户端日志无法正常定位时,可以修改 log4j 配置文件将日志级别由 INFO 改 为 DEBUG 后重新运行,看是否有 DEBUG 日志可以帮助排查问题。对于一些没有 日志或日志信息不完整的问题,可能需要开展代码级调试,修改源码重新打包替换 的方式太过繁琐,推荐使用 Java 字节码注入工具 Byteman(详细语法说明请参考: Byteman Document),使用示例: (1) 编写调试脚本,例如打印 Flink 实际使用的 Client 类,以下脚本表示在 CliFrontend#getActiveCustomCommandLine 函数退出时打印其返回值; RULE test CLASS org.apache.flink.client.cli.CliFrontend METHOD getActiveCustomCommandLine AT EXIT IF TRUE DO traceln("------->CliFrontend#getActiveCustomCommandLine return: "+$!); ENDRULE (2) 设置环境变量,使用 byteman javaagent: export BYTEMAN_HOME=/path/to/byte-home export TRACE_SCRIPT=/path/to/script export JVM_ARGS=”-javaagent:${BYTEMAN_HOME}/lib/byteman.jar=script:${TRACE_ SCRIPT}” (3) 运行测试命令 bin/flink run -m yarn-cluster -p 1 ./examples/streaming/WordCount.jar ,控制台将输出内容: ------->CliFrontend#getActiveCustomCommandLine return: org.apache.flink.yarn.cli. FlinkYarnSessionCli@25ce9dc4
Lee_tianbai 2020-12-30 13:26:58 0 浏览量 回答数 0

问题

Flink提交任务到yarn-cluster模式时,flink list执行超时,获取不到JobManager信息。定位到问题原因与HA有关,有没有哪位大神遇到过类似问题

Flink提交任务到yarn-cluster模式时,flink list执行超时,获取不到JobManager信息。定位到问题原因与HA有关,有没有哪位大神遇到过类似问题...
flink小助手 2019-12-01 20:28:20 1178 浏览量 回答数 0

问题

无法在EMR spark群集中运行python作业

我正在尝试向AWS EMR spark集群提交python作业。 我在spark-submit选项部分中的设置如下: --master yarn --driver-memory 4g --executor-memory 2g 但是,我在工作...
小六码奴 2019-12-01 19:38:46 414 浏览量 回答数 1

云产品推荐

上海奇点人才服务相关的云产品 小程序定制 上海微企信息技术相关的云产品 国内短信套餐包 ECS云服务器安全配置相关的云产品 开发者问答 阿里云建站 自然场景识别相关的云产品 万网 小程序开发制作 视频内容分析 视频集锦 代理记账服务 阿里云AIoT 阿里云科技驱动中小企业数字化