EMR 常见问题?-问答-阿里云开发者社区-阿里云

开发者社区> 问答> 正文

EMR 常见问题?

nicenelly 2017-10-30 11:21:45 4091



Q:作业和执行计划的区别


A:在Aliyun E-MapReduce中,要运行作业,需要有分成两个步骤,分别是:
  • 创建作业

在E-MapReduce产品中,说创建一个“作业”,实际上是创建一个“作业运行配置”,它并不能被直接运行。既如果在E-MapReduce中创建了一个“作业”,实际上只是创建了一个“作业如何运行的配置”,这份配置中包括该作业要运行的jar包,数据的输入输出地址,以及一些运行参数。这样的一份配置创建好后,给它命一个名,既定义了一个“作业”。当你需要调试运行作业的时候就需要执行计划了。
  • 创建执行计划

执行计划,是将作业与集群关联起来的一个纽带。通过它,我们可以把多个作业组合成一个作业序列,通过它我们可以为作业准备一个运行集群(或者自动创建出一个临时集群或者关联一个已存在的集群),通过它我们可以为这个作业序列设置周期执行计划,并在完成任务后自动释放集群。我们也可以在他的执行记录列表上查看每一次执行的执行成功情况与日志。

[font='iconfont'] Q:如何查看作业日志


A:在E-MapReduce系统里,系统已经将作业运行日志按照jobid的规划上传到OSS中(路径由用户在创建集群时设置),用户可以直接在网页上点击查看作业日志。如果用户是登录到master机器进行作业提交和脚本运行等,则日志根据用户自己的脚本而定,用户可以自行规划。

[font='iconfont'] Q:如何登录Core节点


A:按照如下步骤:
  1. 首先在Master节点上切换到Hadoop账号:su hadoop
然后即可免密码ssh登录到对应的core节点:
  1. ssh emr-worker-1


[font='iconfont'] Q:直接在OSS上查看日志


A:用户也可以直接从OSS上直接查找所有的日志文件,并下载。但是因为OSS不能直接查看,使用起来会比较麻烦一些。如果用户打开了日志,并且指定了一个OSS的日志位置,那么作业的日志要如何找到呢?例如对下面这个保存位置OSS://mybucket/emr/spark
  1. 首先来到执行计划的页面,找到对应的执行计划,点击“运行记录”进入运行记录页面。
  2. 在运行记录页面找到具体的哪一条执行记录,比如最后的一条执行记录。然后点击它对应的“执行集群”查看这个执行集群的ID。
  3. 然后再OSS://mybucket/emr/spark目录下寻找OSS://mybucket/emr/spark/集群ID 这个目录
  4. 在OSS://mybucket/emr/spark/集群ID/jobs目录下会按照作业的执行ID存放多个目录,每一个目录下存放了这个作业的运行日志文件。


[font='iconfont'] Q:集群、执行计划以及运行作业的计时策略


A:三种计时策略如下:

  • 集群的计时策略
    在集群列表里可以看到每个集群的运行时间,该运行时间的计算策略为 运行时间 = 集群释放时刻 -集群开始构建时刻。即集群一旦开始构建就开始计时,直到集群的生命周期结束。

  • 执行计划的计时策略:在执行计划的运行记录列表,可以看到每次执行记录运行的时间,该时间的计时策略总结为两种情况:
    1.如果执行计划是按需执行的,每次执行记录的运行过程涉及到创建集群、提交作业运行、释放集群。所以按需执行计划的运行时间计算策略为,运行时间 =构建集群的时间 + 执行计划包含所有作业全部运行结束的总耗时 + 集群释放的时间。
    2.如果执行计划是关联已有集群运行的,整个运行周期不涉及到创建集群和释放集群,所以其运行时间 = 执行计划包含所有作业全部运行结束的总耗时。

  • 作业的计时策略:
    这里的作业指的是被挂载到执行计划里面的作业。在每条执行计划运行记录右侧的查看作业列表点击进去可以看到该作业。这里每个作业的运行时间的计算策略为,运行时间= 作业运行结束的实际时间 -作业开始运行的实际时间。作业运行开始(结束)的实际时间指的是作业被Spark或hadoop集群实际开始调度运行或运行结束的时间点。


[font='iconfont'] Q:第一次使用执行计划时没有安全组可选


A:因为一些安全的原因,EMR目前的安全组并不能直接选择用户的所有已有安全组来使用,所以如果你还没有在EMR中创建过安全组的话,在执行计划上将无法选择到可用的安全组。我们推荐您先手动创建一个按需集群来进行作业的测试,手动创建集群的时候可以创建一个新的EMR安全组,等到测试都通过了以后,再设置您的执行计划来周期调度。这个时候之前创建的安全组也会出现在这里可供选择。

<a class="reference-link" name="Q:读写ODPS时,抛出java.lang.RuntimeException.Parse responsed failed: ‘…’">[font='iconfont'] Q:读写ODPS时,抛出java.lang.RuntimeException.Parseresponsed failed: ‘<!DOCTYPE html>…’


A:检查odps tunnel endpoint是否正确,如果写错会出现这个错误。

[font='iconfont'] Q:多个ConsumerID消费同一个Topic时出现TPS不一致问题


A:有可能这个Topic在公测或其他环境创建过,导致某些Consumer组消费数据不一致。请在工单系统中将对应的Topic和ConsumerID提交到ONS处理。

[font='iconfont'] Q:E-MapReduce中能否查看作业的Worker上日志


A:可以。前置条件:是创建集群时发开“保存日志”选项。查看日志位置:执行计划列表->点击“运行记录”->执行记录->点击“查看作业列表”->作业列表->点击“查看作业Worker实例”。

[font='iconfont'] Q:Hive 创建外部表,没有数据


A:例如:
  1.     CREATE EXTERNAL TABLE storage_log(content STRING) PARTITIONED BY (ds STRING)
  2.     ROW FORMAT DELIMITED
  3.     FIELDS TERMINATED BY '\t'
  4.     STORED AS TEXTFILE
  5.     LOCATION 'oss://xxx:xxxx@log-124531712.oss-cn-hangzhou-internal.aliyuncs.com/biz-logs/airtake/pro/storage';
  6.     hive> select * from storage_log;
  7.     OK
  8.     Time taken: 0.3 seconds
  9.     创建完外部表后没有数据

实际上Hive并不会自动关联指定目录的partitions目录,您需要手动操作,例如:
  1.     alter table storage_log add partition(ds=123);                                                                                                                                             OK
  2.     Time taken: 0.137 seconds
  3.     hive> select * from storage_log;
  4.     OK
  5.     abcd    123
  6.     efgh    123


[font='iconfont'] Q:SparkStreaming作业运行一段时间后无故结束


A:首先检查Spark版本是否是1.6之前版本。Spark1.6修复了一个内存泄漏的BUG,这个BUG会导致container内存超用然后被kill掉(当然,这只是可能的原因之一,不能说明Spark1.6不存在任何问题)。此外,检查自己的代码在使用内存上有没有做好优化。

[font='iconfont'] Q:SparkStreaming作业已经结束,但是E-MapReduce控制台显示作业还处于“运行中”状态


A:检查SparkStreaming作业的运行模式是否是“yarn-client”,若是建议改成“yarn-cluster”模式。E-MapReduce对“yarn-client”模式的SparkStreaming作业的状态监控存在问题,会尽快修复。

[font='iconfont'] Q:”Exception in thread “main”java.lang.RuntimeException: java.lang.ClassNotFoundException: Classcom.aliyun.fs.oss.nat.NativeOssFileSystem not found”


A:在Spark作业中读写OSS数据时,需要将E-MapReduce提供的SDK打进作业Jar包中,具体操作请参考:开发手册->Spark->开发准备。

[font='iconfont'] Q:作业读写OSS数据怎么传AccessKeyId和AccessKeySecret参数


A:最简单的办法就是使用完整OSS URI,请查看:开发手册->开发准备。

[font='iconfont'] Q:”Error: Could not find or loadmain class”


A:检查作业配置中作业jar包的路径协议头是否是“ossref”,若不是请改为“ossref”。

[font='iconfont'] Q:集群机器分工使用说明


A:E-MapReduce中包含一个Master节点和多个Slave(或者Worker)节点。其中Master节点不参与数据存储和计算任务,Slave节点用来存储数据和计算任务。例如3台4核8G机型的集群,其中一台机器用来作为Master节点,另外两台用来作为Slave节点,也就是集群的可用计算资源为2台4核8G机器。

[font='iconfont'] Q:Spark接Flume时出现内存超用问题


A:检查是否是以Push-based方式接收数据,若不是,请尝试改成Push-based方式接收数据。 参考文档

[font='iconfont'] Q:Caused by: java.io.IOException:Input stream cannot be reset as 5242880 bytes have been written, exceeding theavailable buffer size of 524288


A:(OSS)网络连接重试时缓存不足的BUG请,使用1.1.0版本以上的emr-sdk。

[font='iconfont'] Q:”Failed to access metastore.This class should not accessed inruntime.org.apache.hadoop.hive.ql.metadata.HiveException:java.lang.RuntimeException: Unable to instantiateorg.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient”


A:首先,Spark处理Hives数据需要作业的执行模式为yarn-client(local也行),不能为yarn-cluster,否则会报上述异常。其次,作业jar中引入一些第三方的包也有可能导致Spark运行期间报上述异常。

[font='iconfont'] Q:如何在MR作业中使用本地共享库


A:方法有很多,这里给出一种方式。修改mapred-site.xml文件,例如:
  1.    <property>  
  2.     <name>mapred.child.java.opts</name>  
  3.     <value>-Xmx1024m -Djava.library.path=/usr/local/share/</value>  
  4.   </property>  
  5.   <property>  
  6.     <name>mapreduce.admin.user.env</name>  
  7.     <value>LD_LIBRARY_PATH=$HADOOP_COMMON_HOME/lib/native:/usr/local/lib</value>  
  8.   </property>

只要加上你所需的库文件即可。

[font='iconfont'] Q:如何在MR/Spark作业中指定OSS数据源文件路径


A: 如下,OSS URL:oss://[accessKeyId:accessKeySecret@]bucket[.endpoint]/object/path
用户在作业中指定输入输出数据源时使用这种URI,可以类比hdfs://。用户操作OSS数据时,可以将accessKeyId,accessKeySecret以及endpoint配置到Configuration中,也可以在URI中直接指定accessKeyId,accessKeySecret以及endpoint。具体请参考 开发准备一节。

[font='iconfont'] Q:Spark SQL抛出“Exception in thread“main” java.sql.SQLException: No suitable driver found forjdbc:mysql:xxx”报错


A:
  1. 低版本mysql-connector-java有可能出现类似问题,更新到最新版本。
  2. 作业参数中使用“—driver-class-pathossref://bucket/…/mysql-connector-java-[version].jar”来加载mysql-connector-java包,直接将mysql-connector-java打进作业jar包也会出现上述问题。


[font='iconfont'] Q:SparkSQL连RDS出现ConnectionException


A:检查RDS数据库地址是否为内网地址,如不是请在RDS控制台将相应的数据库地址切换成内网地址。

[font='iconfont'] Q:Spark SQL连RDS出现“Invalidauthorization specification, message from server: ip not in whitelist”


A:检查RDS的白名单设置,将集群机器的内网地址加到RDS的白名单中。

[font='iconfont'] Q:Spark程序中使用OSSSDK出现“java.lang.NoSuchMethodError:org.apache.http.conn.ssl.SSLConnetionSocketFactory.init(Ljavax/net/ssl/SSLContext;Ljavax/net/ssl/HostnameVerifier)”


A:OSS SDK依赖的http-core和http-client包与Spark和Hadoop的运行环境存在版本依赖冲突,不建议在代码中使用OSSSDK,否则需要手动解决依赖冲突问题,比较麻烦。如果有需要对OSS中的文件做一些基础操作例如list等等,可以参照 这里的用法进行操作。

[font='iconfont'] Q : 创建低配置机型集群注意事项


A : 1. 若Master节点选择2核4G机型,则Master节点内存非常吃紧,很容易造成物理内存不够用,建议调大Master内存。 2. 若Slave节点选择2核4G机型,在运行MR作业或者Hive作业时,请调节参数。MR作业添加参数-Dyarn.app.mapreduce.am.resource.mb=1024;Hive作业设置参数 setyarn.app.mapreduce.am.resource.mb=1024; 避免作业hang住。

[font='iconfont'] Q:java.lang.IllegalArgumentException:Wrong FS: oss://xxxxx, expected: hdfs://ip:9000


A:因为在操作oss数据的时候,使用hdfs的默认的fs,所以在初始化的时候,要使用oss的路径来初始化fs,这样在后续的操作中,才能使用这个fs来操作oss源上的数据。
  1. Path outputPath = new Path(EMapReduceOSSUtil.buildOSSCompleteUri("oss://bucket/path", conf));
  2.         org.apache.hadoop.fs.FileSystem fs = org.apache.hadoop.fs.FileSystem.get(outputPath.toUri(), conf);
  3.         if (fs.exists(outputPath)) {
  4.             fs.delete(outputPath, true);
  5.         }




本文导读目录




    以上内容是否对您有帮助?

    在文档使用中是否遇到以下问题

    • 内容错误

    • 更新不及时

    • 链接错误

    • 缺少代码/图片示例

    • 太简单/步骤待完善

    • 其他

    • 内容错误

    • 更新不及时

    • 链接错误

    • 缺少代码/图片示例

    • 太简单/步骤待完善

    • 其他


    更多建议提交建议 匿名提交
    感谢您的打分,是否有意见建议想告诉我们?提交建议
    感谢您的反馈,反馈我们已经收到
    SQL 分布式计算 关系型数据库 Java Hadoop MaxCompute 对象存储 HIVE Spark RDS
    分享到
    取消 提交回答
    全部回答(0)
    大数据
    使用钉钉扫一扫加入圈子
    + 订阅

    大数据计算实践乐园,近距离学习前沿技术

    推荐文章
    相似问题
    推荐课程