暂无个人介绍
nginx反向代理配置时,添加下面的配置:
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header REMOTE-HOST $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
location / {
proxy_pass http://127.0.0.1:10678;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header REMOTE-HOST $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
你的集群是经典网络的还是vpc的。vpc的是不会有ip的,使用的是用户自定义标识。参考:https://help.aliyun.com/document_detail/28966.html?spm=5176.doc29005.6.560.A2AfFi
请问你是使用阿里云的E-MapReduce吗?可以在emr客户交流钉钉群里面讨论。
请提工单
建议你在阿里云官网购买。
emr专业问题,可以在emr客户交钉钉流群里面讨论,响应速度会更快。
机器是你帐号下的,无法转让
你可以先将你的数据加工处理好,在使用quick bi分析展示。
直接提工单就好了,请问你有什么难处?
你好,emr中有作业和执行计划的概念。如果你的中间结果落到集群上或者oss上,可以创建多个job, 设置依赖关系。如果你的中间结果不落地,直接把这两步计算写在一份代码里面,使用一个job就可以完成了。具体问题, 可以加入emr客户群交钉钉流,一般由专人值班回答客户咨询。
有人工工单,一般工单都可以较快的相应。也是使用人工电话进行投诉。
服务器不一定开了ping。ping不同并不代表服务器有问题,可以使用telnet命令。
如果10个bucket不够用,可以提工单申请,应该是有人工审核;但是这个毕竟不是长久之计,题主可以这样,可以使用bucket下面不同的文件夹来隔离。文件夹数目的上限比较大。
可以使用oss的sdk,很简单的,几行代码就可以了。https://help.aliyun.com/document_detail/32008.html?spm=5176.7933691.203620.1.bTiGTp
不建议这么使用,一个阿里云账号最多可以有3个ACCESS_ID和ACCESS_KEY,可以对不同的bucket使用不同的权限控制。
挺快的,几天就好了。
嗯 阿里云后来终于搞了个maven仓库
shiro的配置很简单的,看一下就会了
哪里的?截图看看。
你的集群配置是什么,是不是配置比较低?在zeppelin里面运行spark之后,zeppelin会启一个常驻的spark job来接受zepplein notebook上的其他spark作业提交,你上集群的hadoop ui看一下是不是一直有个spark job在运行。这个spark job一直运行导致其他的mapreduce作业拿不到资源,状态一直是accepted。
你可以点击“interpreter”, 在“ spark”这一段,点击右上角的“restart”,这样可以将处理spark submit的常驻作业停掉,然后你其他的mapreduce作业就能获得资源,里面可以运行了。你试一下。