引领时尚s个人页面-阿里云开发者社区

个人头像照片 引领时尚s TA的个人档案

个人介绍

暂无个人介绍

擅长的技术

  • 数据库
获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
  • 高分内容
  • 最新动态
  • 文章
  • 问答
  • 提交了问题 2019-01-27

    sparkstreaming mapWithState状态保存问题

正在加载, 请稍后...
暂无更多信息

2019年11月

  • 11.26 10:13:27
    回答了问题 2019-11-26 10:13:27

    Flink on Yarn 出现 Container Removed 问题

    有没有看看是不是因为yarn其他错误引起的,我也出现这个错误了

    踩0 评论0
正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息
  • 回答了问题 2019-11-26

    Flink on Yarn 出现 Container Removed 问题

    有没有看看是不是因为yarn其他错误引起的,我也出现这个错误了

    踩0 评论0
  • 提交了问题 2019-01-27

    sparkstreaming mapWithState状态保存问题

  • 回答了问题 2019-07-17

    hbase es 哪个存储查询性能更好啊?

    Hbase

    踩0 评论0
  • 回答了问题 2019-07-17

    阿里云OSS出现InvalidPartOrder 无效的分片顺序 , 存的是一些json, 程序是用flume采集kafka数据到oss数据有解决办法吗

    对象存储是解决低频访问的数据的存储的,不管是否有序的。如果你是还要用的挺多,那建议你用HBASE,设一个key,自动就有序了。

    踩0 评论0
  • 回答了问题 2019-07-17

    请教各位一个问题,就是hdfs的审计日志一天中过大是有可能什么原因呢

    审计日志过大有可能那天hdfs繁忙 比如blance操作也会导致 可以试试指定hdfs审计日志的大小 达到某个值之后会拆分成多个

    踩0 评论0
  • 回答了问题 2019-07-17

    各位大佬们,如何批量向hbase中插入数据呀。我用thrift批量插数据,插入四百多万条数据要半小时?

    量数据批量写入hbase时,建议mr或者spark生成hfile后使用BulkLoad 方式导入hbase数据库

    踩0 评论0
  • 回答了问题 2019-07-17

    有个问题想请教大家,hbase region server 如果down了,按照hbase 默认的设置,比如zookeeper的180秒的超时设置,那是不是可能在3分钟内这个region server的数据都处于无法访问的状态?hbase从感知到region server挂掉到恢复是不是在分钟级别

    不会啊,hbase启动的时候有daemon进程的,如果只是rs挂了,daemon立马会把zk节点干掉,master马上可以开始恢复,如果机器直接挂了,是有可能需要3分钟master才能发现. 机器挂掉可以通过其它的途径发展,快速恢复

    踩0 评论0
  • 回答了问题 2019-07-17

    请教下,spark缓存rdd,前端应用是否可以直接查询这个rdd?

    那你rdd对象要常驻内存不销毁,才行

    踩0 评论0
  • 回答了问题 2019-07-17

    Phoenix的默认时区比utc时间少八小时,这个可以设置改成UTC+8吗?

    这个问题正在搞,很快就出来了。

    踩0 评论0
  • 回答了问题 2019-07-17

    Phoenix中的查询结果可以导出为.sql或者.csv文件吗?

    这个是没有的,你可以自己写个小程序来实现

    踩0 评论0
  • 回答了问题 2019-07-17

    java 1.8 jstack不成功,什么办法解决?谢谢。

    ps -aux看一下启动这个进程的jdk路径 然后看看执行这个路径下的jstack

    踩0 评论0
  • 回答了问题 2019-07-17

    hbase 2.0.2 可以运行在Hadoop 3.0上吗?

    应该是可以的

    踩0 评论0
  • 回答了问题 2019-07-17

    phoneixIOExcpetion

    看下hbase配置的超时时间。
    不建议用phoenix做复杂查询
    只做点查和范围查找,以及简单聚合


    看下hbase配置的超时时间。

    不建议用phoenix做复杂查询
    只做点查和范围查找,以及简单聚合


    看下hbase配置的超时时间。

    不建议用phoenix做复杂查询
    只做点查和范围查找,以及简单聚合

    踩0 评论0
  • 回答了问题 2019-07-17

    请问一下、复杂的sql报表、用什么方案比较好、数据很大、是从oracle来的、想改造

    对报表的时间要求不高的话,hive维护成本低,kylin维护成本高。
    当然,hbase+spark目前是一种方案。
    数据定期归档到spark做复杂分析
    复杂的sql使用spark去分析hbase,或者按天数据从hbase归档到spark数仓


    ①对报表的时间要求不高的话,hive维护成本低,kylin维护成本高。
    ②hbase+spark目前是一种方案
    数据定期归档到spark做复杂分析
    复杂的sql使用spark去分析hbase,或者按天数据从hbase归档到spark数仓


    对报表的时间要求不高的话,hive维护成本低,kylin维护成本高。
    hbase+spark目前是一种方案。
    数据定期归档到spark做复杂分析。
    复杂的sql使用spark去分析hbase,或者按天数据从hbase归档到spark数仓。


    对报表的时间要求不高的话,hive维护成本低。
    HBase+spark目前是一种方案
    数据定期归档到spark做复杂分析
    复杂的sql使用spark去分析hbase,或者按天数据从hbase归档到spark数仓

    踩0 评论0
正在加载, 请稍后...
滑动查看更多