我是管理员个人页面-阿里云开发者社区

个人头像照片 我是管理员 TA的个人档案

个人介绍

社区管理员

擅长的技术

  • Java
  • Python
  • 前端开发
  • Linux
  • 数据库
获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
  • 高分内容
  • 最新动态
  • 文章
  • 问答
正在加载, 请稍后...
滑动查看更多

2019年07月

  • 07.25 16:53:58
    回答了问题 2019-07-25 16:53:58

    已开通的用户都没有返利吗

    已开通但未购买过阿里云其他商品,首次下单可获得返利。

    踩0 评论0
  • 07.25 14:49:18
    回答了问题 2019-07-25 14:49:18

    用户已开通阿里云,怎么关联用户

    大使在个人中心分享你的邀约页:必须新账号才能被大使关联,只有新客户才能返利(奖励)。

    踩0 评论0
  • 07.25 14:40:11
    回答了问题 2019-07-25 14:40:11

    用户已开通阿里云,怎么关联用户

    大使在个人中心分享你的邀约页:必须新账号才能被大使关联,只有新客户才能返利(奖励)。

    踩0 评论0
正在加载, 请稍后...
滑动查看更多
  • 发表了文章 2019-05-10

    图数据库GDB——Gremlin介绍及范例 【资料下载】

  • 发表了文章 2019-04-16

    阿里云图数据库GDB交流 资料下载

  • 发表了文章 2019-04-11

    云栖社区阿里云图数据库GDB大群建立啦!!!

正在加载, 请稍后...
滑动查看更多
  • 回答了问题 2019-07-25

    已开通的用户都没有返利吗

    已开通但未购买过阿里云其他商品,首次下单可获得返利。

    踩0 评论0
  • 回答了问题 2019-07-25

    用户已开通阿里云,怎么关联用户

    大使在个人中心分享你的邀约页:必须新账号才能被大使关联,只有新客户才能返利(奖励)。

    踩0 评论0
  • 回答了问题 2019-07-17

    GDB支持亿级节点吗?亿级节点一般需要什么配置?GDB正式版预计什么时候上线

    支持的 但是公测版本只开放了免费实例:2核16G内存最大150G SSD云盘的存储 有超出公测版本的这类需求可以发工单或者找我们技术支持或技术同学直接交流!
    本问题的回答均来自云栖社区【阿里云图数据库GDB】。 https://c.tb.cn/F3.ZR4o5x 点击链接欢迎加入社区大社群。

    踩0 评论0
  • 回答了问题 2019-07-17

    kubernetes部署zipkin引用外部Elasticsearch的问题

    你zipkin的镜像是怎么构建的,如果是官方镜像,参考官方文档来就行了
    本问题回答均来自云栖社区【Kubernetes社区大群】。https://dwz.cn/G2EELckH 点击链接欢迎加入社区大社群。


    如果官方没有使用外部ES的用法就需要自己打zipkin镜像了
    本问题回答均来自云栖社区【Kubernetes社区大群】。https://dwz.cn/G2EELckH 点击链接欢迎加入社区大社群。

    踩0 评论0
  • 回答了问题 2019-07-17

    使用Phoenix创建Hbase二级索引的时候,Phoenix支持的数据量有限制吗?

    支持的数据量没有限制,阿里云云hbase目前支持最大的客户有100T+左右

    踩0 评论0
  • 回答了问题 2019-07-17

    给hbase的表创建phoenix映射之后再phoenix里面查询的时候包这个错

    phoenix映射存在的hbase表部分数字类型和日期类型需要使用unsigned类型。此处报错是数据反序列化二进制时出错。

    踩0 评论0
  • 回答了问题 2019-07-17

    sparkstreaming 写数据到 phoenix报错问题

    hbase-protcol.java这个包存在冲突。

    踩0 评论0
  • 回答了问题 2019-07-17

    多个不同的数据源如何同步到hbase

    一般要分2种情况,一种是批量获取的数据存入方式,一种是新数据来来以后的更新方式,但是不管那种方式过来,都要有保存源数据这一步。感觉单纯的一个工具应该无法满足,适合做一个比较合理的系统了。数据分层比较重要,感觉Hbase作为最后一层的供数比较合理。

    踩0 评论0
  • 回答了问题 2019-07-17

    hbase split后,phoenix需要重新建立索引吗

    这个不需要的,Phoenix的索引表是另一个表的

    踩0 评论0
  • 回答了问题 2019-07-17

    hbase集群有一半节点链接不上集群

    这个看起来是超时了,再超大的表下面,不建议count

    踩0 评论0
  • 回答了问题 2019-07-17

    phoenix线程安全问题导致数组越界

    jdbc不是线程安全的,请一个线程使用一个连接。https://blog.csdn.net/xwq911/a ... 50043

    踩0 评论0
  • 回答了问题 2019-07-17

    hbase qps tps ops的区别

    tps:Transactions Per Second,一般在事务系统之中,在mysql可以用tps
    qps:Queries Per Second,一般就是访问次数
    ops:Operates Per Second,一般是操作次数,与qps区别不大。

    很多时候,都是混着来用。

    踩0 评论0
  • 回答了问题 2019-07-17

    【HBase】add_peer时多输入空格导致一直报错error input string “2181 ”

    如果HBase有认证的话,先进行票据认证
    然后执行hbase zkcli -server xxxx:2181
    在${hbase.zk.parent}/replication/peers查看错误节点
    删除掉错误的节点
    重启之后就可以了

    踩0 评论0
  • 回答了问题 2019-07-17

    时序数据如何设计rowkey?

    参考时序数据库的key设计,或者利用时间+随机hash反转作为rowkey

    踩0 评论0
  • 回答了问题 2019-07-17

    数据批量导入,导致Hbase region 100G,未进行分裂是什么原因

    又自动分裂了一些,不过还是很多比较大,两天~ 分裂好慢啊
    fe5cd6025adcd2ff7394018852e05622 fwqml001.zh:16030 1,000 0 203.47 GB 1 0 B 1.0 - -
    cb2641874c9318a070a3517a47275c9d fwqml001.zh:16030 1,000 0 203.47 GB 1 0 B 1.0 - -
    e7ce065f7a87cfa0d55fc1506635195d fwqzx011.zh:16030 1,101 0 149.46 GB 1 0 B 1.0 - -
    56ce7319c9c0b897d7982bf1bdb69be5 fwqzx011.zh:16030 1,000 0 149.46 GB 1 0 B 1.0 - -
    24eb3dbf8ef77a2c4d1e61a17b406faf fwqzx011.zh:16030 3,700 0 123.58 GB 1 0 B 1.0 - -
    6a7d20ea20009c84653914ed884e9052 fwqzx011.zh:16030 3,700 0 123.58 GB 1 0 B 1.0 - -
    a523eb6f9c84c5824952b5edf7467310 fwqzx011.zh:16030 2,600 0 103.89 GB 1 0 B 1.0 - -
    6067ccca2e610d400db6eebb23692941 fwqml001.zh:16030 3,700 0 102.07 GB 1 0 B 1.0 - -
    1f4bc1398c7e7b951ab081fc6d27f483 fwqzx011.zh:16030 3,700 0 101.15 GB 1 0 B 1.0 - -
    b3a6f416a4ecba0d2fb0f668ee6055f9 fwqzx011.zh:16030 3,700 0 101.15 GB 1 0 B 1.0 - -
    53f4de45775b795060d48984b2e9b8f7 fwqml001.zh:16030 3,700 0 79.46 GB 1 0 B 1.0 - -
    08d5c1833b66dbba374e942968e426c2 fwqml001.zh:16030 3,700 0 79.46 GB 1 0 B 1.0 - -
    7d8c8ce43206fec8e7c64dff3b58ab99 fwqml001.zh:16030 100 0 66.76 GB 1 0 B 1.0 - -
    730438ba27932b280b920f0527b4a81e fwqml001.zh:16030 100 0 66.76 GB 1 0 B 1.0 - -
    5394c6861aebc3e717ba0ffacc39f2a0 fwqzx011.zh:16030 400 0 51.96 GB 1 0 B 1.0 - -

    踩0 评论0
  • 回答了问题 2019-07-17

    如果我用时间+用户ID设计出来的RowKey,进行查询的时候只查询时间,不关心用户的话,怎么查?是直接将用户那几位用0站位吗?

    如果是注重偏写,就最好将rowkey盐化

    踩0 评论0
  • 回答了问题 2019-07-17

    hbase数据写入,B.defaultRpcServer.handler总是处于等待状态

    1、先确认是否是网络问题。在有问题的节点,ping zookeeper服务器,分别用ip和主机名试试。
    2、看看rpc超时时间是不是设置的太短。

    踩0 评论0
  • 回答了问题 2019-07-17

    使用javaPAI创建Hbase表的时候如何设置列族压缩方式为snappy压缩?是这个setCompressionType方法吗?

    HColumnDescriptor hcd = new HColumnDescriptor(

      HTableDescriptor.META_TABLEDESC.getColumnFamilies()[0]);
    final int v = 123;
    hcd.setBlocksize(v);
    hcd.setTimeToLive(v);
    hcd.setBlockCacheEnabled(!HColumnDescriptor.DEFAULT_BLOCKCACHE);
    hcd.setValue("a", "b");
    hcd.setMaxVersions(v);
    assertEquals(v, hcd.getMaxVersions());
    hcd.setMinVersions(v);
    assertEquals(v, hcd.getMinVersions());
    hcd.setKeepDeletedData(KeepDeletedCells.TRUE);
    hcd.setInMemory(!HColumnDescriptor.DEFAULT_IN_MEMORY);
    boolean inmemory = hcd.isInMemory();
    hcd.setScope(v);
    hcd.setDataBlockEncoding(DataBlockEncoding.FAST_DIFF);
    hcd.setBloomFilterType(BloomType.ROW);
    hcd.setCompressionType(Algorithm.SNAPPY); //设置压缩类型
    hcd.setStorageType(StorageType.HYBRID);

    可参考下!

    踩0 评论0
  • 回答了问题 2019-07-17

    两个不同hbase集群怎么同步数据

    如果是使用商用产品,可以根据具体的商用产品提供的集群同步工具。
    也可以通过enable_table_replication来启用同步。

    踩0 评论0
  • 回答了问题 2019-07-17

    如何查看hbase各个版本之间的依赖关系

    举例来说,0.99应该是依赖于0.98.X里最大的版本号的吧

    踩0 评论0
正在加载, 请稍后...
滑动查看更多