HBase shell 示例

简介:
上一篇中对HBase做了简单的讲解,上篇地址:
 https://yq.aliyun.com/articles/376750?spm=a2c4e.11155435.0.0.a0c0cf2TT57c8   
今天使用HBase shell的方式来写个例子
1. 建表:表名blog,有两个列族:‘article’和‘author’
2. 插⼊数据到表blog中,数据如下
28b7211ca168272b2b6dde2bc5227576ea2e1a50
3. 读出rowkey为“blog2”的author的name和age
4. 读出所有article的title
5. 更新“blog1”作者的age为40
6. 读出rowkey为“blog1”中author的name和age
7. 删除rowkey为“blog3”中article的tag
8. 读出所有article的title和tag,同时读出所有author的name

代码如下:
1. 建表,包含两个列族 ‘article’和‘author’

>create 'blog','article','author'
来查看下表结构
>describe 'blog'
Table blog is ENABLED                                                                  
blog                                                                                   
COLUMN FAMILIES DESCRIPTION                                                            
{NAME => 'article', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_D
ELETED_CELLS => 'FALSE', DATA_BLOCK_ENCODING => 'NONE', TTL => 'FOREVER', COMPRESSION =
> 'NONE', MIN_VERSIONS => '0', BLOCKCACHE => 'true', BLOCKSIZE => '65536', REPLICATION_
SCOPE => '0'}                                                                          
{NAME => 'author', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DE
LETED_CELLS => 'FALSE', DATA_BLOCK_ENCODING => 'NONE', TTL => 'FOREVER', COMPRESSION =>
 'NONE', MIN_VERSIONS => '0', BLOCKCACHE => 'true', BLOCKSIZE => '65536', REPLICATION_S
COPE => '0'}                                                                           
2 row(s) in 0.0430 seconds

2. 插入数据

插入一行
>put 'blog','blog1','article:title','mapreduce'
>put 'blog','blog1','article:content','intorduce mapreduce'
>put 'blog','blog1','article:tag','computing'

>put 'blog','blog1','author:name','David'
>put 'blog','blog1','author:gender','male'
>put 'blog','blog1','author:age','34'

第二行
>put 'blog','blog2','article:title','hadoop'
>put 'blog','blog2','article:content','hadoop in action'
>put 'blog','blog2','article:tag','system'

>put 'blog','blog2','author:name','jim'
>put 'blog','blog2','author:gender','male'
>put 'blog','blog2','author:age','35'

第三行
>put 'blog','blog3','article:title','hdfs'
>put 'blog','blog3','article:content','princilpe'
>put 'blog','blog3','article:tag','storage'

>put 'blog','blog3','author:name','jack'
>put 'blog','blog3','author:gender','male'
>put 'blog','blog3','author:age','21'

3. 读出rowkey为“blog2”的author的name和age

>get 'blog','blog2','author:name','author:age'
COLUMN                 CELL                                                            
 author:age            timestamp=1516592344548, value=35                               
 author:name           timestamp=1516592314918, value=jim                              
2 row(s) in 0.0110 seconds

4. 读出所有article的title

>scan 'blog',{COLUMNS=>'article:title'}
ROW                    COLUMN+CELL                                                     
 blog1                 column=article:title, timestamp=1516591624453, value=mapreduce  
 blog2                 column=article:title, timestamp=1516592170858, value=hadoop     
 blog3                 column=article:title, timestamp=1516592680840, value=hdfs       
3 row(s) in 0.0400 seconds

5. 更新“blog1”作者的age为40

>put 'blog','blog1','author:age','40'

6. 读出rowkey为“blog1”中author的name和age(参考3)

7. 删除rowkey为“blog3”中article的tag

>delete 'blog','blog3','article:tag'

8. 读出所有article的title和tag,同时读出所有author的name

>scan 'blog',{COLUMNS=>['article:title','article:tag','author:name']}
ROW                    COLUMN+CELL                                                     
 blog1                 column=article:tag, timestamp=1516591824979, value=computing    
 blog1                 column=article:title, timestamp=1516591624453, value=mapreduce  
 blog1                 column=author:name, timestamp=1516592031628, value=David        
 blog2                 column=article:tag, timestamp=1516592220615, value=system       
 blog2                 column=article:title, timestamp=1516592170858, value=hadoop     
 blog2                 column=author:name, timestamp=1516592314918, value=jim          
 blog3                 column=article:title, timestamp=1516592680840, value=hdfs       
 blog3                 column=author:name, timestamp=1516592703643, value=jack         
3 row(s) in 0.0230 seconds




上述所写如有不对之处,还请各位前辈指出赐教。--五维空间

相关实践学习
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
2月前
|
Shell
shell脚本实战示例
shell脚本实战示例
57 6
|
4月前
|
Java Shell 分布式数据库
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
84 0
|
7月前
|
存储 Shell
shell脚本里的函数详解以及示例
shell脚本里的函数详解以及示例
40 1
|
7月前
|
Shell 分布式数据库 Apache
Hbase常用shell操作
Hbase常用shell操作
319 1
|
4月前
|
分布式计算 Hadoop Shell
|
8月前
|
Shell
shell脚本中的控制流示例
shell脚本中的控制流示例
31 5
|
8月前
|
Shell
shell中正则表达式的用途以及示例
shell中正则表达式的用途以及示例
69 1
|
4月前
|
Kubernetes Shell Linux
linux|shell编程|shell脚本内的加减乘除运算实现和π值的计算示例
linux|shell编程|shell脚本内的加减乘除运算实现和π值的计算示例
72 0
|
7月前
|
Shell 分布式数据库 Hbase
Hbase shell管理操作
Hbase shell管理操作
53 0
|
8月前
|
Shell
shell脚本中的变量示例
shell脚本中的变量示例
49 3