hbase是一款分布式数据库. 其对数据的索引只通过row key进行. 在存储数据的时候, 通过row key的排序进行存储. 在面对一个新的数据库时, 深究其原理并不知一个明智的选择, 正如开车一般, 大多数人都是先学会开车, 然后在开车的过程中车子出故障了, 再慢慢学着去修理. 不管怎么说, 第一步都是要先会使用.
这篇文章主要为了整理hbase命令行的使用, 留待以后用到时翻阅.
读取数据
因为一个数据库使用, 通常最复杂的命令就是查询, 故而将大篇幅都给了查询. 哦对, 如果你现在还没有数据, 先跳到文章底部, 那里有建表和数据插入的操作.
hbase没有索引, 访问hbase中的数据只有三种方式:
- 通过指定row key访问
- 通过row key范围访问
- 全表扫描
单条数据查询
- get '<table name>','<row key>': 查询一行数据
- get '<table name>','<row key>','<column family>': 查询一行数据, 返回指定列族数据
全表扫描
- scan '<table name>': 返回全表数据
- scan '<table name>,{COLUMN=>'<column family>'}: 返回全表指定列族数据
- scan '<table name>,{COLUMNS=>['<column family:key']}: 返回全表指定列族的一个 key
到这里, 有没有对大括号中的属性值感兴趣? 其可以添加一些指定的过滤条件
数据过滤属性
这些内容, 不光可以在scan命令使用, 在count, get都可以用. 有一些暂时认为用不到的就直接忽略了, 可以通过help 'scan' 查看支持的所有属性. 其使用如下:
{属性1=>'值1, 属性2=>'值2'}
字段过滤
- COLUMN: 返回指定列族- '<column family>'
 
- COLUMNS: 返回指定列族的一列- '<column family:key>'
 
数量限制
- LIMIT: 限制返回结果数量
row key 过滤
- STARTROW: 限定扫描 row key 起始行
- STOPROW: 限定扫描 row key 结束行
- ROWPREFIXFILTER: row key 前缀匹配
排序
- REVERSED: row key 倒序扫描- TRUE/FALSE
 
其他
- VERSIONS: (int)返回多个版本的数据
- ALL_METRICS: (bool)是否显示扫描的指标数据
- METRICS: 查看指定指标数据- ["<xxx>"]
 
- CACHE: (int)指定每次要缓存多少条数据, 可加速查询
- MAXLENGTH:(int) 指定返回数据的最大长度(可以用来限制返回超长的数据)
条件过滤
- TIMERANGE: 限定时间戳范围- [1303668804000, 1303668904000](毫秒, 前闭后开)
 
- TIMESTAMP: 指定时间的数据
- FILTER: 对结果进行过滤
对FILTER进行额外的补充介绍
过滤条件可添加多个, 如:
`FILTER=>"fun1() and (fun2() or fun3())"
你要是想问我文档在哪里?? 不好意思, 没找到. 不过经过我多方尝试, 发现这些方法都是hbase官方jar包中实现的过滤功能, 也就是说, 如果你是用JAVA开发, 那就可以自己写过滤器.
不过虽然没有找到官方文档, 我还是另辟蹊径找到了所有可用的过滤器. 没错, 就是去看jar包的内容. 看到这个过滤器的父类是: FilterBase. 进而找到所有在org.apache.hadoop.hbase.filter包下的实现类:

各个过滤器的参数, 可看其各自的构造方法. 简单列一下其中可用的方法:
row key 过滤
- PrefixFilter: row key 前缀匹配- PrefixFilter('test'): 匹配所有'test'开头的row key
 
- FuzzyRowFilter: row key 中间匹配(不支持命令行, 可通过- RowFilter正则实现)
- RowFilter: 对 row key 进行比较- RowFilter(op, value): 参数参考- SingleColumnValueFilter
 
列名过滤
- ColumnPrefixFilter: 列族下的 key 前缀匹配- ColumnPrefixFilter('test'): 匹配所有'test'开头的 key
 
- MultipleColumnPrefixFilter: 与- ColumnPrefixFilter作用类似, 不过可以匹配多个, 相当于多个- ColumnPrefixFilter的或操作- MultipleColumnPrefixFilter('test1', 'test2')
 
- ColumnRangeFilter: 列名区间匹配(比如一行数据有一万列, 返回其中部分). 字符串比较- ColumnRangeFilter(minColumn, minColumnInclusive, maxColumn, maxColumnInclusive)- minColumn: 最小的列(string). max同理
- minColumnInclusive: 是否包含最小列(bool). max 同理
 
 
- DependentColumnFilter: 返回存在的匹配列(判断是否存在). (仅返回匹配列)- DependentColumnFilter(family, qualifier)
 
- QualifierFilter: 对列名进行匹配过滤- QualifierFilter(op, value): 参数参考- ColumnValueFilter
 
列值过滤
- SingleColumnValueFilter: 对列值进行比较过滤. 大于小于等于- ColumnValueFilter(family, qualifier, op, value)- family: 列族名称
- qualifier: 列名
- op: =, !=, >, <, <=, >=...
- value: 进行比较的值- substring:xxx: 字符串前缀比较 (只能使用=/!=)
- regexstring:xxx: 字符串正则比较(只能使用=/!=)
- binary:xxx: 字典序比较
- binaryprefix:xxx: 字典序前缀比较
 
 
 
- SingleColumnValueExcludeFilter: 参数与功能与- SingleColumnValueFilter相同. 不同点在于, 此方法返回时会去掉比较的列.
- ColumnValueFilter: 与- SingleColumnValueFilter类似. 唯一不同的是, 此过滤器只返回匹配的列. 而- SingleColumnValueFilter会返回整行数据
- KeyOnlyFilter: 只返回列名, 不返回其对应的值(无参)
- TimestampsFilter: 按照时间戳进行过滤, 返回指定时间戳的数据.- TimestampsFilter(time1, time2)
 
- ValueFilter: 对值进行匹配, 仅返回匹配列. 参数参考- SingleColumnValueFilter
 *- ValueFilter(op, value)
数量过滤
- ColumnCountGetFilter: 返回每行的前 n 个列- ColumnCountGetFilter(limit)
 
- ColumnPaginationFilter: 返回每行n-m 列数据- ColumnPaginationFilter(limit, offset): 数量限制/偏移量
 
- FilterAllFilter: 过滤所有内容. 不给客户端返回任何数据, 没有参数. 这有什么用(用来检查性能???)
- FirstKeyOnlyFilter: 返回每行的第一个键值, 没有参数. (用来统计??)
- InclusiveStopFilter: 提前结束遍历. 当遇到匹配的 row key时停止.- InclusiveStopFilter(stopRowKey)
 
- PageFilter: 限定返回一页的数据行数. 这玩意不就是 limit 么...- PageFilter(size)
 
- RandomRowFilter: 返回随机数据, 无参. (shell 不支持)
另外, 还有一些过滤器不支持命令行使用, 一些复杂参数的构造方法. 就暂时被我忽略了.
脚本查询
另外, 其命令行更厉害的一点是, 他可以直接执行 JAVA代码, 而, 不对, 应该是类JAVA代码.
比如: import org.apache.hadoop.hbase.filter.SingleColumnValueFilter
再比如: filter = SingleColumnValueFilter.new(Bytes.toBytes('user_info'), Bytes.toBytes('name'), CompareFilter::CompareOp.valueOf('EQUAL'),Bytes.toBytes('substring:xxx'))
再比如: scan 'user', {FILTER => filter, LIMIT => 2}
而且, 这些命令都是可以直接跑在命令行的. 同时, 你也可以自己建一些脚本交给shel执行:
hbase shell cron.txt
shell会依次执行文件中的命令. 这里还没有深究, 先简单记录一下有这么个事.
其他命令
- count '<table name>': 查看记录总数
- status: 查看服务器状态
- version: 查看版本
- list: 查看所有表
- help '<command name': 查询指定命令的帮助信息
表结构相关:
- create '<table name>','<column family1>','<column family2>',...: 建表
- describe '<table name>': 查看表的描述信息
- alter '<table name>', '<column family>': 增加一个列族
- alter '<table name>', {NAME => '<column family>', METHOD => 'delete’}: 删除一个列族
- is_enabled '<table name>': 查看表是否启用
- is_disabled '<table name>': 查看表是否禁用
- enabled '<table name>': 启用表
- disabled '<table name>': 禁用表
- exists '<table name>': 查看表是否存在
- drop '<table name>': 删除表(需要先禁用)
数据相关:
- put '<table name>','<row key>','<column family:key>','<value>': 插入数据
- delete '<table name>', '<row key>','<column family:key>',<timestamp>: 删除数据(也可以不带时间戳, 删除所有版本)
- deleteall '<table name>', '<row key>': 删除一行数据