ClickHouse存储解析JSON数据
Posted 梦想画家
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ClickHouse存储解析JSON数据相关的知识,希望对你有一定的参考价值。
很多场景中由于业务变化数据结构不能确定,数据对象属性也可能随时间而变化。这时使用json保持动态数据是较好的选择,ClickHouse提供相应的工具支持存储和解析JSON数据。
ClickHouse除了以string存储json,22.3版本开始还提供json对象类型实验特性。
存储JSON数据
最简单方式使用字符串列存储JSON对象,创建示例表:
CREATE TABLE test_string ( `t` DateTime, `v` String )
ENGINE = MergeTree ORDER BY t
插入示例数据:
INSERT INTO test_string VALUES(now(), '"name":"Joe","age":95')
INSERT INTO test_string VALUES(now(), '"name":"Jack","rating":9')
INSERT INTO test_string VALUES(now(), '"name":"Tom","rating":8')
ClickHouse 提供了几个函数处理、验证JSON数据,下面通过分别进行验证。
验证检查key
可以使用 isVAlidJSON函数进行检查:
SELECT v, isValidJSON(v) FROM test_string
返回1、0 标识是否有效:
┌─v──────────────────────────┬─isValidJSON(v)─┐
│ "name":"Joe","age":95 │ 1 │
│ "name":"Jack","rating":9 │ 1 │
│ "name":"Tom","rating":8 │ 1 │
└────────────────────────────┴────────────────┘
也可以检查json对象是否包括特定key,这在数据清洗时经常使用:
SELECT
JSONHas(v, 'name') AND JSONHas(v, 'rating') AS is_valid,
count(*)
FROM test_string GROUP BY is_valid
上面SQL检查json是否包含name和rating属性,返回结果显示有两条记录符合条件:
┌─is_valid─┬─count()─┐
│ 0 │ 1 │
│ 1 │ 2 │
└──────────┴─────────┘
抽取值
通常我们需要操作json对象的属性值,有多种方式可以实现,首先我们看基于key的抽取函数:
SELECT
v,
JSONExtract(v, 'name', 'String'),
JSONExtract(v, 'rating', 'UInt32')
FROM test_string
LIMIT 5
// 返回结果
┌─v──────────────────────────┬─JSONExtract(v, 'name', 'String')─┬─JSONExtract(v, 'rating', 'UInt32')─┐
│ "name":"Joe","age":95 │ Joe │ 0 │
│ "name":"Jack","rating":9 │ Jack │ 9 │
│ "name":"Tom","rating":8 │ Tom │ 8 │
└────────────────────────────┴──────────────────────────────────┴────────────────────────────────────┘
这里name为key(字符串类型),rating为无符号整型。支持抽取标量类型(String, Int/UInt* , Float*),也支持复合数据类型,如Array 、 Tuple、any组合:
SELECT JSONExtract('"val": [1,2,3,4]', 'val', 'Array(UInt8)')[2] as item
// 返回结果
┌─item─┐
│ 2 │
└──────┘
还可以使用JSON_VALUE函数,无需考虑数据类型:
SELECT
v,
JSON_VALUE(v, '$.name') AS name
FROM test_string
LIMIT 5
// 返回结果
┌─v──────────────────────────┬─name─┐
│ "name":"Joe","age":95 │ Joe │
│ "name":"Jack","rating":9 │ Jack │
│ "name":"Tom","rating":8 │ Tom │
└────────────────────────────┴──────┘
在看一个复杂示例:
WITH JSONExtract(json, 'Tuple(a UInt32, b UInt32, c Nested(d UInt32, e String))') AS parsed_json
SELECT
JSONExtractUInt(json, 'a') AS a,
JSONExtractUInt(json, 'b') AS b,
JSONExtractArrayRaw(json, 'c') AS array_c,
tupleElement(parsed_json, 'a') AS a_tuple,
tupleElement(parsed_json, 'b') AS b_tuple,
tupleElement(parsed_json, 'c') AS array_c_tuple,
tupleElement(tupleElement(parsed_json, 'c'), 'd') AS `c.d`,
tupleElement(tupleElement(parsed_json, 'c'), 'e') AS `c.e`
FROM
(
SELECT '"a":1,"b":2,"c":["d":3,"e":"str_1", "d":4,"e":"str_2", "d":3,"e":"str_1", "d":4,"e":"str_1", "d":7,"e":"str_9"]' AS json
)
FORMAT Vertical
首先在了解json结构的情况下,使用JSONExtract函数生成tuple结构,上面代码使用with子句。然后再使用tupleElement函数从tuple中抽取值。当有嵌套结构或数组时,可以嵌套调用tupleElement函数。
json key索引
ClickHouse支持使用函数构建排序键,这样可以在索引中使用JSON抽取函数来优化某些查询:
CREATE TABLE test_index (
`t` Int64,
`v` String
)ENGINE = MergeTree
ORDER BY JSONExtractUInt(v, 'rating')
上面抽取rating属性值作为排序键,从而使得相关查询效率更高:
SELECT count(*) FROM test_index
WHERE JSONExtractUInt(v, 'rating') = 9
上面语句ClickHouse因使用索引使得查询效率很高,相反,如果过滤JSON属性没有索引,会执行全表扫描。相同查询在相同表上,但排序索引不同,结果相差很大,内存占用和使用时间都有极大差异。
这时你可能会有疑问:如何选择独立列或JSON属性?如果你明确知道json需要抽取哪个字段及数据类型,最好使用独立字段代替。这样可以节省空间(使用特定类型代替字符串)和性能提升(无需json抽取负载)。
试验特性——json对象类型
ClickHouse有试验特性JSON类型,现在考虑生产还为时过早,但我们可以先行学习。因为是试样特性,需要修改配置:
SET allow_experimental_object_type = 1
现在可以使用JSON类型创建表:
CREATE TABLE test_json ( `t` DateTime, `v` JSON )
ENGINE = MergeTree ORDER BY t
插入演示数据,则可以在查询中直接使用对象符号:
SELECT v.name, v.rating FROM test_json LIMIT 5
返回结果:
SELECT v.name, v.rating FROM test_json LIMIT 5
另外使用json对象类型暂用空间更好,示例场景中比字符串类型减少大约30%,但缺点是插入速度慢,对比插入字符串和JSON对象,将近有10倍差异。无论如何这仍然是实验性的,希望Clickhouse团队能够提供更详细文档并尽快正式发布该特性。
总结
json数据在ClickHouse中就和string字段一样,但可以使用JSON*
函数检查并抽取json键值。还可以使用抽取函数作为索引提升查询性能,但最好考虑将它们移动到单独的列中,只留下动态内容存储在JSON列中。
参考:https://altinity.com/blog/clickhouse-json-data-type-version-22-6;https://medium.com/datadenys/working-with-json-in-clickhouse-32e41ac0ff86
ClickHouse 核心引擎:MergeTree原理解析
文章目录
MergeTree引擎
存储结构
- partition:分区目录,余下各类数据文件(primary.idx、[Column].mrk、[Column]. bin等)都是以分区目录的形式被组织存放的,属于相同分区的数据,最终会被合并到同一个分区目录,而不同分区的数据,永远不会被合并在一起。
- checksums:校验文件,使用二进制格式存储。它保存了余下各类文件(primary. idx、count.txt等)的size大小及size的哈希值,用于快速校验文件的完整性和正确性。
- columns.txt:列信息文件,使用明文格式存储,用于保存此数据分区下的列字段信息。
- count.txt:计数文件,使用明文格式存储,用于记录当前数据分区目录下数据的总行数。
- primary.idx:一级索引文件,使用二进制格式存储。用于存放稀疏索引,一张MergeTree表只能声明一次一级索引。借助稀疏索引,在数据查询的时能够排除主键条件范围之外的数据文件,从而有效减少数据扫描范围,加速查询速度。
- [Column].bin:数据文件,使用压缩格式存储,用于存储某一列的数据。由于MergeTree采用列式存储,所以每一个列字段都拥有独立的.bin数据文件,并以列字段名称命名。
- [Column].mrk:使用二进制格式存储。标记文件中保存了.bin文件中数据的偏移量信息。标记文件与稀疏索引对齐,又与.bin文件一一对应,所以MergeTree通过标记文件建立了primary.idx稀疏索引与.bin数据文件之间的映射关系。即首先通过稀疏索引(primary.idx)找到对应数据的偏移量信息(.mrk),再通过偏移量直接从.bin文件中读取数据。由于.mrk标记文件与.bin文件一一对应,所以MergeTree中的每个列字段都会拥有与其对应的.mrk标记文件
- [Column].mrk2:如果使用了自适应大小的索引间隔,则标记文件会以.mrk2命名。它的工作原理和作用与.mrk标记文件相同。
- partition.dat与minmax_[Column].idx:如果使用了分区键,例如PARTITION BY EventTime,则会额外生成partition.dat与minmax索引文件,它们均使用二进制格式存储。partition.dat用于保存当前分区下分区表达式最终生成的值;而minmax索引用于记录当前分区下分区字段对应原始数据的最小和最大值。
- skp_idx_[Column].idx与skp_idx_[Column].mrk:如果在建表语句中声明了二级索引,则会额外生成相应的二级索引与标记文件,它们同样也使用二进制存储。二级索引在ClickHouse中又称跳数索引。
一级索引
稀疏索引
当我们定义主键之后,MergeTree会依据index_granularity
间隔(默认8192行),为数据表生成一级索引并保存至primary.idx
文件内,索引数据按照主键排序。相比使用主键定义,更为常见的简化形式是通过ORDER BY
指代主键。在此种情形下,主键与ORDER BY
定义相同,所以索引(primary.idx)和数据(.bin)会按照完全相同的规则排序。
一级索引底层采用了稀疏索引来实现,从下图我们可以看出它和稠密索引的区别。
对于稠密索引而言,每一行索引标记都会对应到具体的一行记录上。而在稀疏索引中,每一行索引标记对应的一大段数据,而不是具体的一行(他们之间的区别就有点类似mysql中innodb的聚集索引与非聚集索引)。
稀疏索引的优势是显而易见的,它只需要使用少量的索引标记就能够记录大量数据的区间位置信息,并且数据量越大优势愈发明显。例如我们使用默认的索引粒度(8192)时,MergeTree只需要12208行索引标记就能为1亿行数据记录提供索引。由于稀疏索引占用空间小,所以primary.idx内的索引数据能够常驻内存,取用速度自然极快。
索引粒度index_granularity
索引粒度就如同标尺一般,会丈量整个数据的长度,并依照刻度对数据进行标注,最终将数据标记成多个间隔的小段。数据以index_granularity
的粒度(老版本默认8192,新版本实现了自适应粒度)被标记成多个小的区间,其中每个区间最多8192行数据,MergeTree使用MarkRange表示一个具体的区间,并通过start和end表示其具体的范围。
如下图所示。
index_granularity
的命名虽然取了索引二字,但它不单只作用于一级索引(.idx),同时也会影响数据标记(.mrk)和数据文件(.bin)。因为仅有一级索引自身是无法完成查询工作的,它需要借助数据标记才能定位数据,所以一级索引和数据标记的间隔粒度相同(同为index_granularity
行),彼此对齐。而数据文件也会依照index_granularity
的间隔粒度生成压缩数据块。
索引的查询过程
索引查询其实就是两个数值区间的交集判断。其中,一个区间是由基于主键的查询条件转换而来的条件区间;而另一个区间是刚才所讲述的与MarkRange对应的数值区间。
整个索引的查询过程可以分为三大步骤
-
生成查询条件区间:将查询条件转换为条件区间。即便是单个值的查询条件,也会被转换成区间的形式。
-
--举例-- WHERE ID = 'A000' = ['A000', 'A000'] WHERE ID > 'A000' = ('A000', '+inf') WHERE ID < 'A000' = ('-inf', 'A000') WHERE ID LIKE 'A000%' = ['A000', 'A001')
-
-
递归交集判断:以递归的形式,依次对MarkRange的数值区间与条件区间做交集判断。从最大的区间[A000 , +inf)开始。
- 如果不存在交集,则直接通过剪枝算法优化此整段MarkRange
- 如果存在交集,且MarkRange步长大于N,则将这个区间进一步拆分为N个子区间,并重复此规则,继续做递归交集判断(N由
merge_tree_coarse_index_granularity
指定,默认值为8) - 如果存在交集,且MarkRange不可再分解,则记录MarkRange并返回
-
合并MarkRange区间:将最终匹配的MarkRange聚在一起,合并它们的范围。
MergeTree通过递归的形式持续向下拆分区间,最终将MarkRange定位到最细的粒度,以帮助在后续读取数据的时候,能够最小化扫描数据的范围。
联合主键
当我们以需要以多个字段为主键时,此时数据的查询和存储就涉及到另外一种规则。
例如以 (CounterID, Date)
以主键,片段中数据首先按 CounterID
排序,具有相同 CounterID
的部分按 Date
排序。排序好的索引的图示会是下面这样:
全部数据 : [-------------------------------------------------------------------------]
CounterID: [aaaaaaaaaaaaaaaaaabbbbcdeeeeeeeeeeeeefgggggggghhhhhhhhhiiiiiiiiikllllllll]
Date: [1111111222222233331233211111222222333211111112122222223111112223311122333]
标记: | | | | | | | | | | |
a,1 a,2 a,3 b,3 e,2 e,3 g,1 h,2 i,1 i,3 l,3
标记号: 0 1 2 3 4 5 6 7 8 9 10
如果指定查询如下:
CounterID in ('a', 'h')
,服务器会读取标记号在[0, 3)
和[6, 8)
区间中的数据。CounterID IN ('a', 'h') AND Date = 3
,服务器会读取标记号在[1, 3)
和[7, 8)
区间中的数据。Date = 3
,服务器会读取标记号在[1, 10]
区间中的数据。
上面例子可以看出使用索引通常会比全表描述要高效。
- 稀疏索引会引起额外的数据读取。当读取主键单个区间范围的数据时,每个数据块中最多会多读
index_granularity * 2
行额外的数据。 - 稀疏索引使得你可以处理极大量的行,因为大多数情况下,这些索引常驻与内存(RAM)中。
从上面可以看出,ClickHouse的联合主键在某种程度上与我们熟知的最左前缀规则有点类似,通常在以下几种场景下我们才会考虑使用联合索引
- 查询会使用
b
列作为条件 - 很长的数据范围(
index_granularity
的数倍)里a
都是相同的值,并且这样的情况很普遍。换言之,就是加入另一列后,可以让你的查询略过很长的数据范围。 - 数据量大,需要改善数据压缩(以主键排序片段数据,数据的一致性越高,压缩越好)
长的主键会对插入性能和内存消耗有负面影响,但主键中额外的列并不影响 SELECT
查询的性能。
二级索引
除了一级索引之外,MergeTree同样支持二级索引。二级索引又称跳数索引,由数据的聚合信息构建而成。根据索引类型的不同,其聚合信息的内容也不同。跳数索引的目的与一级索引一样,也是帮助查询时减少数据扫描的范围。
(二级索引目前还处于测试阶段,官方不建议大量使用)
跳数索引
目前,MergeTree共支持4种跳数索引,分别是minmax(最值)、set(集合行数)、ngrambf_v1(N-Gram布隆过滤器)和tokenbf_v1(Token布隆过滤器)。一张数据表支持同时声明多个跳数索引。
-
minmax(最值索引):minmax索引记录了一段数据内的最小和最大极值,其索引的作用类似分区目录的minmax索引,能够快速跳过无用的数据区间。
-
示例:INDEX [index_name] [column] TYPE minmax GRANULARITY [GRANULARITY SIZE]
-
-
set(集合行数索引):set索引直接记录了声明字段或表达式的不重复值,用于检测数据块是否满足
WHERE
条件。-
示例:INDEX [index_name] [column] TYPE set(max_rows) GRANULARITY [index_granularity] -- max_rows是一个阈值,表示在一个index_granularity内,索引最多记录的数据行数。(如果max_rows=0,则表示无限制)
-
-
ngrambf_v1(N-Gram布隆过滤器):ngrambf_v1索引记录的是指定长度的数据短语的布隆表过滤器,只支持String和FixedString数据类型,同时只能够提升
in
、notIn
、like
、equals
和notEquals
查询的性能。-
示例:INDEX [index_name] [column] TYPE ngrambf_v1(n, size_of_bloom_filter_in_bytes, number_of_hash_functions, random_seed) GRANULARITY [index_granularity] /* n:token长度,依据n的长度将数据切割为token短语。 size_of_bloom_filter_in_bytes:布隆过滤器的大小。 number_of_hash_functions:布隆过滤器中使用Hash函数的个数。 random_seed: Hash函数的随机种子。 */
-
布隆过滤器可能会包含不符合条件的匹配,所以 ngrambf_v1, tokenbf_v1 和 bloom_filter 索引不能用于负向的函数,例如: --可以用来优化的场景 s LIKE '%test%' NOT s NOT LIKE '%test%' s = 1 NOT s != 1 startsWith(s, 'test') i --不能用来优化的场景 NOT s LIKE '%test%' s NOT LIKE '%test%' NOT s = 1 s != 1 NOT startsWith(s, 'test')
-
-
tokenbf_v1(Token布隆过滤器):tokenbf_v1索引是ngrambf_v1的变种,同样也是一种布隆过滤器索引。tokenbf_v1除了短语token的处理方法外,其他与ngrambf_v1是完全一样的。tokenbf_v1会自动按照非字符的、数字的字符串分割token。
-
示例:INDEX d ID TYPE tokenbf_v1(size_of_bloom_filter_in_bytes, number_of_hash_functions, random_seed)
-
granularity
对于跳数索引而言,index_granularity
定义了数据的粒度,而granularity
定义了聚合信息汇总的粒度。换言之,granularity
定义了一行跳数索引能够跳过多少个index_granularity
区间的数据。
作用规则如下:首先,按照index_granularity
粒度间隔将数据划分成n段,总共有[0 , n-1]个区间(n = total_rows /index_granularity
,向上取整)。接着,根据索引定义时声明的表达式,从0区间开始,依次按index_granularity
粒度从数据中获取聚合信息,每次向前移动1步(n+1),聚合信息逐步累加。最后,当移动granularity
次区间时,则汇总并生成一行跳数索引数据。
以minmax索引为例,假设index_granularity=8192
且granularity=3
,则数据会按照index_granularity
划分为n等份,MergeTree从第0段分区开始,依次获取聚合信息。当获取到第3个分区时(granularity=3
),则汇总并会生成第一行minmax索引(前3段minmax极值汇总后取值为[1 , 9]),如下图
数据标记
如果把MergeTree比作一本书,primary.idx一级索引好比这本书的一级章节目录,.bin文件中的数据好比这本书中的文字,那么数据标记(.mrk)就好比书签一样,会为一级章节目录和具体的文字之间建立关联。
对于数据标记而言,它记录了两点重要信息:
- 一级章节对应的页码信息。
- 一段文字在某一页中的起始位置信息。
这样一来,通过数据标记就能够很快地从一本书中立即翻到关注内容所在的那一页,并知道从第几行开始阅读。
标记数据与一级索引数据不同,它并不能常驻内存,而是使用LRU(最近最少使用)缓存策略加快其取用速度。
生成规则
从上图可以看出,数据标记和索引区间是对齐的,均按照index_granularity
的粒度间隔。如此一来,只需简单通过索引区间的下标编号就可以直接找到对应的数据标记。
为了能够与数据衔接,数据标记文件也与.bin文件一一对应。即每一个列字段[Column].bin文件都有一个与之对应的[Column].mrk数据标记文件,用于记录数据在.bin文件中的偏移量信息。同时,.mrk包含了.bin压缩和解压缩这两种不同状态的偏移量,如下图
工作方式
MergeTree在读取数据时,必须通过标记数据的位置信息才能够找到所需要的数据。整个查找过程大致可以分为读取压缩数据块和读取数据两个步骤。
对于下图来说,表的index_granularity
粒度为8192,所以一个索引片段的数据大小恰好是8192B。按照压缩数据块的生成规则,如果单个批次数据小于64KB,则继续获取下一批数据,直至累积到size>=64KB时,生成下一个压缩数据块。因此在JavaEnable的标记文件中,每8行标记数据对应1个压缩数据块(1B * 8192 = 8192B, 64KB = 65536B, 65536 / 8192 =8)。
从图能够看到,其左侧的标记数据中,8行数据的压缩文件偏移量都是相同的,因为这8行标记都指向了同一个压缩数据块。而在这8行的标记数据中,它们的解压缩数据块中的偏移量,则依次按照8192B(每行数据1B,每一个批次8192行数据)累加,当累加达到65536(64KB)时则置0。因为根据规则,此时会生成下一个压缩数据块。
- 读取压缩数据块:在查询某一列数据时,MergeTree无须一次性加载整个.bin文件,而是可以根据需要,只加载特定的压缩数据块。而这项特性需要借助标记文件中所保存的压缩文件中的偏移量。
- 读取数据:在读取解压后的数据时,MergeTree并不需要一次性扫描整段解压数据,它可以根据需要,以
index_granularity
的粒度加载特定的一小段。为了实现这项特性,需要借助标记文件中保存的解压数据块中的偏移量。
数据标记与压缩数据块的对应关系
由于压缩数据块的划分,与一个间隔index_granularity
内的数据大小相关,每个压缩数据块的体积都被严格控制在64KB~1MB。而一个间隔index_granularity
的数据,又只会产生一行数据标记。那么根据一个间隔内数据的实际字节大小,数据标记和压缩数据块之间会产生三种不同的对应关系。
- 一对一
- 一个数据标记对应一个压缩数据块,当一个间隔
index_granularity
内的数据未压缩大小size大于等于64KB且小于等于1MB时,会出现这种对应关系。
- 一个数据标记对应一个压缩数据块,当一个间隔
- 一对多
- 一个数据标记对应多个压缩数据块,当一个间隔
index_granularity
内的数据未压缩大小size直接大于1MB时,会出现这种对应关系。
- 一个数据标记对应多个压缩数据块,当一个间隔
- 多对一
- 多个数据标记对应一个压缩数据块,当一个间隔
index_granularity
内的数据未压缩大小size小于64KB时,会出现这种对应关系。
- 多个数据标记对应一个压缩数据块,当一个间隔
工作流程
存储流程
数据的存储流程主要有以下几个步骤
- 首先生成分区目录,伴随着每一批数据的写入,都会生成一个新的分区目录。
- 在后续的某一时刻,属于相同分区的目录会依照规则合并到一起
- 接着,按照
index_granularity
索引粒度,会分别生成primary.idx一级索引(如果声明了二级索引,还会创建二级索引文件)、每一个列字段的.mrk数据标记和.bin压缩数据文件。
查询流程
数据查询的本质,可以看作一个不断减小数据范围的过程。在最理想的情况下,MergeTree首先可以依次借助分区索引、一级索引和二级索引,将数据扫描范围缩至最小。然后再借助数据标记,将需要解压与计算的数据范围缩至最小。
如果一条查询语句没有指定任何WHERE
条件,或是指定了WHERE
条件,但条件没有匹配到任何索引(分区索引、一级索引和二级索引),那么MergeTree就不能预先减小数据范围。在后续进行数据查询时,它会扫描所有分区目录,以及目录内索引段的最大区间。虽然不能减少数据范围,但是MergeTree仍然能够借助数据标记,以多线程的形式同时读取多个压缩数据块,以提升性能。
以上是关于ClickHouse存储解析JSON数据的主要内容,如果未能解决你的问题,请参考以下文章