大家好,欢迎来到IT知识分享网。
最通用的SQL解析框架 – Calcite
最近在研究Flink,在flink-table中看到了calcite,想到自己一年前刚刚从事大数据时,在Hive SQL就对SQL解析产生了很大的好奇,但当时对于这么多的概念一下子接受不过来就放弃了对calcite的研究,觉得现在还是应该再好好做一个总结。
背景
如果你经常做数据处理一类的工作,必定不会对SQL感到陌生。Calcite作为业内通用的SQL处理器,被广泛的运用在了Hive、Flink、Beam等顶级开源项目中。
过去不少博客中提到的SQL解析部分(如spark-catalyst)往往都是说到这样一个流程:
这个流程在Calcite中也是适用的,继续往下看。
速览
先看一段对SQL执行完整的一套代码。分为四个步骤:
- SQL解析
- SqlNode转换
- 优化
- 执行
// Convert query to SqlNode String sql = "select price from transactions"; Config config = SqlParser.configBuilder().build(); SqlParser parser = SqlParser.create(sql, config); SqlNode node = parser.parseQuery();
调用SqlParser将SQL语句生成SQL Tree。这部分是Java CC基于Parser.jj文件模板来实现的,输出为SqlNode的Tree的形式,并没有太多的代码,具体文档可见JavaCC Help。
// Convert SqlNode to RelNode VolcanoPlanner planner = new VolcanoPlanner(); RexBuilder rexBuilder = createRexBuilder(); RelOptCluster cluster = RelOptCluster.create(planner, rexBuilder); SqlToRelConverter converter = new SqlToRelConverter(...); RelRoot root = converter.convertQuery(node, false, true);
SqlToRelConverter将SQL Tree转化为Calcite中的RelNode。虽然两种Node都是类似于Tree的形式,但是表示的含义不同。SqlNode有很多种,既包括MIN、MAX这种表达式型的,也包括SELECT、JOIN这种关系型的,转化过程中,将这两种分离成RelNode关系型和RexNode表达式型。
// Optimize RelNode RelNode optimized = planner.findBestExp();
基于Rule对RelNode做优化。Calcite中Planner分为两种,rule-based和cost-based,在后面将分析更复杂的cost-based的实现。
// Execute Interpreter interpreter = new Interpreter(dataContext, optimized); interpreter.enumerator();
在生成的optimized中,根据不同RelNode的类型执行不同的代码,如TableScan执行扫描Table的代码。
SqlNode转换
在SqlToRelConverter中,入口函数为convertQuery。
public RelRoot convertQuery(SqlNode query, final boolean needsValidation, final boolean top) { if (needsValidation) { query = validator.validate(query); } RelNode result = convertQueryRecursive(query, top, null).rel; .... }
可以看出在convertQueryRecursive采取了遍历的方式来解析query,下面的一系列visit方法将SqlNode直接解析成了RexNode,方法截图如下:
以visit(SqlLiteral)为例,根据不同的类型生成了不同的RexNode:
RexNode再根据不同的SqlNode.getKind()类型组合成不同的RelNode,例如Select -> Project。
优化
优化部分由Planner的findBestExp()执行,其中的策略分为很多种,使用者可以自定义。在calcite中提供了两种Planner:
- HepPlanner: 基于Rule对RelNode的Tree不断优化直到优化空间为0。
- VolcanoPlanner: 基于rule+cost采用随机梯度下降法优化,优化至每次优化空间都很小。
以VolcanoPlanner的优化逻辑为例:
- 注册RelNode,若发现符合Rule的RelNode,将新构建的RuleCall加入到ruleQueue中,等待后续过程进行优化。
- 进入优化环节,判断是否cost比上一次优化降低10%,是则继续优化,否则退出。
- 从ruleQueue中提取ruleCall进行优化。
- 重新构造RelRoot,更新cost。
- 进入2的循环。
- 退出。
其实采用VolcanoPlanner相对比较麻烦,因为要基于不同的存储来实现cost的计算,所以大部分大数据框架都是采取Rule-based的Planner形式。这部分的优化其实相对复杂,涉及到比较多的细节,如随机梯度下降的控制,循环次数的控制,内部RelNode的替换等逻辑,一个章节好像没有办法将这个Planner完全说明白,如果有兴趣的话,可以看看具体的实现VolcanoPlanner。
执行
执行根据不同的Node定义了代码的实现方法,从最底层的RelNode依次执行,采用source接收数据,sink发送数据。在Flink中,也有translate函数来做一个类似的实现。
Calcite源码相关名词释义
名称 |
解释 |
作用 |
SqlNode |
SqlTree中的Node |
在SqlToRelConverter中转化为RelNode |
RexNode |
表达式 |
RexLiteral是常量表达式,如”123”;RexCall是函数表达式,如cast(xx as xx) |
RelNode |
关系表达式(动词) |
常在执行计划中看到,如Project,Join,Aggregate |
RelSubset |
带有同一Trait的RelNode集合 |
|
RelSet |
RelSubset集合 |
|
RelTrait |
特征 |
RelNode对应的特征,如RelCollation可能是Project中的排序特征 |
TraitDef |
特征定义 |
定义了Trait对应的一些方法 |
Convention |
转化特征 |
用于转化RelNode,常见的有SparkConvention,FlinkConvention |
Literal |
常量 |
|
Planner |
SQL计划 |
可用于解析、优化、执行 |
Program |
程序 |
可根据Rules自行构建,作用和Planner类似 |
相关文档
- Drill中Calcite优化器代码分析
- Deep Dive into Spark SQL’s Catalyst Optimizer
- 编译原理
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/50929.html