在开始剖析SparkSQL前,我们要先来了解一下Antlr4,这是因为spark-sql字符串解析工作是由Antlr4完成的,故需要先来了解Antlr4,如下:
本文会着重介绍一下几点:
1、Antlr是什么?
2、如何使用?
3、SparkSql中如何使用?
Antlr4(Another Tool for Language Recognition)是一款强大的语法分析器生成工具,可用于读取、处理、执行和翻译结构化的文本,用户可根据需要自定义语法规则来实现相应功能
那么我们为何要用antlr4呢?
假设我们要自己发明一种特殊语言【例如以自己命名的sql语言: MeSQL】,下面是MeSQL的一条sql语句:
me a,b,c to tableName
相信市面上根本没有这种语言,我们自己编写的语言中肯定需要语法和关键字,并且关键字不仅仅只是 me \ to。肯定有很多关键字和不同语法组合成的语句;
针对这种自己发明的语法被称为:DSL领域特定语言
如果要我们要自己实现一套DSL领域特定语言,其过程会十分复杂,首先需要解析字符串,再形成语法树,再到节点处理等等步骤。
此时ANTLR就可以派上用场了,多说无益,接下来我们自己实现一个
首先ANTLR是用Java编写的,因此你需要首先安装Java,下面将从实战的角度介绍如何使用
首先需要在IDEA中安装antlr4插件,这个插件可以帮助我们提高工作效率,就像Maven的MavenHelper插件一样
新建一个Maven项目,并在pom.xml中引入antlr4依赖:
注意:如果你已经有一个SparkSql的项目,则无需引用,因sparkSQL中已经包含antlr的依赖
org.antlr antlr4-runtime 4.8-1 org.antlr antlr4-maven-plugin 4.8-1 antlr4 none src/main/java true
语法文件是以.g4结尾的文件,例如MeSql.g4,antlr4是通过读取.g4语法文件来生成语法解析的类
一个完整的.g4语法文件是要包含如下两种元素:
1、语法规则 - 即语法,例如java的方法要写返回值和入参,等固定的语法搭配
2、词法规则 - 即关键字规则,例如java的public, private等关键字词法
如下:
// 语法文件通常以 granmar 关键宇开头 这是一个名为 MeSql 的语法 它必须和文件名 MeSql.g4相匹配
grammar MeSql;// 定义一条名为 me 的语法规则,它匹配一对花括号[START, STOP为词法关键词]、逗号分隔的 value [另一条语法规则,在下面], 以及 * 匹配多个 value
me : START value (',' value)* STOP ;// 定义一条value的语法规则,正是上面me语法中的value,该value的值应该是 INT 或者继续是 me [代表嵌套], | 符号代表或
value : me|INT;// 以下所有词法符号都是根据正则表达式判断
// 定义一个INT的词法符号, 只能是正整数
INT : [0-9]+ ;// 定义一个START的词法符号, 只包含{
START : '{' ;// 定义一个STOP的词法符号, 只包含}
STOP : '}' ;// 定义一个AND的词法符号, 只包含,
AND : ',' ;// 定义一个WS的词法符号,后面跟正则表达式,意思是空白符号丢弃
WS : [\t\n\r]+ -> skip ;
接下来我们要通过运行语法文件,将用户输入的字符串转化为语法树,过程如下:
首先选中me右键点击Test Rule me
此时会弹出Antlr Preview窗口,在左侧窗口中输入:
{3,4,{3,4}}
此时右侧会展示插件解析好的语法树【也叫AST抽象语法树】
可以看到树中的根节点就是me,{ 转换成了START,数值3,4都转换成了value,并且指向INT词法
我们再将MeSql文法改一改:将INT改为[0-2],此时输入3,4 会解析失败
在实际使用中,我们的语法文件中会包含非常多的语法和词法,为了更好的解耦,通常是有两个文件:
1、语法文件
2、词法文件
语法文件中通过关键字指向词法文件,例如在spark中,也是将语法文件分成了两个,如下:
https://github.com/apache/spark/tree/master/sql/catalyst/src/main/antlr4/org/apache/spark/sql/catalyst/parser
所以我们将上面示例更改成如下两个文件:
MeSqlLexer词法文件:
// 语法文件通常以 granmar 关键宇开头 这是一个名为 MeSql 的语法 它必须和文件名 MeSql.g4相匹配
lexer grammar MeSqlLexer;// 以下所有词法符号都是根据正则表达式判断
// 定义一个INT的词法符号, 只能是正整数
INT : [0-9]+ ;// 定义一个START的词法符号, 只包含{
START : '{' ;// 定义一个STOP的词法符号, 只包含}
STOP : '}' ;// 定义一个AND的词法符号, 只包含,
AND : ',' ;// 定义一个WS的词法符号,后面跟正则表达式,意思是空白符号丢弃
WS : [\t\n\r]+ -> skip ;
MeSqlParser语法文件:
// 语法文件通常以 granmar 关键宇开头 这是一个名为 MeSql 的语法 它必须和文件名 MeSql.g4相匹配
parser grammar MeSqlParser;options {// 表示解析token的词法解析器使用SearchLexertokenVocab = MeSqlLexer;
}// 定义一条名为 me 的语法规则,它匹配一对花括号[START, STOP为词法关键词]、逗号分隔的 value [另一条语法规则,在下面], 以及 * 匹配多个 value
me : START value (',' value)* STOP ;// 定义一条value的语法规则,正是上面me语法中的value,该value的值应该是 INT 或者继续是 me [代表嵌套], | 符号代表或
value : me|INT;
在MeSqlParser语法文件中选中me 右键执行:
检验成功:
验证完语法文件是正确的,接下来就要用antlr4的工具将语法文件编译成java解析类,最终落地到代码层面
首先配置生成java类的路径,右键MeSqlParser -> Configure
生成java文件:
虽然我们在IDEA的antlr4插件中可以看到语句转换成AST语法树:
但这是antlr插件帮我们生成的,在实际使用中我们需要将语法树转换成真正的类,类似下图:me类中包含各个子类,同时包含自己
生成的java类便是Antlr4所提供的核心功能,将AST语法树转化成类的表达方式,接下来我们试一下
新建一个Test类复制如下代码:
import org.antlr.v4.runtime.ANTLRInputStream;
import org.antlr.v4.runtime.CommonTokenStream;
import org.antlr.v4.runtime.tree.ParseTree;public class Test {public static void main(String[] args) {ANTLRInputStream input = new ANTLRInputStream("{1,2,{3,4}");//词法解析器,处理inputMeSqlLexer lexer = new MeSqlLexer(input);//词法符号的缓冲器,存储词法分析器生成的词法符号CommonTokenStream tokens = new CommonTokenStream(lexer);//语法分析器,处理词法符号缓冲区的内容MeSqlParser parser = new MeSqlParser(tokens);ParseTree tree = parser.me();System.out.println(tree.toStringTree(parser));}
}
我们在输出一行打一个断点,debug模式运行下,如下:
可以看出在ParseTree中包含着children集合,在集合中抱着各个节点,每个节点又可以向下展开,从而形成类形式的语法树!
在上一步中Antlr4帮我们将{1,2,{3,4}}字符串转化成了语法树,接下来我们需要自定义处理逻辑,从而让语法书按照我们设定的规则进行处理
比如我们现在的规则是需要将{}中的所有数值相加求和,最后得到总和,那么该如何自定义呢?
Antlr4给我们提供了两种遍历树的方式:
1、监听器–antlr4内部控制遍历语法树规则
2、访问者—用户可以手动控制遍历语法树规则
这两种方式在此示例中的体现是两个接口【antlr4帮我们生成的】:
我们只需要在两种接口中选择实现一种接口即可,不过antlr4已经帮我们生成了两个实现类:所以我们只需要直接补充接口函数即可
监听器模式的特点是用户无需关心语法树的递归,统一由antlr提供的ParseTreeWalker类进行递归即可。
我们先自行实现ParseTreeListener接口,在其中填充自己的逻辑代码(通常是调用程序的其他部分),从而构建出我们自己的语言类应用程序。
MeSqlParserBaseListener:通过map将各个节点分开,最后进行汇总累加
import java.util.HashMap;
import java.util.Map;import org.antlr.v4.runtime.ParserRuleContext;
import org.antlr.v4.runtime.tree.ErrorNode;
import org.antlr.v4.runtime.tree.TerminalNode;public class MeSqlParserBaseListener implements MeSqlParserListener {Map map = new HashMap<>();public void enterMe(MeSqlParser.MeContext ctx) {if (!map.containsKey(ctx.getText())) {map.put(ctx.getText(), 0);}}public void exitMe(MeSqlParser.MeContext ctx) {if (ctx.parent == null) {int sum = map.values().stream().mapToInt(i -> i).sum();System.out.println(" result = " + sum);}}public void enterValue(MeSqlParser.ValueContext ctx) {if (ctx.INT() != null && map.containsKey(ctx.parent.getText())) {map.put(ctx.parent.getText(), map.get(ctx.parent.getText()) + Integer.parseInt(ctx.INT().getText()));}}public void exitValue(MeSqlParser.ValueContext ctx) {}public void enterEveryRule(ParserRuleContext ctx) {}public void exitEveryRule(ParserRuleContext ctx) {}public void visitTerminal(TerminalNode node) {}public void visitErrorNode(ErrorNode node) {}
}
主程序:
import org.antlr.v4.runtime.ANTLRInputStream;
import org.antlr.v4.runtime.CommonTokenStream;
import org.antlr.v4.runtime.tree.ParseTree;
import org.antlr.v4.runtime.tree.ParseTreeWalker;public class Test {public static void main(String[] args) {ANTLRInputStream input = new ANTLRInputStream("{1,2,{3,4}}");//词法解析器,处理inputMeSqlLexer lexer = new MeSqlLexer(input);//词法符号的缓冲器,存储词法分析器生成的词法符号CommonTokenStream tokens = new CommonTokenStream(lexer);//语法分析器,处理词法符号缓冲区的内容MeSqlParser parser = new MeSqlParser(tokens);ParseTree tree = parser.me();// ParseTreeWalker类将实现的MeSqlParserBaseListener监听器放入new ParseTreeWalker().walk(new MeSqlParserBaseListener(), tree);}
}
这里说一下执行流程:
在MeSqlParserBaseListener类中,语法中的每条规则都有对应的enter方法和exit方法。
例如,当遍历器访问到me规则对应的节点时,它就会调用enterMe()方法,然后将对应的AST语法树节点 MeContext的实例当作参数传递给它。在遍历器访问了me节点的全部子节点之后,它会调用exitMe();
如果执行到叶子节点,它会调用enterValue()方法,将对应的语法树节点 ValueContext的实例当作参数传递给它,执行完成后执行exitValue()方法。
下图用标识了 ParseTreeWalker对AST语法树进行深度优先遍历的过程:
上面的程序结果是通过最后一次exitMe函数来将map中存储的各个节点的总和累加得出,如下:
至此监听器程序结束。
访问者模式的特点是需要用户自己手动控制语法树节点的调用,优点是灵活,sparksql也是使用这一模式来实现sql语法解析
在MeSqlParserBaseVisitor中,语法里的每条规则对应接口中的一个visit方法
MeSqlParserBaseVisitor2:
import java.util.List;// 用户自己控制语法树节点遍历,十分灵活
public class MeSqlParserBaseVisitor2 extends MeSqlParserBaseVisitor {// 循环me节点的所有子节点,调用visitValue函数@Overridepublic Integer visitMe(MeSqlParser.MeContext ctx) {final List value = ctx.value();return value.stream().mapToInt(this::visitValue).sum();}// visitValue函数中判断如果是me节点则调用visitMe,否则返回INT值@Overridepublic Integer visitValue(MeSqlParser.ValueContext ctx) {if (ctx.me() != null) {return visitMe(ctx.me());}if (ctx.INT() != null) {return Integer.parseInt(ctx.INT().getText());}return 0;}
}
主函数:
import org.antlr.v4.runtime.ANTLRInputStream;
import org.antlr.v4.runtime.CommonTokenStream;public class TestVisitor {public static void main(String[] args) {ANTLRInputStream input = new ANTLRInputStream("{1,2,{3,4}}");//词法解析器,处理inputMeSqlLexer lexer = new MeSqlLexer(input);//词法符号的缓冲器,存储词法分析器生成的词法符号CommonTokenStream tokens = new CommonTokenStream(lexer);//语法分析器,处理词法符号缓冲区的内容MeSqlParser parser = new MeSqlParser(tokens);// 创建自定义访问器MeSqlParserBaseVisitor2 visitor = new MeSqlParserBaseVisitor2();// 将parser语法树头节点放入Integer sum = visitor.visitMe(parser.me());System.out.println(sum);}
}
结果:通过debug,可以看到结果符合预期:
至此访问者模式结束。
至此我们用两种方式实现了一个简单的DSL语言,回过头来再看一下开篇定义:
ANTLR是一款强大的语法分析器生成工具,可用于读取、处理、执行和翻译结构化的文本,用户可根据需要自定义语法规则来实现相应功能
是不是感觉清晰了很多
在sparksql源码中是有语法文件的,如下:
https://github.com/apache/spark/tree/master/sql/catalyst/src/main/antlr4/org/apache/spark/sql/catalyst/parser
接下来我们将这两个文件复制到IDEA中,打开SqlBaseParser.g4,右键执行Test Rule
然后我们随便输入一条sql,查看右侧语法树:可以看到右侧生成了庞大的语法树,这就是SparkSQL的语法树
接下来我们可以根据语法文件来生成相关配置类:
然后我们试着做一个好玩的,新建一个类来自定义访问器:
MyVisitor
/*** 自定义SparkSQL*/
public class MyVisitor extends SqlBaseParserBaseVisitor {@Overridepublic String visitSingleStatement(SqlBaseParser.SingleStatementContext ctx) {System.out.println(" ...MyVisitor... "); // 打印return visitChildren(ctx);}
}
主函数:
import org.antlr.v4.runtime.ANTLRInputStream;
import org.antlr.v4.runtime.CommonTokenStream;public class TestSpark {public static void main(String[] args) {String query = "SELECT * FROM STUDENT WHERE ID > 10;";SqlBaseLexer lexer = new SqlBaseLexer(new ANTLRInputStream(query.toUpperCase()));SqlBaseParser parser = new SqlBaseParser(new CommonTokenStream(lexer));// 创建自定义访问器MyVisitor visitor = new MyVisitor();// 将parser语法树头节点放入visitor.visitSingleStatement(parser.singleStatement());}
}
此时运行会打印…MyVisitor…,由此我们自定义实现了一个sparksql处理的demo
那么spark内部肯定有自己的访问者,位置在spark-catalyst包中,如下:
由于sparksql是通过访问器模式实现递归调用语法树,故这里看SqlBaseBaseVisitor
发现真正实现的是子类:AstBuilder、SparkSqlAstBuilder,其内部实现函数便是sparksql各个节点的执行逻辑
至此SparkSql中涉及antlr4的知识点就结束了,后面就是unresovle阶段,将在下一节讲解