回复内容:
理论上是可以的,关键点在于您要在Lexer和Parser之间要多加一层,用于分析哪些地方是进入缩进,哪些地方是退出缩进。然后匹配到缩进的时候插入INDENT和DEDENT这样的Token。
至于分析的方法,您可以先建一个Stack来存放每一层缩进块的Token,
然后根据Lexer送来的Token中的行号、列号等信息来和Stack栈顶的数据进行对比,
判断下来是该进入缩进的就push一个INDENT,并这个INDENT插入到 输出的Token流中。
发现是Stack中旧的Token匹配的,就把之前的缩进块pop出来,并在 输出的Token流中插入DEDENT。
然后在Paser层面处理语句块的时候可以这样处理(我只写大概意思的伪码,具体您自己看着办)
block ::= INDENT NLS statements NLS DEDENT
if ::= IF LPAREN expression RPAREN COLON block
1:python这种靠缩进的语言的文法其实是上下文有关的,EBNF是表达不出来的,我不知道yacc是不是有什么丧心病狂的扩展来给你做这个。
2:每一行前面的tab的数量你不要看成一堆tab,要把他的数量本身看成一个整体,也就是说再作语法分析的时候其实是:
[ 0 ] def fuck [ 1 ] if true : [ 2 ] fuck [ 1 ] else : [ 2 ] shit [ 0 ] def shit ..主要是缩进语法的问题吧,只要先在词法上把python的缩进改成类似大括号分界的语法即可,压力在lex这边
cpython源码的token分析是用C手撸的,超长,可以看看源码 补充一下 @vczh ,因为是上下文有关的,所以Yacc是不行的,不过我通过 peg, ometa 解决什么问题,ometa-js怎么入门/正确理解和认知? 这个问题知道 PEG 适合进行。
pyPEG 这个项目的主页,底下就有对缩进的分析,可以参考一下。 我用C语言实现过一个简化的python解释器,用yacc来分析python的思路如下:
1. 在源程序中插入两个虚拟的TOKEN:TOKEN_BEGIN和TOKEN_END
TOKEN_BEGIN标志语法块的开始,TOKEN_END标志语法块的结束。看一个例子:
while i 100 : print i i += 1还不如直接看python源码里的interpreter好了。 COOL都日出来了,python算个DIAO啊,文法拿去,玩吧。写完了我们膜拜一下。
https:// github测试数据/python-git/p ython/blob/master/Grammar/Grammar
查看更多关于如何用Yacc实现一个Python的编译器?的详细内容...
声明:本文来自网络,不代表【好得很程序员自学网】立场,转载请注明出处:http://haodehen.cn/did89748