databend中logos的应用

关于logos在databend中的应用

databend中关于将sql进行token化,则是基于logos来完成,其本身进行封装定义了Tokenizer

pub struct Tokenizer<'a> {
    source: &'a str,           // 解析的token对应的内容
    lexer: Lexer<'a, TokenKind>, // 解析当前tokenkind的lexer
    prev_token: Option<TokenKind>, // 当前token前面一个token
    eoi: bool,                     // 是否解析到了当前被解析内容的末尾或hint中碰到eoi
}

同时并没有选择derive结构体Token,而是选择了TokenKind

#[derive(Clone, PartialEq, Eq)]
pub struct Token<'a> {
    pub source: &'a str,  // 当前token的内容
    pub kind: TokenKind,  // 当前token的类型
    pub span: Range,      // 当前token在提供的sql字符串的内容的范围
}
#[allow(non_camel_case_types)]
#[derive(Logos, EnumIter, Clone, Copy, Debug, PartialEq, Eq, Hash)]
pub enum TokenKind {
        // 省略内部代码
}

关于logos

logos代码库
logos是一个使用rust编写的词法解析器;更多见logos文档
常见应用logos方式:

  • 在自定义的Struct上声明 #[derive(logos)]即可,也即说明当前struct实现了Logos trait,不过实现代码是通过macro方式来完成具体代码生成的可见logos-codegen
  • 使用Lexer<T: Logos>这个iterator来完成最终的词法解析过程;
  • 针对struct定义的那些待被解析的item可以通过#[token]:纯文本字符串 [regex]:正则表达式

补充关于自定义的struct还可以指定logos其他的属性

  • [logos(skip "regex literal")]: 指定跳过某些满足正则表达式文本的内容,不需要进行token化

  • [logos(extras = ExtrasType)]: 自定义Extras,用于来满足进行token过程,提供一些友好的内容输出比如输出解析item在原有文本中的行、列的位置等,便于定位

  • [logos(error = ErrorType)]: 自定义Error,默认情况下logos出现error输出的(),得不到具体错误信息,则可以使用自定义error输出具体错误信息

  • [logos(crate = path::to::logos)]:自定义第三方的logos的路径

  • [logos(source = SourceType)]:主要是自定义logos接受的输入类型,默认是&str

#[derive(Logos, Debug, PartialEq)]
#[logos(skip r"[ \t\n\f]+")] // Ignore this regex pattern between tokens
#[logos(error = LexingErr)]
enum Token {
    // Tokens can be literal strings, of any length.
    #[token("fast")]
    Fast,

    #[token(".")]
    Period,

    #[token(",")]
    Comma,

    // Or regular expressions.
    #[regex("[a-zA-Z]+")]
    Text,

    // number
    #[regex("[0-9]*")]
    NUM
}

#[derive(Default, Debug, Clone, PartialEq)]
enum LexingErr {
    InvalidInteger(String),
    #[default]
    NonAsciiChar,
}

use std::num::IntErrorKind::{PosOverflow, NegOverflow};


impl From<ParseIntError> for LexingErr {
    fn from(err: ParseIntError) -> Self {
        match err.kind() {
            PosOverflow | NegOverflow=> LexingErr::InvalidInteger("overflow error".to_owned()),
            _ => LexingErr::InvalidInteger("other error".to_owned()),
        }
    }
}


for tk in Token::lexer("select a, b from bar where c 1234"){
        match tk {
            Ok(ref token)=> println!("token={:?}, val={:?}", token, tk),
            Err(e) => panic!("something error: {:?}", e),
        }
    }

一般Lexer有3个方法:

  • next(): 用于获取下一个token;返回结果Result<Token, _>
  • span(): 获取当前token在输入文本的范围:[start..end]
  • slice(): 获取当前token对应的具体内容

关于logos针对自定义struct/enum每个item的处理

#[derive(Logos)]
enum Token {
    #[token(literal [, callback, priority = <integer>, ignore(<flag>, ...)]]
    #[regex(literal [, callback, priority = <integer>, ignore(<flag>, ...)]]
    SomeVariant,
}

以上token和regex除了literal外其他都是可选的;

  • callback:可以给每个item指定callback,针对当前item进行其他处理,可以使用闭包形式也可以定义方法
  • priority:指定当前规则的优先级,特别时出现匹配多个规则时;
  • ignore:忽略某些不需要的内容
/// Update the line count and the char index.
fn newline_callback(lex: &mut Lexer<Token>) -> Skip {
    lex.extras.0 += 1;
    lex.extras.1 = lex.span().end;
    Skip
}

/// Compute the line and column position for the current word.
fn word_callback(lex: &mut Lexer<Token>) -> (usize, usize) {
    let line = lex.extras.0;
    let column = lex.span().start - lex.extras.1;

    (line, column)
}

/// Simple tokens to retrieve words and their location.
#[derive(Debug, Logos)]
#[logos(extras = (usize, usize))]
enum Token {
    #[regex(r"\n", newline_callback)]
    Newline,

    #[regex(r"\w+", word_callback)]
    Word((usize, usize)),
}

let mut lex = Token::lexer("[package]
name = "rustdemos"
version = "0.1.0"
edition = "2021"

# See more keys and their definitions at https://doc.rust-lang.org/cargo/reference/manifest.html

[dependencies]
spin ="0.9.8"
logos = "0.13.0"
regex = "1.10.2"
num = "0.4.1"");

    while let Some(token) = lex.next() {
        match token {
            Ok(Token::Word((line, column))) => {
                println!("Word '{}' found at ({}, {})", lex.slice(), line, column);
            }
            _ => (),
        }
    }

关于logos进行item解析时匹配多个规则时遵循如下要求

  • Longer beats shorter.
  • Specific beats generic.

另外若是同时满足多个规则,此时可以通过priority来进行调整否则会panic

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,458评论 6 513
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,030评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,879评论 0 358
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,278评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,296评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,019评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,633评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,541评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,068评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,181评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,318评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,991评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,670评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,183评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,302评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,655评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,327评论 2 358

推荐阅读更多精彩内容