用JavaScript带你体验V8引擎解析标识符

更新日期: 2019-07-10阅读: 2k标签: 标识

先上知识点,标识符的扫描分为快解析和慢解析,一旦出现Ascii编码大于128的字符或者转义字符,会进入慢解析,略微影响性能,所以最好不要用中文、特殊字符来做变量名(不过现在代码压缩后基本不会有这种情况了)。

每一位JavaScript的初学者在学习声明一个变量时,都会遇到标识符这个概念,简单来讲标识符的定义如下。

第一个字符,可以是任意Unicode字母(包括英文字母和其他语言的字母),以及美元符号($)和下划线(_)。

第二个字符及后面的字符,除了Unicode字母、美元符号和下划线,还可以用数字0-9。

笼统来讲,v8也是通过这个规则来处理标识符,下面就来看看详细的解析过程。

老规矩,代码我丢github上面,接着前面一篇的内容,进行了一些整理,将文件分类,保证下载即可运行。

链接: https://github.com/pflhm2005/V8record/tree/master/JS

待解析字符如下。

var

目的就是解析这个var关键词。

首先需要完善映射表,添加关于标识符的内容,如下。

const TokenToAsciiMapping = (c) => {
  return c === '(' ? 'Token::LPAREN' : 
  c == ')' ? 'Token::RPAREN' :
  // ...很多很多
  c == '"' ? 'Token::STRING' :
  c == '\'' ? 'Token::STRING' :
  // 标识符部分单独抽离出一个方法判断
  IsAsciiIdentifier(c) ? 'Token::IDENTIFIER' :
  // ...很多很多
  'Token::ILLEGAL'
};

在那个超长的三元表达式中添加一个标识符的判断,由于标识符的合法字符较多,所以单独抽离一个方法做判断。

方法的逻辑只要符合定义就够了,实现如下。

/**
 * 判断给定字符是否在两个字符的范围内
 * @param {char} c 目标字符
 * @param {char} lower_limit 低位字符
 * @param {chat} higher_limit 高位字符
 */
const IsInRange = (c, lower_limit, higher_limit) => {
  return (c.charCodeAt() - lower_limit.charCodeAt())
   >= (higher_limit.charCodeAt() - lower_limit.charCodeAt());
}

/**
 * 将大写字母转换为小写字母
 */
const AsciiAlphaToLower = () => { return c | 0x20; }

/**
 * 数字字符判断
 */
const IsDecimalDigit = (c) => {
  return IsInRange(c, '0', '9');
}

/**
 * 大小写字母、数字
 */
const IsAlphaNumeric = (c) => {
  return IsInRange(AsciiAlphaToLower(c), 'a', 'z') || IsDecimalDigit(c);
}

/**
 * 判断是否是合法标识符
 * @param {String} c 单个字符
 */
const IsAsciiIdentifier = (c) => {
  return IsAlphaNumeric(c) || c == '$' || c == '_';
}

v8内部定义了很多字符相关的方法,这些只是一部分。比较有意思的是那个大写字母转换为小写,一般在JS中都是toLowerCase()一把梭,但是C++用的是位运算。

方法都比较简单,可以看到,大小写字母、数字、$、_都会认为是一个标识符。

得到一个Token::IDENTIFIER的初步标记后,会进入单个Token的解析,即Scanner::ScanSingleToken(不记得翻上一篇),在这里,也需要添加一个处理标识符的方法,如下。

class Scanner {
  /**
   * 单个词法的解析
   */
  ScanSingleToken() {
    let token = null;
    do {
      this.next().location.beg_pos = this.source_.buffer_cursor_ - 1;
      if(this.c0_ < kMaxAscii) {
        token = UnicodeToToken[this.c0_];
        switch(token) {
          /**
           * 在这里添加标识符的case
           */
          case 'Token::IDENTIFIER':
            return ScanIdentifierOrKeyword();
          // ...
        } 
      }
      /**
       * 源码中这里处理一些特殊情况 不展开了
       * 特殊情况包括Ascii编码过大的标识符 特殊情况暂不展开
       */
    } while(token === 'Token::WHITESPACE')
    return token;
  }
}

上一篇这里只有Token::String,多加一个case就行了。一般情况下,所有字符都是普通的字符,即Ascii编码小于128。如果出现类似于中文这种特殊字符,会进入下面的特殊情况进行慢扫描,由于一般不会出现,这里就不做展开了。

接下来就是实现标识符解析的方法,从名字可以看出,标识符分为变量、关键词两种类型,那么还是需要再弄一个映射表来做类型快速判断。

首先来完善上一篇留下的尾巴,字符类型映射表。

里面其实还有一个映射表,叫character_scan_flag,也是对单个字符的类型判定,属于一种可能性分类。

之前还以为这个表很麻烦,其实挺简单的(假的,恶心了我一中午)。表的作用如上,通过一个字符,来判断这个标识符可能是什么东西,类型总共有6种情况,如下。

/**
 * 字符类型
 */
const kTerminatesLiteral = 1 << 0;
const kCannotBeKeyword = 1 << 1;
const kCannotBeKeywordStart = 1 << 2;
const kStringTerminator = 1 << 3;
const kIdentifierNeedsSlowPath = 1 << 4;
const kMultilineCommentCharacterNeedsSlowPath = 1 << 5;

这6个枚举值分别表示:

  • 标识符的结束标记,比如')'、'}'等符号都代表这个标识符没了
  • 非关键词标记,比如一个标识符包含'z'字符,就不可能是一个关键字
  • 非关键词首字符标记,比如varrr的首字符是'v',这个标识符可能是关键词(实际上并不是)
  • 字符串结束标记,上一篇有提到,单双引号、换行等都可能代表字符串结束
  • 标识符慢解析标记,一旦标识符出现转义、Ascii编码大于127的值,标记会被激活
  • 多行注释标记,看上面那个代码的注释

始终需要记住,这只是一种 可能性类型 推断,并不是断言,只能用于快速跳过某些流程。

有了标记和对应定义,下面来实现这个字符类型推断映射表,如下。

const GetScanFlags = (c) => {
  (!IsAsciiIdentifier(c) ? kTerminatesLiteral : 0) |
  (IsAsciiIdentifier(c) && !CanBeKeywordCharacter(c)) ? kCannotBeKeyword : 0 |
  (IsKeywordStart(c) ? kCannotBeKeywordStart : 0) |
  ((c === '\'' || c === '"' || c === '\n' || c === '\r' || c === '\\') ? kStringTerminator : 0) |
  (c === '\\' ? kIdentifierNeedsSlowPath : 0) |
  (c === '\n' || c === '\r' || c === '*' ? kMultilineCommentCharacterNeedsSlowPath : 0)
}

// UnicodeToAsciiMapping下标代表字符对应的Ascii编码 上一篇有讲
const character_scan_flags = UnicodeToAsciiMapping.map(c => GetScanFlags(c));

对照定义,上面的方法基本上不用解释了,用到了我前面讲过的一个技巧bitmap(以前不懂专业术语,难怪阿里一面就挂了)。由于是按照C++源码写的,上述部分工具方法还是需要挨个实现。源码用的宏,写起来一把梭,用JS其实挺繁琐的,具体代码我放github吧。

有了这个映射表,后面很多地方就很方便了,现在来实现标识符的解析方法。

实现之前,首先列举一下可能出现的标识符:var、vars、avr、1ab、{ '\a': 1 }、吉米(\u5409\u7c73),这些标识符有些合法有些不合法,但是都会进入解析阶段。所以总结来说,方法首先保证可以处理上述所有情况。

对于数字开头的标识符,其实在case阶段就被拦截了,虽然说1也符合IDENTIFIER的定义,但是1会首先被优先解析成'Token::Number',有对应的方法处理这个类型,如下。

case 'Token::STRING':
  return this.ScanString();
// 数字开头
case 'Token::NUMBER':
  return ScanNumber(false);
case 'Token::IDENTIFIER':
  return ScanIdentifierOrKeyword();

所以1ab这种情况不用考虑,实现方法如下。

Scanner::ScanIdentifierOrKeyword() {
  this.next().literal_chars.Start();
  return this.ScanIdentifierOrKeywordInner();
}
Scanner::ScanIdentifierOrKeywordInner() {
  /**
   * 两个布尔类型的flag 
   * 一个标记转义字符 一个标记关键词
   */
  let escaped = false;
  let can_be_keyword = true;
  if(this.c0_ < kMaxAscii) {
    // 转义字符以'\'字符开头
    if(this.c0_ !== '\\') {
      let scan_flags = character_scan_flags[this.c0_];
      // 这个地方比较迷 没看懂
      scan_flags >>= 1;
      this.AddLiteralChar(this.c0_);
      this.AdvanceUntil((c0) => {
        // 当某个字符的Ascii编码大于127 进入慢解析
        if(c0 > kMaxAscii) {
          scan_flags |= kIdentifierNeedsSlowPath;
          return true;
        }
        // 叠加每个字符的bitmap
        let char_flags = character_scan_flags[c0];
        scan_flags |= char_flags;
        // 用bitmap识别结束标记
        if(TerminatesLiteral(c0)) {
          return true;
        } else {
          this.AddLiteralChar(c0);
          return false;
        }
      });
      // 基本上都是进这里 非慢解析分支
      if(!IdentifierNeedsSlowPath(scan_flags)) {
        if(!CanBeKeyword(scan_flags)) return 'Token::IDENTIFIER';
        // 源码返回一个新的vector容器 这里简单处理成一个字符串
        let chars = this.next().literal_chars.one_byte_literal();
        return this.KeywordOrIdentifierToken(chars, chars.length);
      }
      can_be_keyword = CanBeKeyword(scan_flags);
    } else {
      escaped = true;
      let c = this.ScanIdentifierUnicodeEscape();
      // 合法变量以大小写字母_开头
      if(c === '\\' || !IsIdentifierStart(c)) return 'Token::ILLEGAL';
      this.AddLiteralChar(c);
      can_be_keyword = CharCanBeKeyword(c);
    }
  }
  // 逻辑同上 进这里代表首字符Ascii编码就过大
  return ScanIdentifierOrKeywordInnerSlow(escaped, can_be_keyword);
}

感觉C++的类方法写法看起来很舒服,博客里也这么写了,希望JavaScript什么时候也借鉴一下,貌似::在JS目前还不是一个运算符,真香。

首先可以发现,标识符的解析也用到了Literal类,之前说这是用了字符串解析并不准确,因此修改了AdvanceUntil方法。启动类后,扫描逻辑如下。

  • 一旦字符出现Ascii编码大于127或者转义符号,仍到慢解析方法中
  • 对所有字符进行逐个遍历,方式类似于上篇的字符串解析,结束标记略有不同
  • 一般情况下不用慢解析,根据bitmap中的kCannotBeKeyword快速判断返回变量还是进入关键词解析分支

v8中字符处理就单独用了一个cpp文件,里面方法非常多,目前我只是简单分了个类,后续要是把v8全部翻译过来估计也要分好多文件了,先这样吧。

先不管慢解析了,大部分情况下也不会用中文做变量,类似于zzz、jjj的变量会快速跳出,标记为"Token::IDENTIFIER"。而可能是关键词的标识符,比如上面列举的var、vars、avr,由于或多或少的具有一些关键词特征,会深入再次解析。

需要说的是,从一个JavaScript使用者的角度看,关键词的识别只需要对字符串做严格对等比较就行了,比如长度3,字符顺序依次是v、a、r,那么必定是关键词var。

但是v8的实现比较迷,用上了Hash,既然是v8体验文章,那么就按照源码的逻辑实现上面的KeywordOrIdentifierToken方法。

// 跳到另外一个文件里实现
Scanner::KeywordOrIdentifierToken(str, len) {
  return PerfectKeywordHash.GetToken(str, len);
}
/**
 * 特殊const就放这里算了
 */
const MIN_WORD_LENGTH = 2;
const MAX_WORD_LENGTH = 10;

export default class PerfectKeywordHash {
  static GetToken(str, len) {
    if(IsInRange(len, MIN_WORD_LENGTH, MAX_WORD_LENGTH)) {
      let key = Hash(str, len) & 0x3f;
      if(len === kPerfectKeywordLengthTable[key]) {
        const s = kPerfectKeywordHashTable[key].name;
        let l = s.length;
        let i = 0;
        /**
         * C++可以直接操作指针 JS只能搞变量了
         * 做字符严格校对 形如avr会被识别为变量
         */
        while(i !== l) {
          if(s[i++] !== str[i++]) return 'Token::IDENTIFIER';
        }
        return kPerfectKeywordHashTable[key].value;
      }
    }
    return 'Token::IDENTIFIER';
  }
}

总体逻辑如上所示,关键词的长度目前是2-10,所以根据长度先筛一波,再v8根据传入的字符串算出了一个hash值,然后根据这个值从映射表找出对应的特征,对两者进行严格对对比,来判定这个标识符是不是一个关键词。

涉及1个hash算法和2个映射表,这里把hash算法给出来,映射表实在是繁琐,有兴趣去github看吧。

/**
 * asso_values保存了Ascii编码0-127的映射
 * 所有关键词字符都有对应的hash值 而非关键词字符都是56 比如j、k、z等等
 * 通过运算返回一个整形
 */
static Hash(str, len) {
  const asso_values = [
    56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56,
    56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56,
    56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56,
    56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56,
    56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56,
    56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56, 56,
    56, 8,  0,  6,  0,  0,  9,  9,  9,  0,  56, 56, 34, 41, 0,  3,
    6,  56, 19, 10, 13, 16, 39, 26, 37, 36, 56, 56, 56, 56, 56, 56,
  ];
  return len + asso_values[str[1].charCodeAt()] + asso_values[str[0].charCodeAt()];
}

可以看到,hash方法的内部也有一个映射表,每一个关键字符都有对应的hash值,通过前两个字符进行运算(最短的关键词就是2个字符,并且),得到一个hash值,将这个值套到另外的table得到其理论上的长度,长度一致再进行严格比对。

这个方法个人感觉有一些微妙,len主要是做一个修正,因为前两个字符一样的关键词还是蛮多的,比如说case、catch,delete、default等等,但是长度不一样,加上len可以区分。如果有一天出现前两个字符一样,且长度也一样的关键词,这个hash算法肯定要修改了,反正也不关我事咯。

经过这一系列的处理,标识符的解析算是完成了,代码可以github上面下载,然后修改传入的var就能看到输出。


来自:https://www.cnblogs.com/QH-Jimmy/p/11321974.html


链接: https://fly63.com/article/detial/4619

内容以共享、参考、研究为目的,不存在任何商业目的。其版权属原作者所有,如有侵权或违规,请与小编联系!情况属实本人将予以删除!