看到HorkeyChen写的文章《[WebKit] JavaScriptCore解析--基础篇(三)从脚本代码到JIT编译的代码实现》,写的很好,深受启发。想补充一些Horkey没有写到的细节比如字节码是如何生成的等等,为此成文。
JSC对JavaScript的处理,其实与Webkit对CSS的处理许多地方是类似的,它这么几个部分:
(1)词法分析->出来词语(Token);
(2)语法分析->出来抽象语法树(AST:Abstract Syntax Tree);
(3)遍历抽象语法树->生成字节码(Bytecode);
(4)用解释器(LLInt:Low Level Interpreter)执行字节码;
(5)如果性能不够好就用Baseline JIT编译字节码生成机器码、然后执行此机器码;
(6)如果性能还不够好,就用DFG JIT重新编译字节码生成更好的机器码、然后执行此机器码;
(7)最后,如果还不好,就祭出重器--虚拟器(LLVM:Low Level Virtual Machine)来编译DFG的中间表示代码、生成更高优化的机器码并执行。接下来,我将会用一下系列文章描述此过程。
其中,步骤1、2是类似的,3、4、5步的思想,CSS JIT也是采用类似方法,请参考[1]。想写写JSC的文章,用菜鸟和愚公移山的方式,敲开JSC的冰山一角。
本篇主要描述词法和语法解析的细节。
一、 JavaScriptCore的词法分析器工作流程分析
W3C是这么解释词法和语法工作流程的:
词法器Tokenizer的工作过程如下,就是不断从字符串中寻找一个个的词(Token),比如找到连续的“true”字符串,就创建一个TokenTrue。词法器工作过程如下:
JavaScriptCore/interpreter/interpreter.cpp:
template <typename CharType>
[cpp] view plaincopyprint?01.template <ParserMode mode> TokenType LiteralParser<CharType>::Lexer::lex(LiteralParserToken<CharType>& token)
02.{
03. while (m_ptr < m_end && isJSONWhiteSpace(*m_ptr))
04. ++m_ptr;
05.
06. if (m_ptr >= m_end) {
07. token.type = TokEnd;
08. token.start = token.end = m_ptr;
09. return TokEnd;
10. }
11. token.type = TokError;
12. token.start = m_ptr;
13. switch (*m_ptr) {
14. case '[':
15. token.type = TokLBracket;
16. token.end = ++m_ptr;
17. return TokLBracket;
18. case ']':
19. token.type = TokRBracket;
20. token.end = ++m_ptr;
21. return TokRBracket;
22. case '(':
23. token.type = TokLParen;
24. token.end = ++m_ptr;
25. return TokLParen;
26. case ')':
27. token.type = TokRParen;
28. token.end = ++m_ptr;
29. return TokRParen;
30. case ',':
31. token.type = TokComma;
32. token.end = ++m_ptr;
33. return TokComma;
34. case ':':
35. token.type = TokColon;
36. token.end = ++m_ptr;
37. return TokColon;
38. case '"':
39. return lexString<mode, '"'>(token);
40. case 't':
41. if (m_end - m_ptr >= 4 && m_ptr[1] == 'r' && m_ptr[2] == 'u' && m_ptr[3] == 'e') {
42. m_ptr += 4;
43. token.type = TokTrue;
44. token.end = m_ptr;
45. return TokTrue;
46. }
47. break;
48. case '-':
49. case '0':
template <ParserMode mode> TokenType LiteralParser<CharType>::Lexer::lex(LiteralParserToken<CharType>& token)
{
while (m_ptr < m_end && isJSONWhiteSpace(*m_ptr))
++m_ptr;
if (m_ptr >= m_end) {
token.type = TokEnd;
token.start = token.end = m_ptr;
return TokEnd;
}
token.type = TokError;
token.start = m_ptr;
switch (*m_ptr) {
case '[':
token.type = TokLBracket;
token.end = ++m_ptr;
return TokLBracket;
case ']':
token.type = TokRBracket;
token.end = ++m_ptr;
return TokRBracket;
case '(':
token.type = TokLParen;
token.end = ++m_ptr;
return TokLParen;
case ')':
token.type = TokRParen;
token.end = ++m_ptr;
return TokRParen;
case ',':
token.type = TokComma;
token.end = ++m_ptr;
return TokComma;
case ':':
token.type = TokColon;
token.end = ++m_ptr;
return TokColon;
case '"':
return lexString<mode, '"'>(token);
case 't':
if (m_end - m_ptr >= 4 && m_ptr[1] == 'r' && m_ptr[2] == 'u' && m_ptr[3] == 'e') {
m_ptr += 4;
token.type = TokTrue;
token.end = m_ptr;
return TokTrue;
}
break;
case '-':
case '0':[cpp] view plaincopyprint?01. ...
02. case '9':
03. return lexNumber(token);
04. }
05. if (m_ptr < m_end) {
06. if (*m_ptr == '.') {
07. token.type = TokDot;
08. token.end = ++m_ptr;
09. return TokDot;
10. }
11. if (*m_ptr == '=') {
12. token.type = TokAssign;
13. token.end = ++m_ptr;
14. return TokAssign;
15. }
16. if (*m_ptr == ';') {
17. token.type = TokSemi;
18. token.end = ++m_ptr;
19. return TokAssign;
20. }
21. if (isASCIIAlpha(*m_ptr) || *m_ptr == '_' || *m_ptr == '$')
22. return lexIdentifier(token);
23. if (*m_ptr == '\'') {
24. return lexString<mode, '\''>(token);
25. }
26. }
27. m_lexErrorMessage = String::format("Unrecognized token '%c'", *m_ptr).impl();
28. return TokError;
29.}
...
case '9':
return lexNumber(token);
}
if (m_ptr < m_end) {
if (*m_ptr == '.') {
token.type = TokDot;
token.end = ++m_ptr;
return TokDot;
}
if (*m_ptr == '=') {
token.type = TokAssign;
token.end = ++m_ptr;
return TokAssign;
}
if (*m_ptr == ';') {
token.type = TokSemi;
token.end = ++m_ptr;
return TokAssign;
}
if (isASCIIAlpha(*m_ptr) || *m_ptr == '_' || *m_ptr == '$')
return lexIdentifier(token);
if (*m_ptr == '\'') {
return lexString<mode, '\''>(token);
}
}
m_lexErrorMessage = String::format("Unrecognized token '%c'", *m_ptr).impl();
return TokError;
} 经过此过程,一个完整的JSC世界的Token就生成了。然后,再进行语法分析,生成抽象语法树.
JavaScriptCore/parser/parser.cpp:
[cpp] view plaincopyprint?01.<span style="font-family: Arial, Helvetica, sans-serif;">PassRefPtr<ParsedNode> Parser<LexerType>::parse(JSGlobalObject* lexicalGlobalObject, Debugger* debugger, ExecState* debuggerExecState, JSObject** exception)</span>
<span style="font-family: Arial, Helvetica, sans-serif;">PassRefPtr<ParsedNode> Parser<LexerType>::parse(JSGlobalObject* lexicalGlobalObject, Debugger* debugger, ExecState* debuggerExecState, JSObject** exception)</span>[cpp] view plaincopyprint?01.{
02. ASSERT(lexicalGlobalObject);
03. ASSERT(exception && !*exception);
04. int errLine;
05. UString errMsg;
06.
07. if (ParsedNode::scopeIsFunction)
08. m_lexer->setIsReparsing();
09.
10. m_sourceElements = 0;
11.
12. errLine = -1;
13. errMsg = UString();
14.
15. UString parseError = parseInner();
16. 。。。
17.}
{
ASSERT(lexicalGlobalObject);
ASSERT(exception && !*exception);
int errLine;
UString errMsg;
if (ParsedNode::scopeIsFunction)
m_lexer->setIsReparsing();
m_sourceElements = 0;
errLine = -1;
errMsg = UString();
UString parseError = parseInner();
。。。
}
UString Parser<LexerType>::parseInner()
[cpp] view plaincopyprint?01.{
02. UString parseError = UString();
03.
04. unsigned oldFunctionCacheSize = m_functionCache ? m_functionCache->byteSize() : 0;
{
UString parseError = UString();
unsigned oldFunctionCacheSize = m_functionCache ? m_functionCache->byteSize() : 0;[cpp] view plaincopyprint?01.//抽象语法树Builder:
02.ASTBuilder context(const_cast<JSGlobalData*>(m_globalData), const_cast<SourceCode*>(m_source));
03.if (m_lexer->isReparsing())
04. m_statementDepth--;
05.ScopeRef scope = currentScope();
//抽象语法树Builder:
ASTBuilder context(const_cast<JSGlobalData*>(m_globalData), const_cast<SourceCode*>(m_source));
if (m_lexer->isReparsing())
m_statementDepth--;
ScopeRef scope = currentScope();[cpp] view plaincopyprint?01.//开始解析生成语法树的一个节点:
02.SourceElements* sourceElements = parseSourceElements<CheckForStrictMode>(context);
03.if (!sourceElements || !consume(EOFTOK))
//开始解析生成语法树的一个节点:
SourceElements* sourceElements = parseSourceElements<CheckForStrictMode>(context);
if (!sourceElements || !consume(EOFTOK))
}
举例说来,根据Token的类型,JSC认为输入的Token是一个常量声明,就会使用如下的模板函数生成语法节点(Node),然后放入ASTBuilder里面:
[cpp] view plaincopyprint?01.JavaScriptCore/bytecompiler/NodeCodeGen.cpp:
02.template <typename LexerType>
03.template <class TreeBuilder> TreeConstDeclList Parser<LexerType>::parseConstDeclarationList(TreeBuilder& context)
04.{
05. failIfTrue(strictMode());
06. TreeConstDeclList constDecls = 0;
07. TreeConstDeclList tail = 0;
08. do {
09. next();
10. matchOrFail(IDENT);
11. const Identifier* name = m_token.m_data.ident;
12. next();
13. bool hasInitializer = match(EQUAL);
14. declareVariable(name);
15. context.addVar(name, DeclarationStacks::IsConstant | (hasInitializer ? DeclarationStacks::HasInitializer : 0));
16. TreeExpression initializer = 0;
17. if (hasInitializer) {
18. next(TreeBuilder::DontBuildStrings); // consume '='
19. initializer = parseAssignmentExpression(context);
20. }
21. tail = context.appendConstDecl(m_lexer->lastLineNumber(), tail, name, initializer);
22. if (!constDecls)
23. constDecls = tail;
24. } while (match(COMMA));
25. return constDecls;
26.}
JavaScriptCore/bytecompiler/NodeCodeGen.cpp:
template <typename LexerType>
template <class TreeBuilder> TreeConstDeclList Parser<LexerType>::parseConstDeclarationList(TreeBuilder& context)
{
failIfTrue(strictMode());
TreeConstDeclList constDecls = 0;
TreeConstDeclList tail = 0;
do {
next();
matchOrFail(IDENT);
const Identifier* name = m_token.m_data.ident;
next();
bool hasInitializer = match(EQUAL);
declareVariable(name);
context.addVar(name, DeclarationStacks::IsConstant | (hasInitializer ? DeclarationStacks::HasInitializer : 0));
TreeExpression initializer = 0;
if (hasInitializer) {
next(TreeBuilder::DontBuildStrings); // consume '='
initializer = parseAssignmentExpression(context);
}
tail = context.appendConstDecl(m_lexer->lastLineNumber(), tail, name, initializer);
if (!constDecls)
constDecls = tail;
} while (match(COMMA));
return constDecls;
}
接下来,就会调用BytecodeGenerator::generate生成字节码,具体分下节分析。我们先看看下面来自JavaScript的一个个语法树节点生成字节码的过程:
JavaScriptCore/bytecompiler/NodeCodeGen.cpp:
RegisterID* BooleanNode::emitBytecode(BytecodeGenerator& generator, RegisterID* dst)
[cpp] view plaincopyprint?01.{
02. if (dst == generator.ignoredResult())
03. return 0;
04. return generator.emitLoad(dst, m_value);
05.}
{
if (dst == generator.ignoredResult())
return 0;
return generator.emitLoad(dst, m_value);
}
以下是我准备写的文章题目:
一、 JavaScriptCore的词法分析器工作流程分析;
二、 JavaScriptCore的语法分析器工作流程分析;
三、 JavaScriptCore的字节码生成流程分析;
四、 LLInt解释器工作流程分析;
五、 Baseline JIT编译器的工作流程分析;
六、 DFG JIT编译器的工作流程分析;
七、LLVM虚拟机的工作流程分析;
八、JavaScriptCore的未来展望;
文笔粗糙,不善表达,希望能越写越好。
引用:
1 https://www.webkit.org/blog/3271/webkit-css-selector-jit-compiler/
2 http://blog.csdn.net/horkychen/article/details/8928578
第一时间获得博客更新提醒,以及更多技术信息分享,欢迎关注个人微信公众平台:程序员互动联盟(coder_online),扫一扫下方二维码或搜索微信号coder_online即可关注,我们可以在线交流。
JSC对JavaScript的处理,其实与Webkit对CSS的处理许多地方是类似的,它这么几个部分:
(1)词法分析->出来词语(Token);
(2)语法分析->出来抽象语法树(AST:Abstract Syntax Tree);
(3)遍历抽象语法树->生成字节码(Bytecode);
(4)用解释器(LLInt:Low Level Interpreter)执行字节码;
(5)如果性能不够好就用Baseline JIT编译字节码生成机器码、然后执行此机器码;
(6)如果性能还不够好,就用DFG JIT重新编译字节码生成更好的机器码、然后执行此机器码;
(7)最后,如果还不好,就祭出重器--虚拟器(LLVM:Low Level Virtual Machine)来编译DFG的中间表示代码、生成更高优化的机器码并执行。接下来,我将会用一下系列文章描述此过程。
其中,步骤1、2是类似的,3、4、5步的思想,CSS JIT也是采用类似方法,请参考[1]。想写写JSC的文章,用菜鸟和愚公移山的方式,敲开JSC的冰山一角。
本篇主要描述词法和语法解析的细节。
一、 JavaScriptCore的词法分析器工作流程分析
W3C是这么解释词法和语法工作流程的:
词法器Tokenizer的工作过程如下,就是不断从字符串中寻找一个个的词(Token),比如找到连续的“true”字符串,就创建一个TokenTrue。词法器工作过程如下:
JavaScriptCore/interpreter/interpreter.cpp:
template <typename CharType>
[cpp] view plaincopyprint?01.template <ParserMode mode> TokenType LiteralParser<CharType>::Lexer::lex(LiteralParserToken<CharType>& token)
02.{
03. while (m_ptr < m_end && isJSONWhiteSpace(*m_ptr))
04. ++m_ptr;
05.
06. if (m_ptr >= m_end) {
07. token.type = TokEnd;
08. token.start = token.end = m_ptr;
09. return TokEnd;
10. }
11. token.type = TokError;
12. token.start = m_ptr;
13. switch (*m_ptr) {
14. case '[':
15. token.type = TokLBracket;
16. token.end = ++m_ptr;
17. return TokLBracket;
18. case ']':
19. token.type = TokRBracket;
20. token.end = ++m_ptr;
21. return TokRBracket;
22. case '(':
23. token.type = TokLParen;
24. token.end = ++m_ptr;
25. return TokLParen;
26. case ')':
27. token.type = TokRParen;
28. token.end = ++m_ptr;
29. return TokRParen;
30. case ',':
31. token.type = TokComma;
32. token.end = ++m_ptr;
33. return TokComma;
34. case ':':
35. token.type = TokColon;
36. token.end = ++m_ptr;
37. return TokColon;
38. case '"':
39. return lexString<mode, '"'>(token);
40. case 't':
41. if (m_end - m_ptr >= 4 && m_ptr[1] == 'r' && m_ptr[2] == 'u' && m_ptr[3] == 'e') {
42. m_ptr += 4;
43. token.type = TokTrue;
44. token.end = m_ptr;
45. return TokTrue;
46. }
47. break;
48. case '-':
49. case '0':
template <ParserMode mode> TokenType LiteralParser<CharType>::Lexer::lex(LiteralParserToken<CharType>& token)
{
while (m_ptr < m_end && isJSONWhiteSpace(*m_ptr))
++m_ptr;
if (m_ptr >= m_end) {
token.type = TokEnd;
token.start = token.end = m_ptr;
return TokEnd;
}
token.type = TokError;
token.start = m_ptr;
switch (*m_ptr) {
case '[':
token.type = TokLBracket;
token.end = ++m_ptr;
return TokLBracket;
case ']':
token.type = TokRBracket;
token.end = ++m_ptr;
return TokRBracket;
case '(':
token.type = TokLParen;
token.end = ++m_ptr;
return TokLParen;
case ')':
token.type = TokRParen;
token.end = ++m_ptr;
return TokRParen;
case ',':
token.type = TokComma;
token.end = ++m_ptr;
return TokComma;
case ':':
token.type = TokColon;
token.end = ++m_ptr;
return TokColon;
case '"':
return lexString<mode, '"'>(token);
case 't':
if (m_end - m_ptr >= 4 && m_ptr[1] == 'r' && m_ptr[2] == 'u' && m_ptr[3] == 'e') {
m_ptr += 4;
token.type = TokTrue;
token.end = m_ptr;
return TokTrue;
}
break;
case '-':
case '0':[cpp] view plaincopyprint?01. ...
02. case '9':
03. return lexNumber(token);
04. }
05. if (m_ptr < m_end) {
06. if (*m_ptr == '.') {
07. token.type = TokDot;
08. token.end = ++m_ptr;
09. return TokDot;
10. }
11. if (*m_ptr == '=') {
12. token.type = TokAssign;
13. token.end = ++m_ptr;
14. return TokAssign;
15. }
16. if (*m_ptr == ';') {
17. token.type = TokSemi;
18. token.end = ++m_ptr;
19. return TokAssign;
20. }
21. if (isASCIIAlpha(*m_ptr) || *m_ptr == '_' || *m_ptr == '$')
22. return lexIdentifier(token);
23. if (*m_ptr == '\'') {
24. return lexString<mode, '\''>(token);
25. }
26. }
27. m_lexErrorMessage = String::format("Unrecognized token '%c'", *m_ptr).impl();
28. return TokError;
29.}
...
case '9':
return lexNumber(token);
}
if (m_ptr < m_end) {
if (*m_ptr == '.') {
token.type = TokDot;
token.end = ++m_ptr;
return TokDot;
}
if (*m_ptr == '=') {
token.type = TokAssign;
token.end = ++m_ptr;
return TokAssign;
}
if (*m_ptr == ';') {
token.type = TokSemi;
token.end = ++m_ptr;
return TokAssign;
}
if (isASCIIAlpha(*m_ptr) || *m_ptr == '_' || *m_ptr == '$')
return lexIdentifier(token);
if (*m_ptr == '\'') {
return lexString<mode, '\''>(token);
}
}
m_lexErrorMessage = String::format("Unrecognized token '%c'", *m_ptr).impl();
return TokError;
} 经过此过程,一个完整的JSC世界的Token就生成了。然后,再进行语法分析,生成抽象语法树.
JavaScriptCore/parser/parser.cpp:
[cpp] view plaincopyprint?01.<span style="font-family: Arial, Helvetica, sans-serif;">PassRefPtr<ParsedNode> Parser<LexerType>::parse(JSGlobalObject* lexicalGlobalObject, Debugger* debugger, ExecState* debuggerExecState, JSObject** exception)</span>
<span style="font-family: Arial, Helvetica, sans-serif;">PassRefPtr<ParsedNode> Parser<LexerType>::parse(JSGlobalObject* lexicalGlobalObject, Debugger* debugger, ExecState* debuggerExecState, JSObject** exception)</span>[cpp] view plaincopyprint?01.{
02. ASSERT(lexicalGlobalObject);
03. ASSERT(exception && !*exception);
04. int errLine;
05. UString errMsg;
06.
07. if (ParsedNode::scopeIsFunction)
08. m_lexer->setIsReparsing();
09.
10. m_sourceElements = 0;
11.
12. errLine = -1;
13. errMsg = UString();
14.
15. UString parseError = parseInner();
16. 。。。
17.}
{
ASSERT(lexicalGlobalObject);
ASSERT(exception && !*exception);
int errLine;
UString errMsg;
if (ParsedNode::scopeIsFunction)
m_lexer->setIsReparsing();
m_sourceElements = 0;
errLine = -1;
errMsg = UString();
UString parseError = parseInner();
。。。
}
UString Parser<LexerType>::parseInner()
[cpp] view plaincopyprint?01.{
02. UString parseError = UString();
03.
04. unsigned oldFunctionCacheSize = m_functionCache ? m_functionCache->byteSize() : 0;
{
UString parseError = UString();
unsigned oldFunctionCacheSize = m_functionCache ? m_functionCache->byteSize() : 0;[cpp] view plaincopyprint?01.//抽象语法树Builder:
02.ASTBuilder context(const_cast<JSGlobalData*>(m_globalData), const_cast<SourceCode*>(m_source));
03.if (m_lexer->isReparsing())
04. m_statementDepth--;
05.ScopeRef scope = currentScope();
//抽象语法树Builder:
ASTBuilder context(const_cast<JSGlobalData*>(m_globalData), const_cast<SourceCode*>(m_source));
if (m_lexer->isReparsing())
m_statementDepth--;
ScopeRef scope = currentScope();[cpp] view plaincopyprint?01.//开始解析生成语法树的一个节点:
02.SourceElements* sourceElements = parseSourceElements<CheckForStrictMode>(context);
03.if (!sourceElements || !consume(EOFTOK))
//开始解析生成语法树的一个节点:
SourceElements* sourceElements = parseSourceElements<CheckForStrictMode>(context);
if (!sourceElements || !consume(EOFTOK))
}
举例说来,根据Token的类型,JSC认为输入的Token是一个常量声明,就会使用如下的模板函数生成语法节点(Node),然后放入ASTBuilder里面:
[cpp] view plaincopyprint?01.JavaScriptCore/bytecompiler/NodeCodeGen.cpp:
02.template <typename LexerType>
03.template <class TreeBuilder> TreeConstDeclList Parser<LexerType>::parseConstDeclarationList(TreeBuilder& context)
04.{
05. failIfTrue(strictMode());
06. TreeConstDeclList constDecls = 0;
07. TreeConstDeclList tail = 0;
08. do {
09. next();
10. matchOrFail(IDENT);
11. const Identifier* name = m_token.m_data.ident;
12. next();
13. bool hasInitializer = match(EQUAL);
14. declareVariable(name);
15. context.addVar(name, DeclarationStacks::IsConstant | (hasInitializer ? DeclarationStacks::HasInitializer : 0));
16. TreeExpression initializer = 0;
17. if (hasInitializer) {
18. next(TreeBuilder::DontBuildStrings); // consume '='
19. initializer = parseAssignmentExpression(context);
20. }
21. tail = context.appendConstDecl(m_lexer->lastLineNumber(), tail, name, initializer);
22. if (!constDecls)
23. constDecls = tail;
24. } while (match(COMMA));
25. return constDecls;
26.}
JavaScriptCore/bytecompiler/NodeCodeGen.cpp:
template <typename LexerType>
template <class TreeBuilder> TreeConstDeclList Parser<LexerType>::parseConstDeclarationList(TreeBuilder& context)
{
failIfTrue(strictMode());
TreeConstDeclList constDecls = 0;
TreeConstDeclList tail = 0;
do {
next();
matchOrFail(IDENT);
const Identifier* name = m_token.m_data.ident;
next();
bool hasInitializer = match(EQUAL);
declareVariable(name);
context.addVar(name, DeclarationStacks::IsConstant | (hasInitializer ? DeclarationStacks::HasInitializer : 0));
TreeExpression initializer = 0;
if (hasInitializer) {
next(TreeBuilder::DontBuildStrings); // consume '='
initializer = parseAssignmentExpression(context);
}
tail = context.appendConstDecl(m_lexer->lastLineNumber(), tail, name, initializer);
if (!constDecls)
constDecls = tail;
} while (match(COMMA));
return constDecls;
}
接下来,就会调用BytecodeGenerator::generate生成字节码,具体分下节分析。我们先看看下面来自JavaScript的一个个语法树节点生成字节码的过程:
JavaScriptCore/bytecompiler/NodeCodeGen.cpp:
RegisterID* BooleanNode::emitBytecode(BytecodeGenerator& generator, RegisterID* dst)
[cpp] view plaincopyprint?01.{
02. if (dst == generator.ignoredResult())
03. return 0;
04. return generator.emitLoad(dst, m_value);
05.}
{
if (dst == generator.ignoredResult())
return 0;
return generator.emitLoad(dst, m_value);
}
以下是我准备写的文章题目:
一、 JavaScriptCore的词法分析器工作流程分析;
二、 JavaScriptCore的语法分析器工作流程分析;
三、 JavaScriptCore的字节码生成流程分析;
四、 LLInt解释器工作流程分析;
五、 Baseline JIT编译器的工作流程分析;
六、 DFG JIT编译器的工作流程分析;
七、LLVM虚拟机的工作流程分析;
八、JavaScriptCore的未来展望;
文笔粗糙,不善表达,希望能越写越好。
引用:
1 https://www.webkit.org/blog/3271/webkit-css-selector-jit-compiler/
2 http://blog.csdn.net/horkychen/article/details/8928578
第一时间获得博客更新提醒,以及更多技术信息分享,欢迎关注个人微信公众平台:程序员互动联盟(coder_online),扫一扫下方二维码或搜索微信号coder_online即可关注,我们可以在线交流。
相关推荐
`JavaScriptCore-Demo-master.zip`是一个包含示例代码的压缩包,用于演示如何在iOS或macOS应用程序中使用JavaScriptCore框架。 在iOS或macOS开发中,JavaScriptCore提供了两个主要的接口:`JSContext`和`JSValue`。...
Webkit内核是一种开源的网页渲染引擎,广泛用于各种浏览器和操作系统中,如Apple的Safari和Google的Chrome早期版本。这个内核负责解析HTML、CSS、JavaScript等Web标准,呈现网页内容,并处理用户交互。在.NET环境中...
**WebKit内核源代码分析** WebKit 是一个开源的网页渲染引擎,被广泛应用于各种操作系统和浏览器,如苹果的Safari和谷歌的Chrome。在Android平台上,WebKit被用作原生浏览器和其他应用的网页显示组件。深入理解...
WebKit内核的CSS引擎负责解析CSS规则,构建CSSOM(CSS Object Model)树。CSSOM树与DOM树结合后形成 Render Tree,这一步骤称为布局(Layout)。Render Tree中的每个节点代表一个可显示的元素,包含了其样式信息。 ...
Web浏览器是互联网交互的核心工具,其内核是解析和渲染网页的关键组件。本文将深入探讨“webkit”等非IE内核的Web浏览器实现及其优势。 WebKit是一个开源的Web浏览器渲染引擎,广泛应用于苹果的Safari、谷歌的...
**Android WebKit 内核详解** 在Android操作系统中,WebKit是一种关键的组件,它负责处理网页内容并提供渲染引擎,使应用程序能够展示和交互与基于Web的界面。Android的WebKit内核是开源项目WebKit的分支,它为...
Webkit内核是开源的网页渲染引擎,广泛应用于各种浏览器,如Safari、Chrome等,其源代码分析对于深入理解网页渲染原理、优化前端性能以及进行浏览器开发具有极高的价值。下面将对Webkit内核的主要组成部分、核心功能...
### Webkit内核源代码分析(四):Android中的WebKit详解 #### 一、引言 在本篇文章中,我们将深入探讨Android系统中使用的WebKit浏览器引擎,并对其内部工作原理进行详细解析。WebKit作为一款开放源代码项目,在...
《WebKit内核源代码分析3》是一篇深入探讨WebKit内核设计与架构的专题文章,主要聚焦于WebKit的源码解析,尤其是针对Qt平台的移植。尽管移植内容不是重点,但这一系列文章的核心仍然是WebKit内核本身。WebKit是全球...
JavaScriptCore是WebKit项目的一部分,它是Apple为Safari浏览器开发的JavaScript引擎,后来也被引入到Android平台,用于在原生应用程序中执行JavaScript代码。在Linux环境下,开发者常常需要手动构建JavaScriptCore...
- **构建Render树**:根据DOM树和CSS样式生成渲染树。 #### Render树与RenderLayer树 - **构建Render树的基本实现流程**:遍历DOM树,为每个节点创建对应的RenderObject。 - **RenderLayer类分析**:用于实现更...
"webkit-ubuntu-20.04.zip" 是一个针对 Ubuntu 20.04 平台优化的 Webkit 源代码或构建环境的压缩包。 在压缩包内,我们可以看到以下几个关键文件: 1. **protocol.json**:这是一个描述调试协议的文件,通常用于 ...
#### 第8篇 网页在Safari快速滚动和回弹的原理:-webkit-overflow-scrolling : touch;的实现 - **-webkit-overflow-scrolling属性解释**: - `-webkit-overflow-scrolling: touch;`是一个CSS属性,用于控制元素...
WebKit 是一个开源的网页渲染引擎,它被广泛用于多种操作系统和应用程序中,包括苹果的 Safari 浏览器、Google 的早期 Chrome 版本以及许多移动设备的浏览器。这个压缩包包含的是 WebKit 的完整源代码,对于理解...
1. **解析和编译**:JavaScriptCore将JavaScript源代码解析成抽象语法树(AST),然后将其编译为机器码或字节码,以提高执行效率。这个过程涉及到词法分析、语法分析以及优化编译等步骤。 2. **执行环境**:...
### WebKit JavaScript引擎深入分析 #### 一、概述 **WebKit**是一款开源的浏览器引擎,由Apple公司在2005年发起,旨在提供一个高效、跨平台的网页浏览体验。WebKit不仅仅是一个渲染引擎,它还包含了一系列核心...
1. **快速的解析和编译**:JavaScriptCore使用高效的词法分析器和语法解析器将JavaScript源码转化为抽象语法树(AST)。然后,它通过Just-In-Time (JIT) 编译技术将AST转换为机器码,以提高执行效率。 2. **垃圾...
WebKit2-7604.5.6 是一个特定版本的 WebKit 浏览器内核,WebKit 是一个开源的网页渲染引擎,被广泛应用于各种操作系统和应用程序中,包括著名的 Safari 和 Chrome 浏览器。这个版本号表示该内核在开发过程中的一次...
这个分析报告深入探讨了 WebKit 的内部工作原理,对于那些对浏览器开发感兴趣的开发者来说,是一份宝贵的资源。以下是对 WebKit 相关知识点的详细说明: 1. **WebKit 架构**:WebKit 由多个组件构成,包括 HTML ...
2. **JavaScript引擎**:深入JavaScriptCore,理解词法分析、语法解析、JIT编译等过程。 3. **网络层**:分析`WebKit2`或`WebKitGTK+/WebKitQt`中的网络模块,学习如何处理HTTP请求和响应。 4. **事件处理**:研究...