Проект представляет собой компилятор, который принимает исходную программу, написанную на C# (вход), а затем преобразует ее в целевую программу, написанную на Visual Basic (выход) . Этот процесс выполняется путем прохождения трех модулей ( Tokenizer , Parser и Translator ) соответственно. В этом отчете каждый модуль будет описан отдельно.
Токенизатор/Лексический анализатор — это программа, которая принимает последовательность символов (ввод) и выводит последовательность токенов (выход).
Токенизатор имеет список определений для каждого возможного токена, который он может создать путем группировки последовательности символов. Каждое определение токена состоит из:
В следующих таблицах представлены все определения, использованные в проекте, с примером сопоставления значений для каждого из них.
| Тип | Регулярное выражение | Соответствующие значения |
|---|---|---|
| С использованием | с использованием | using |
| Сорт | сорт | class |
| Если | если | if |
| Еще | еще | else |
| Для | для | for |
| Делать | делать | do |
| Пока | пока | while |
| Выключатель | выключатель | switch |
| Случай | случай | case |
| Перерыв | перерыв | break |
| По умолчанию | по умолчанию | default |
| Возвращаться | возвращаться | return |
| Нулевой | нулевой | null |
| Истинный | истинный | true |
| ЛОЖЬ | ЛОЖЬ | false |
| ЛОЖЬ | (недействительно | вар) | (bool | char | short | int | long | float | double | decimal | string | String) ([] | ?)? | voidboolchar?int[] |
| Тип | Регулярное выражение | Соответствующие значения |
|---|---|---|
| Число | d*.d+ | д+ | 77.253.14 |
| Нить | "[^"]*" | "This is string" |
| Идентификатор | [a-zA-Z_]w* | fact_privateiD_1 |
| Комментарий | (?<=//) .*? (?=(r | n | //)) | // inline comment |
| Многострочный комментарий | (?<=/*) (?:(?!*/)(?:.|[rn]))* (?=*/) | /*multi linecomment*/ |
| Тип | Регулярное выражение | Соответствующие значения |
|---|---|---|
| И | && | & | &&& |
| Или | || | | | ||| |
| Нет | ! | ! |
| Равный | = | = |
| ПлюсРавно | += | += |
| МинусРавно | -= | -= |
| Двойное равенство | == | == |
| Неравен | != | != |
| Меньше, чем | < | < |
| Больше, чем | > | > |
| МеньшеТханОРавно | <= | <= |
| БольшеЧОлиРавно | >= | >= |
| Тип | Регулярное выражение | Соответствующие значения |
|---|---|---|
| OpenRoundBracket | ( | ( |
| ЗакрытьКраундКробка | ) | ) |
| OpenCurlyBracket | { | { |
| ЗакрытьВьющиесяКрешка | } | } |
| OpenSquareBracket | [ | [ |
| ЗакрытьКвадратСкоба | ] | ] |
| Плюс | + | + |
| Минус | - | - |
| ДаблПлюсы | ++ | ++ |
| ДвойнойМинус | -- | -- |
| Процент | % | % |
| Звездочка | * | * |
| обратная косая черта | \ | |
| Косая черта вперед | / | / |
| Двойные косые черты вперед | // | // |
| ВпередСлешЗвездочка | /* | /* |
| AsteriskForwardSlash | */ | */ |
| Точка | . | . |
| Запятая | , | , |
| Колон | : | : |
| Точка с запятой | ; | ; |
Все эти типы токенов сгруппированы как перечисления в файле TokenType.cs.
public enum TokenType
{
// Keywords
Using , // using
Class , // class
If , // if
Else , // else
For , // for
Do , // do
While , // while
Switch , // switch
Case , // case
Break , // break
Default , // default
Return , // return
Null , // null
True , // true
False , // false
DataType , // void | bool | char? | int[]
// Values
Number , // 77 | .25 | 3.14
String , // "I am 'Moaz'"
Comment , // Any Character After (//) and Before (r | n | //)
Identifier , // fact | _private | iD_1
MultilineComment , // Any Character After (/*) and Before (*/)
// Operators
And , // && | &
Or , // || | |
Not , // !
Equal , // =
PlusEqual , // +=
MinusEqual , // -=
DoubleEquals , // ==
NotEqual , // !=
LessThan , // <
GreaterThan , // >
LessThanOrEqual , // <=
GreaterThanOrEqual , // >=
// Symbols
OpenRoundBracket , // (
CloseRoundBracket , // )
OpenCurlyBracket , // {
CloseCurlyBracket , // }
OpenSquareBracket , // [
CloseSquareBracket , // ]
Plus , // +
Minus , // -
DoublePluses , // ++
DoubleMinuses , // --
Percent , // %
Asterisk , // *
BackSlash , //
ForwardSlash , // /
DoubleForwardSlashes , // //
ForwardSlashAsterisk , // /*
AsteriskForwardSlash , // */
Dot , // .
Comma , // ,
Colon , // :
Semicolon // ;
}их определения создаются и сохраняются в List<TokenDefinition> в файле Tokenizer.cs.
private readonly List < TokenDefinition > _tokenDefinitions = new List < TokenDefinition >
{
// Keywords
new TokenDefinition ( TokenType . Using , @"using" ) ,
new TokenDefinition ( TokenType . Class , @"class" ) ,
new TokenDefinition ( TokenType . If , @"if" ) ,
new TokenDefinition ( TokenType . Else , @"else" ) ,
new TokenDefinition ( TokenType . For , @"for" ) ,
new TokenDefinition ( TokenType . Do , @"do" , 1 ) ,
new TokenDefinition ( TokenType . While , @"while" ) ,
new TokenDefinition ( TokenType . Switch , @"switch" ) ,
new TokenDefinition ( TokenType . Case , @"case" ) ,
new TokenDefinition ( TokenType . Default , @"default" ) ,
new TokenDefinition ( TokenType . Break , @"break" ) ,
new TokenDefinition ( TokenType . Return , @"return" ) ,
new TokenDefinition ( TokenType . Null , @"null" ) ,
new TokenDefinition ( TokenType . True , @"true" ) ,
new TokenDefinition ( TokenType . False , @"false" ) ,
new TokenDefinition ( TokenType . DataType , @"(void|var)|(bool|char|short|int|long|float|double|decimal|String|string)([]|?)?" ) ,
// Values
new TokenDefinition ( TokenType . Number , @"d*.d+|d+" ) ,
new TokenDefinition ( TokenType . String , @"""[^""]*""" ) ,
new TokenDefinition ( TokenType . Identifier , @"[a-zA-Z_]w*" , 1 ) ,
new TokenDefinition ( TokenType . Comment , @"(?<=//).*?(?=(r|n|//))" ) ,
new TokenDefinition ( TokenType . MultilineComment , @"(?<=/*)(?:(?!*/)(?:.|[rn]))*(?=*/)" ) ,
// Operators
new TokenDefinition ( TokenType . And , @"&&|&" ) ,
new TokenDefinition ( TokenType . Or , @"||||" ) ,
new TokenDefinition ( TokenType . Not , @"!" , 1 ) ,
new TokenDefinition ( TokenType . Equal , @"=" , 1 ) ,
new TokenDefinition ( TokenType . PlusEqual , @"+=" ) ,
new TokenDefinition ( TokenType . MinusEqual , @"-=" ) ,
new TokenDefinition ( TokenType . DoubleEquals , @"==" ) ,
new TokenDefinition ( TokenType . NotEqual , @"!=" ) ,
new TokenDefinition ( TokenType . LessThan , @"<" , 1 ) ,
new TokenDefinition ( TokenType . GreaterThan , @">" , 1 ) ,
new TokenDefinition ( TokenType . LessThanOrEqual , @"<=" ) ,
new TokenDefinition ( TokenType . GreaterThanOrEqual , @">=" ) ,
// Symbols
new TokenDefinition ( TokenType . OpenRoundBracket , @"(" ) ,
new TokenDefinition ( TokenType . CloseRoundBracket , @")" ) ,
new TokenDefinition ( TokenType . OpenCurlyBracket , @"{" ) ,
new TokenDefinition ( TokenType . CloseCurlyBracket , @"}" ) ,
new TokenDefinition ( TokenType . OpenSquareBracket , @"[" ) ,
new TokenDefinition ( TokenType . CloseSquareBracket , @"]" ) ,
new TokenDefinition ( TokenType . Plus , @"+" , 1 ) ,
new TokenDefinition ( TokenType . Minus , @"-" , 1 ) ,
new TokenDefinition ( TokenType . DoublePluses , @"++" ) ,
new TokenDefinition ( TokenType . DoubleMinuses , @"--" ) ,
new TokenDefinition ( TokenType . Percent , @"%" ) ,
new TokenDefinition ( TokenType . Asterisk , @"*" , 1 ) ,
new TokenDefinition ( TokenType . BackSlash , @"\" ) ,
new TokenDefinition ( TokenType . ForwardSlash , @"/" , 1 ) ,
new TokenDefinition ( TokenType . DoubleForwardSlashes , @"//" ) ,
new TokenDefinition ( TokenType . ForwardSlashAsterisk , @"/*" ) ,
new TokenDefinition ( TokenType . AsteriskForwardSlash , @"*/" ) ,
new TokenDefinition ( TokenType . Dot , @"." ) ,
new TokenDefinition ( TokenType . Comma , @"," ) ,
new TokenDefinition ( TokenType . Colon , @":" ) ,
new TokenDefinition ( TokenType . Semicolon , @";" ) ,
} ;
.. . Когда токенизатор сталкивается с некоторой последовательностью символов, например ++ , он запутывается: это один токен типа DoublePluses ? Или два последовательных токена типа Plus ? Эта проблема также относится к другим перекрывающимся токенам, таким как: { + , += } & { - , -- } & { - , -= } & { / , // }
Решение:
Каждому токену будет присвоено свойство Priority со значением по умолчанию 0 (наивысший приоритет) , и когда два токена перекрываются, например + и += мы уменьшаем приоритет токена с более короткой длиной + до 1 .
Теперь токенизатор больше не будет путаться между + и += и будет брать тот, у которого более высокий приоритет += .
Когда токенизатор сталкивается с некоторой последовательностью символов, например "String + String = String" он создает три типа токенов:
"String + String = String"+=но нам нужен только токен типа String !!
Решение:
Каждому токену будут назначены свойства «Начальный индекс» и «Конечный индекс» , так что предыдущие токены будут иметь:
| Тип | Ценить | Начальный индекс | Конечный индекс |
|---|---|---|---|
| Нить | "String + String = String" | 0 | 25 |
| Плюс | + | 8 | 9 |
| Равный | = | 17 | 18 |
и мы игнорируем любые старты токена в диапазоне другого.
Теперь токенизатор будет создавать только один токен типа String и игнорировать внутренние.
Parser / Syntax Analyzer — это программа, которая принимает последовательность токенов, сгенерированную с помощью Tokenizer, и группирует их для формирования структур, заданных используемой продукцией контекстно-свободной грамматики (CFG).
Краткое содержание:
CAPITAL_CASE : Нетерминалsmall_case : Терминал| : Альтернативы (или)ε : Пусто PROGRAM --> IMPORTS CLASSES
IMPORTS --> IMPORT_STATEMENT IMPORTS | ε
IMPORT_STATEMENT --> using IDS;
CLASSES --> CLASS_STATEMENT CLASSES | ε
CLASS_STATEMENT --> class id { SUPER_STATEMENTS }
SUPER_STATEMENTS --> SUPER_STATEMENT SUPER_STATEMENTS | ε
SUPER_STATEMENT --> COMMENT_STATEMENT | FUNCTION_STATEMENT | INLINE_STATEMENT ;
COMMENT_STATEMENT --> // comment | /* multiline_comment */
FUNCTION_STATEMENT --> data_type id (DECLARES) { STATEMENTS }
INLINE_STATEMENT --> DECSIGN_STATEMENT | DECLARE_STATEMENT | INC_DEC_STATEMENT | ASSIGN_STATEMENT | CALL_STATEMENT
DECSIGN_STATEMENT --> data_type id = EXPRESSION
DECLARE_STATEMENT --> data_type id
INC_DEC_STATEMENT --> id INC_DEC_OPERATOR
ASSIGN_STATEMENT --> id ASSIGN_OPERATOR EXPRESSION
CALL_STATEMENT --> IDS(EXPRESSIONS)
STATEMENTS --> STATEMENT STATEMENTS | ε
STATEMENT --> SUPER_STATEMENT | STRUCT_STATEMENT
STRUCT_STATEMENT --> IF_STATEMENT | WHILE_STATEMENT | DO_WHILE_STATEMENT | FOR_STATEMENT | BLOCK_STATEMENT | RETURN_STATEMENT | SWITCH_STATEMENT
IF_STATEMENT --> if (CONDITION) STATEMENT ELSE_STATEMENT
ELSE_STATEMENT --> else STATEMENT | ε
WHILE_STATEMENT --> while (CONDITION) STATEMENT
DO_WHILE_STATEMENT --> do STATEMENT while (CONDITION);
FOR_STATEMENT --> for (INLINE_STATEMENT; CONDITION; INLINE_STATEMENT) STATEMENT
BLOCK_STATEMENT --> { STATEMENTS }
RETURN_STATEMENT --> return RETURN_STATEMENT_REST;
RETURN_STATEMENT_REST --> EXPRESSION | ε
SWITCH_STATEMENT --> switch (EXPRESSION) { CASES }
CASES --> CASE CASES | ε
CASE --> CASE_STATEMENT | DEFAULT_STATEMENT
CASE_STATEMENT --> case VALUE: STATEMENT break;
DEFAULT_STATEMENT --> default: STATEMENT break;
CONDITION --> EXPRESSION REL_OPERATOR EXPRESSION | true | false
EXPRESSION --> VALUE | id | ( EXPRESSION )
VALUE --> string | number | true | false | null
IDS --> id MORE_IDS
MORE_IDS --> .IDS | ε
DECLARES --> DECLARE_STATEMENT MORE_DECLARES | ε
MORE_DECLARES --> , DECLARES | ε
EXPRESSIONS --> EXPRESSION MORE_EXPRESSIONS | ε
MORE_EXPRESSIONS --> , EXPRESSIONS | ε
INC_DEC_OPERATOR --> ++ | --
ASSIGN_OPERATOR --> = | += | -=
REL_OPERATOR --> == | != | > | >= | < | <=
В информатике форма Бэкуса-Наура (BNF или нормальная форма Бэкуса) представляет собой обозначение, используемое для описания синтаксиса языков программирования или других формальных языков. Его разработали Джон Бэкус и Питер Наур. BNF можно описать как метасинтаксическую нотацию для контекстно-свободных грамматик.
-- Форма Бэкуса-Наура @ Wikipedia
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается:
на который ссылается: