lexical jsdetector
1.0.0
이 저장소에는 Dennis Salzmann의 Rieck et al. Cujo (정적 부품 만). 현재 상태에서 코드는 POC이며 본격적인 생산 준비 API가 아닙니다.
우리의 상환에서, 우리는 자바 스크립트 입력에 대한 어휘 분석을 기계 학습 알고리즘과 결합하여 악의적 인 샘플을 자동으로 정확하게 감지했습니다.
Jassi 설치 :
cd src
git clone https://github.com/rieck/jassi.git
cd jassi
./bootstrap
./configure
make
cd ../..
Python3 설치 :
install python3
install python3-pip
pip3 install -r requirements.txt
JS 파일을 포함하는 폴더 양성 및 악성 폴더에서 모델을 구축하려면 -ti 양성 악성 옵션을 사용하고 -tc 양성 악성으로 해당 근거 진실을 추가하십시오. 모델 경로에 모델을 저장하려면 옵션 --save_model 모델을 사용하십시오.
$ python3 src/main.py -ti BENIGN MALICIOUS -tc benign malicious --save_model MODEL
프로세스는 분류 프로세스에서 유사합니다. 폴더 Benign2 및 Malicious2에서 JS 샘플을 분류하려면 옵션 -ai benign2 malicious2를 사용하십시오. 옵션 -AC 양성 악성으로 해당 근거 진실을 추가하십시오. 분류 프로세스에 사용할 기존 모델 모델을로드하려면 옵션 ---load_model 모델을 사용하십시오.
$ python3 src/main.py -ai BENIGN2 MALICIOUS2 -ac benign malicious --load_model MODEL
이 프로젝트는 LICENSE 에서 찾을 수있는 AGPL3 라이센스의 조건에 따라 라이센스가 부여됩니다.