lexical jsdetector
1.0.0
该存储库包含丹尼斯·萨尔茨曼(Dennis Salzmann)对Rieck等人提出的概念的重新实现。与Cujo(仅静态部分)。请注意,在当前状态下,该代码是POC,而不是由成熟的生产就绪的API。
在我们的重新实现中,我们将JavaScript输入的词汇分析与机器学习算法相结合,以自动,准确地检测出恶意样本。
Jassi安装:
cd src
git clone https://github.com/rieck/jassi.git
cd jassi
./bootstrap
./configure
make
cd ../..
Python3安装:
install python3
install python3-pip
pip3 install -r requirements.txt
要从良性和恶意的文件夹构建模型,包含JS文件,请使用选项-TI良性恶意,并与-TC良性恶意添加其相应的地面真相。要将模型保存在模型路径中,请使用选项-SAVE_MODEL模型:
$ python3 src/main.py -ti BENIGN MALICIOUS -tc benign malicious --save_model MODEL
分类过程的过程相似。要对文件夹benign2和Malicial2进行分类,请使用该选项-ai benign2 malicial2。将其相应的地面真相添加到选项-AC良性恶意。要加载用于分类过程的现有模型模型,请使用选项-load_model模型:
$ python3 src/main.py -ai BENIGN2 MALICIOUS2 -ac benign malicious --load_model MODEL
该项目是根据AGPL3许可条款获得许可的,您可以在LICENSE中找到。