Dieses Repository enthält Dennis Salzmanns Neuauflagen des von Rieck et al. mit Cujo (nur statischer Teil). Bitte beachten Sie, dass der Code in seinem aktuellen Zustand ein POC und keine vollwertige Produktions-API ist.
In unserer Neuauflagen haben wir eine lexikalische Analyse von JavaScript -Eingaben mit Algorithmen für maschinelles Lernen kombiniert, um böswillige Proben automatisch und genau zu erkennen.
Jassi -Installation:
cd src
git clone https://github.com/rieck/jassi.git
cd jassi
./bootstrap
./configure
make
cd ../..
Python3 -Installationen:
install python3
install python3-pip
pip3 install -r requirements.txt
Um ein Modell aus den Ordnern gutartig und böswillig zu erstellen, die JS -Dateien enthalten, verwenden Sie die Option -ti -gutartige böswillige und fügen Sie ihre entsprechende Bodenwahrheit mit -TC -gutartiger bösartiger. Verwenden Sie zum Speichern des Modells im Modellpfad die Option -Save_Model -Modell:
$ python3 src/main.py -ti BENIGN MALICIOUS -tc benign malicious --save_model MODEL
Der Prozess ist für den Klassifizierungsprozess ähnlich. Verwenden Sie die Option -ai Benign2 böswillig2, um JS -Muster aus den Ordnern gutig2 und böswillig2 zu klassifizieren. Fügen Sie ihre entsprechende Bodenwahrheit mit der Option -ac -gutartiges bösartiges. Verwenden Sie das Modell eines vorhandenen Modellmodells, das für den Klassifizierungsprozess verwendet werden soll, das Modell der Option - -load_model:
$ python3 src/main.py -ai BENIGN2 MALICIOUS2 -ac benign malicious --load_model MODEL
Dieses Projekt ist gemäß den Bestimmungen der AGPL3 -Lizenz lizenziert, die Sie in LICENSE finden können.