Dieses Repository ist ein Inkubator mehrerer OpenAI-GPT-basierter Versorgungsunternehmen. Neue Entwicklungen einer LLM -Technologie ermöglichen es, Ideen zu implementieren, die bisher schwer oder für die Software -Implementierung unmöglich waren. Ab sofort besteht das Repository aus:
Der Scanner befasst sich mit frischen Auktionen und kauft ihn jetzt auf. Der Scanner ist so konzipiert, dass er als Cron -Job ausgeführt wird. Die Idee ist, die bekanntesten Artikel mit dem besten Preis/Qualitäts-Verhältnis zu "zu" -Pick ". EBAY ist ein großartiger Marktplatz, um LLM-basierte Tools für das Scannen anzuwenden, da es sich um ein sehr wettbewerbsfähiges und unscharfes Umfeld handelt, das nicht einfach für einen Menschen navigieren kann. Die Preise liegen jedoch häufig weit unter dem vorgeschlagenen Einzelhandelspreis (MSRP) des Herstellers oder dem empfohlenen Einzelhandelspreis (RRP). Es gibt verschiedene Herausforderungen für Auto-Scans (wie viele Inline-Skate-Räder werden in einem Set verkauft? Oder was ist in einem viel gebündelt?
Dieses Projekt hat am Backdrop Build Hackathon teilgenommen (suchen Sie nach Anweisungen für GPTMonkey -Demo -Video- und Nutzungsanweisungen)
Das Skript spaltet Quellcodedateien in Brocken auf (versucht, sich zwischen den Methoden aufzuteilen), lädt diese Dateien rekursiv in GPT hoch und fordert ihn auf, den Code nach Schwachstellen zu scannen. Die Ergebnisse werden dann gruppiert und ziemlich gedruckt. HINWEIS: Abhängig von der Eingabeaufforderung und dem verwendeten Modell können die Ergebnisse zu paranoid sein und fast ausschließlich aus falsch positiven Positiven bestehen. Möglicherweise möchten Sie den Temperaturparameter und prompts/vulnerabilities/analyze
export OPENAI_API_KEY= < your API key >
GptMonkey/vuln_scanner.py --project_path /tmp/WordPress/wp-adminWenn Sie die Eingabeaufforderungen einstellen möchten, können Sie nur ein Beispiel nur wenige Dateien zur Analyse hochladen, um den Prozess zu beschleunigen und die Kosten zu sparen:
export OPENAI_API_KEY= < your API key >
GptMonkey/vuln_scanner.py --project_path /tmp/WordPress/wp-admin --samples 5 ----------------------------------------
File Path: edit-form-comment.php
Finding: Possible XSS vulnerability
Code:
<div class="misc-pub-section misc-pub-comment-status" id="comment-status">
<?php _e( 'Status:' ); ?> <span id="comment-status-display">
<?php
switch ( $comment->comment_approved ) {
case '1':
_e( 'Approved' );
break;
case '0':
_e( 'Pending' );
break;
case 'spam':
_e( 'Spam' );
break;
}
?>
</span>
----------------------------------------
File Path: edit-form-comment.php
Finding: Potential Cross-Site Scripting (XSS) vulnerability in the 'comment_status' field
Code:
<label><input type="radio"<?php checked( $comment->comment_approved, '1' ); ?> name="comment_status" value="1" /><?php _ex( 'Approved', 'comment status' ); ?></label><br />
Willkommen zum Sprach-Agnostic-Code-Erzeugungstool, das von OpenAI GPT (Generative PreAnt Transformator) APIs betrieben wird. Dieses Tool nutzt die Funktionen von GPT LLM, um Code basierend auf Benutzeranforderungen iterativ zu generieren. Stellen Sie sich dies vor, um einem GPT -Modell den "VIM" -Access auf Ihr Projekt zu gewähren, sodass es bei der Erstellung von Code basierend auf Freeform -Textbenutzeranforderungen behilflich ist.
Dieser Codegenerator verwendet hochmoderne Techniken, um die Verwendung des Kontextfensters effektiv zu maximieren, indem die relevantesten Teile des vorhandenen Codes und die Anforderungen geladen werden, die ein Aufforderungen für das Multiple-Language-Modell (Multiple Language Model) nutzt, um sicherzustellen, dass der generierte Code den Kontext Ihrer vorhandenen Codebasis und Adheren an die Anforderungen angreift.
Dieses Tool basiert auf einer Grundlage für fortschrittliche Methoden, darunter:
Denkkette: Diese Technik sorgt dafür
Reagieren (reagieren und handeln): s im Mittelpunkt des Code -Erzeugungsprozesses. Es beginnt mit einer Aufforderung, passt sich dem Kontext des Projekts an und lernt kontinuierlich aus der vorhandenen Codebasis, um den entsprechenden Code zu erstellen. Es ermöglicht das Modell, einen "Denkgang" über mehrere Interaktionen hinweg aufrechtzuerhalten.
PAL: Programm-unterstützte Sprachmodelle im Umfang des aktuellen Projekts, PAL-Ansatz sieht so aus, als würde man dem Modell den programmatischen Zugriff auf Projektdateien und Dokumentation geben
Weitere Informationen zu diesen Ansätzen finden Sie in den folgenden Artikeln:
Befolgen Sie die folgenden Schritte, um das Tool für die Codegenerierung zu verwenden:
Wenn Sie auf Probleme stoßen oder Verbesserungsvorschläge haben, können Sie bitte ein Problem im Github -Repository eröffnen. Ihr Feedback ist wertvoll und Ziel ist es, dieses Tool für Ihre Anforderungen an die Codegenerierung so effektiv wie möglich zu gestalten.
Happy Coding!