Eine Open-Source-Alternative zu Github Copilot, die lokal läuft.
? Sehen Sie es in Aktion
Echtzeit -Code -Abschluss
Chatten Sie mit KI über Ihren Code
Voraussetzungen
Wenn Sie es noch nicht getan haben, wählen Sie bitte eine der folgenden Plattformen aus, um LLM Ihrer Wahl auf Ihrem System lokal auszuführen.
Ollama (sehr empfohlen)
llamafile (experimentell)
lama.cpp (experimental)
? LLM -Empfehlungen
Bitte beachten Sie, dass Sie LLM für die CODE -Fertigstellung und die Chat -Funktion separat konfigurieren müssen. Einige der beliebten LLMs, die wir empfehlen, sind wie folgt. Bitte wählen Sie die Größe (dh 1,3b, 7b, 13b oder 34b) des Modells basierend auf Ihren Hardwarefunktionen.
Code -Abschluss
Chat
Links
Deepseek-Codierer: {1.3b oder 6.7b oder 33b} -Base
Deepseek-Coder: {1.3b oder 6.7b oder 33b} -Instruktur
Ollama Tags, zu Hause
codellama: {7b oder 13b oder 34b} -code
Codellama: {7b oder 13b oder 34b} -Instruktur
Ollama Tags, zu Hause
Mistral: {7b} -Instruktur
Ollama Tags, zu Hause
Sie können auch ein Modell auswählen, indem Sie Ihre lokalen LLMs mit Benchlama bewerten.
Schnelle Installation
Sie können eine Feierweiterung vom Visual Studio Code Marketplace oder aus der Open VSX -Registrierung installieren.
Marktplatz für Visualstudio Code
Offene VSX -Registrierung
Konfigurationsoptionen
Bitte legen Sie die folgenden Optionen in den Einstellungen für die Geheimscheide ein.
privy.Provider ( required ): Wählen Sie die Plattform aus, die zum Ausführen von LLMs lokal verwendet wird. Es gibt Unterstützung für die Verwendung von OpenAI, dies wirkt sich jedoch auf die Datenschutzaspekte der Lösung aus. Der Standard ist Ollama .
Privy.Providerurl ( required ): Die URL der Plattform, die zum Ausführen von LLMs lokal verwendet wird. Der Standardwert ist http://localhost:11434 .
privy.autocomplete.mode : Verwenden Sie diese Einstellung zum Aktivieren/Deaktivieren der automatischen Vervollständigungsfunktion.
privy.autocomplete.model : Geben Sie den Namen des lokalen Ollama -Modells ein, das Sie zur Autoperation verwenden möchten. Unterstützte Formate sind Deepseek Codierer, Lama & Stable Code. Wir haben Deekseek-Coder ausgewählt: 1,3B-Base, da es die geringste Menge an VRAM erfordert. Sie können basierend auf Ihrem Hardware -Setup anpassen.
privy.autocomplete.debounceWait : Verwenden Sie dies, um die Zeitlücke festzulegen, bevor die nächste Fertigstellung in Millisekunden ausgelöst wird. Standard ist 300 ms.
privy.model : Wählen Sie das LLM aus, mit dem Sie chatten möchten. Derzeit unterstützt Deepseek, Mistral und Codellama. Wenn Sie andere LLMs verwenden möchten, wählen Sie bitte custom und konfigurieren Sie privy.customModel entsprechend.
privy.custommodel : Wenn Sie andere Modelle auswählen möchten, die auf Ihrem Ollama laufen, geben Sie bitte ihren Namen ein.
Schlüsselmerkmale
? Open Source
? Privatsphäre zuerst
Autocode -Fertigstellung
? Copilotstil -Chat
Gespräche über Gewinde
Unterstützung für Codeerklärung, Unit -Tests, Finden von Fehler, Diagnosefehler usw.
⌨️ Tastaturverknüpfungen
Verknüpfung (MAC)
Beschreibung
Alt + (für Windows/Linux) oder Cmd + (für Mac)
Auslösen von Inline -Code -Vervollständigung
Ctrl + Alt + c (für Windows/Linux) oder Ctrl + Cmd + c (für Mac)
Starten Sie Chat
Tipps und Tricks
Das Verständnis dieser Konzepte hilft Ihnen dabei, das Beste aus den Felern herauszuholen.
Spezifisch sein . Wenn Sie nach Codesänderungen nach, z. B. Codes, bitten Sie konkrete Namen und beschreiben Sie das gewünschte Ergebnis. Vermeiden Sie vage Referenzen.
Kontext geben . Sie können die Programmiersprache ("in Rost") oder andere relevante Kontexte für grundlegende Fragen einfügen. Sie können einen aussagekräftigen Code -Snippet für Codeerklärungen und Fehlerdiagnose auswählen.
Vertrauen Sie nicht blind den Antworten . Es ist ein großer Schritt, dass Feier auf Ihre Fragen antworten kann. Es könnte mit ungenauen Antworten reagieren, insbesondere wenn es um weniger bekannte Themen geht oder wenn das Gespräch zu detailliert wird.
Verwenden Sie verschiedene Chat -Threads für verschiedene Themen . Kürzere Themen mit bestimmten Themen helfen dabei, genauer zu reagieren.
? Credits
Rubberduck AI - Dieses Projekt ist stark von der Arbeit von Rubberduck Ai inspiriert, und wir sind ihnen dafür verpflichtet, dass sie auf dem neuesten Stand sind. Das Folgende ist die Liste der Mitwirkenden dieses Projekts und wir danken allen von ihnen aufrichtig.
Lars Grammel ? ? ?
Iain Majer ?
Nicolas Carlo ?
Ratogbm ?
Lionel Okpeicha ?
Mercerk ?
Lundeen.bryan ?
Dukog ?
SBSTN87 ?
Manuel ?
Alessandro-Newzoo ?
Leere & Null ?
Witzdingo ?
Eva ?
Alexeylavrentev ?
Linshu123
Michael Adams ?
unruhig
? Codebeiträge
Leitfaden beitragen
Lesen Sie unseren beitragenden Leitfaden, um über unseren Entwicklungsprozess zu erfahren, wie Sie Fehler und Verbesserungen vorschlagen und Ihre Änderungen erstellen und testen können.
Gute erste Ausgaben
Um Ihnen zu helfen, Ihre Füße nass zu machen und sich mit unserem Beitragsprozess vertraut zu machen, haben wir eine Liste mit guten ersten Problemen, die Dinge mit einem relativ begrenzten Bereich enthalten. Dies ist ein großartiger Ort, um loszulegen!