Da sich die Dinge im Devai -Raum schnell bewegt, eine Kurzform für die Gemeinschaft von Entwicklern, die mit Hilfe von Großsprachmodellen (LLMs) Software aufbauen, kann es schwierig sein, herauszufinden, welches Modell verwendet werden soll.
Wir haben dieses Repository auf der Grundlage unserer Erfahrungen als Teil der Weiter -Community gestartet. Fühlen Sie sich frei, Verbesserungen vorzuschlagen und uns zu helfen, es auf dem Laufenden zu halten, indem Sie eine Pull-Anfrage öffnen!
Es gibt viele LLMs. Wir haben uns entschlossen, uns auf die zu konzentrieren, die wir jetzt Leute sehen, die wir jetzt verwenden:

Sie finden einen CSV, der hier alle diese Modelle und Informationen dazu enthält.
Die erste Wahl, die Sie normalerweise treffen, ist, ob Sie eine Open-Source- oder ein kommerzielles Modell verwenden möchten:
Wenn Sie sich für eine Open-Source -LLM entscheiden, ist Ihre nächste Entscheidung, ob das Modell auf Ihrem lokalen Computer oder auf einem gehosteten Modellanbieter eingerichtet werden soll:
Wir behalten eine Anleitung zum Bereitstellen eines Open-Source-Code-LLM für Ihr Team hier.
Wenn Sie sich für eine kommerzielle LLM entscheiden, erhalten Sie normalerweise API -Schlüssel und spielen mit mehreren davon zum Vergleich. Sowohl die Qualität der Vorschläge als auch die Kosten für die Verwendung können wichtige Kriterien sein.
Dies ist eine Liste der Open-Source -LLMs, die Entwickler beim Codieren verwenden, das bis Oktober 2023 von den meisten beliebtesten bis am wenigsten beliebt ist.
Code Lama ist ein LLM, das von Meta zum Generieren und Diskussion von Code geschult wurde. Es basiert auf Lama 2. Obwohl es unter dem WizardCoder und dem Phind-Codellama auf der Big Code-Models-Rangliste liegt, ist es das Basismodell für beide. Es gibt auch eine Vielzahl von Größen: 7b, 13b und 34b, was es sowohl für lokale Maschinen als auch bei gehosteten Anbietern beliebt macht. Zu diesem Zeitpunkt ist es das bekannteste Open-Source-Basismodell für die Codierung und führt die Open-Source-Anstrengung, um codierende LLMs zu erstellen.
Creator: Meta
Date released: August 24th, 2023
License: Llama 2 Community
Base model: Llama 2
Parameters: 7B, 13B, 34B
WizardCoder ist ein LLM, das vom WizardLM -Team auf Code Lama aufgebaut ist. Die EVOL-Instruct-Methode wird für die Codierung von Aufgaben angepasst, um einen Trainingsdatensatz zu erstellen, der zum Feinabstimmen von Code-Lama verwendet wird. Es ist in den gleichen Größen wie Code Lama: 7b, 13b und 34b. Infolgedessen ist es die beliebteste Open-Source-Unterrichts-LLM bisher.
Creator: WizardLM
Date released: August 26th, 2023
License: Llama 2 Community
Base model: Code Llama
Parameters: 7B, 13B, 34B
Phind-Codellama ist ein LLM, das von Phind auf Code Lama aufgebaut ist. Ein proprietärer Datensatz von ~ 80.000 hochwertigen Programmierproblemen und -lösungen wurde verwendet, um Code-Lama-Code-Lama zu optimieren. Dieses feinstimmige Modell wurde dann auf 1,5B zusätzliche Token weiter abgestimmt. Derzeit führt es in die Rangliste der großen Code -Modelle. Es ist jedoch nur als 34B -Parametermodell erhältlich, sodass mehr verfügbare Speicher verwendet werden müssen.
Creator: Phind
Date released: August 28th, 2023
License: Llama 2 Community
Base model: Code Llama
Parameters: 34B
Mistral ist ein 7B -Parameter LLM, der von Mistal AI trainiert wird. Es ist das zuletzt veröffentlichte Modell auf dieser Liste, nachdem es Ende September gesunken ist. Mistal AI sagt, dass sie „die Codellama 7B -Leistung in Code nähert und gleichzeitig in englischen Aufgaben gut bleibt“. Obwohl die Leute in den ersten Wochen nach der Veröffentlichung nur in einer kleinen Größe erhältlich sind. Die ersten fein abgestimmten LLMs, die sie als Basis nutzen, beginnen nun zu tauchen, und wir werden wahrscheinlich mehr in Zukunft sehen.
Creator: Mistral AI
Date released: September 27th, 2023
License: Apache 2.0
Base model: Mistral
Parameters: 7B
StarCoder ist ein 15B -Parameter LLM, der von BigCode trainiert wurde und seiner Zeit, als es im Mai freigesetzt wurde, voraus war. Es wurde auf über 80 Programmiersprachen aus dem Stapel (V1.2) mit ausgeschlossenen Opt-out-Anforderungen trainiert. Es ist kein Anweisungsmodell und Befehle wie "Schreiben Sie eine Funktion, die die Quadratwurzel berechnet" funktioniert nicht gut. Durch die Verwendung der Tech -Assistent -Eingabeaufforderung können Sie dies jedoch hilfreicher machen.
Creator: BigCode
Date released: May 4th, 2023
License: OpenRAIL-M
Base model: StarCoder
Parameters: 15B
Deepseek Codierer ist ein LLM, der von Deepseek AI auf 2 Billionen Token trainiert wurde. Mit einem Datensatz, der sich aus mehr als 80 Programmiersprachen zusammensetzt, ist es das neueste Modell auf dieser Liste und es wurde berichtet, dass es bei verschiedenen Coding-Benchmarks ziemlich hoch ist.
Creator: DeepSeek AI
Date released: November 3rd, 2023
License: DeepSeek License Agreement
Base model: DeepSeek Coder
Parameters: 1.3B, 6.7B, 33B
Lama 2 ist ein LLM, das von Meta auf 2 Billionen Token trainiert wurde. Es ist die beliebteste Open -Source -LLM insgesamt, daher verwenden einige Entwickler es, obwohl es nicht so gut ist wie viele der oben genannten Modelle, um Code -Änderungen zu erstellen. Es ist auch wichtig, weil Code Lama, der beliebteste LLM für die Codierung, darauf aufbaut, was wiederum die Grundlage für WizardCoder und Phind-Codellama ist.
Creator: Meta
Date released: July 18th, 2023
License: Llama 2 Community
Base model: Llama 2
Parameters: 7B, 13B, 70B
Dies ist eine Liste der kommerziellen LLMs, die Entwickler beim Codieren verwenden, das bis zum Oktober 2023 von den meisten am beliebtesten bis am wenigsten beliebt ist.
GPT-4 von OpenAI gilt allgemein als die beste LLM, die beim Codieren verwendet werden kann. Es ist sehr hilfreich, wenn Sie Code generieren und diskutieren. Sie müssen jedoch Ihren Code über die API an die Öffnung schicken und kann ziemlich teuer sein. Trotzdem ist es die beliebteste LLM für die Codierung insgesamt und die Mehrheit der Entwickler verwendet es an diesem Punkt, während sie kodieren. Alle OpenAI-API-Benutzer, die vor dem 6. Juli 2023 eine erfolgreiche Zahlung von 1 USD oder mehr geleistet haben, erhielten Zugang zu GPT-4 und planen, bald den Zugang für alle Entwickler zu eröffnen.
GPT-4 Turbo von OpenAI ist billiger und schneller als GPT-4. Es verfügt über einen Wissens Cutoff von April 2023 und ein 128.000 Kontextfenster. Derzeit ist es im November 2023 in der Vorschau, aber jeder mit einem OpenAI-API-Konto und vorhandenen GPT-4-Zugriff kann es verwenden.
GPT-3,5 Turbo von Openai ist billiger und schneller als GPT-4; Seine Vorschläge sind jedoch bei weitem nicht so hilfreich. Sie müssen auch Ihren Code über die API an die Öffnung senden. Es ist die zweitbeliebteste LLM für die Codierung insgesamt bisher. Alle Entwickler können es jetzt verwenden, nachdem sie sich für ein OpenAI -Konto angemeldet haben.
Claude 2 ist ein LLM, das von Anthropic trainiert wurde und die Codierungsfähigkeiten im Vergleich zur ersten Version von Claude erheblich verbessert hat. Es ist insbesondere im Vergleich zu anderen LLMs hervorgerufen, wenn Sie einen großen Kontext bereitstellen. Sie müssen Ihren Code über die API an anthropisch senden. Sie müssen sich an dieser Stelle bewerben, um Zugang zu Claude 2 zu erhalten.
Palm 2 ist ein von Google trainierter LLM. Um es auszuprobieren, müssen Sie Ihren Code über die Palm -API an Google senden, nachdem Sie einen API -Schlüssel über Makersuite erhalten haben, die sich derzeit in der öffentlichen Vorschau befinden.
Wenn Sie ein Modell fehlen oder eine Meinung teilen möchten, begrüßen wir Sie, um eine PR oder ein Problem zu eröffnen! Wir hoffen, einen Community-betriebenen und aktuellen Index der hilfreichsten Sprachmodelle für die Codierung aufrechtzuerhalten.
Wenn Ihnen dieser Blog -Beitrag gefallen hat und mehr über Devai lesen möchten - die Community von Leuten, die mit Hilfe von LLMs Software aufbauen -, treten Sie in der Zukunft in unserem monatlichen Newsletter bei.