LlamaChat
v1.2.0: Model Hyperparameters ⚡️

Llamachat是一個MacOS應用程序,可讓您與Llama,羊駝和GPT4All模型聊天,這些模型均在Mac上本地運行。

Llamachat需要Macos 13 Ventura,以及Intel或Apple Silicon處理器。
在此處下載包含最新版本的.dmg 。
git clone https://github.com/alexrozanski/LlamaChat.git
cd LlamaChat
open LlamaChat.xcodeproj注意: Llamachat包括用於自動匯款的閃光,如果沒有簽署Llamachat,它們將無法加載。確保在建造和運行Llamachat時使用有效的簽名證書。
注意:模型推理在調試構建中非常緩慢地運行,因此,如果從源構建構建,請確保Llamachat中的Build Configuration LlamaChat > Edit Scheme... > Run設置為Release 。
.pth Pytorch檢查點表單或.ggml格式中添加Llama型號。.ggml文件。注意: Llamachat不使用任何型號文件運送,並且要求您根據各自的條款和條件從各個來源獲得這些文件。
.pth )或預轉換的.ggml文件(Llama.cpp使用的格式)中使用Llama模型家族。.pth格式導入Llama模型時:7B , 13B等),其中包括consolidated.NN.pth和params.json文件。tokenizer.model 。例如,要使用Llama-13b模型,您的模型目錄應該看起來像以下內容,並且應該選擇13B目錄: .
│ ...
├── 13B
│ ├── checklist.chk.txt
│ ├── consolidated.00.pth
│ ├── consolidated.01.pth
│ └── params.json
│ ...
└── tokenizer.model.ggml文件,請確保這些文件是最新的。如果遇到問題,則可能需要使用Llama.cpp的轉換腳本:歡迎拉拉請求和問題。請確保始終遵守行為準則。
Llamachat是使用Swift and Swiftui完全建造的,並利用Llama.swift在引擎蓋下進行推理和執行模型操作。
該項目主要是使用MVVM構建的,並大量使用聯合收割機和快速並發。
Llamachat已獲得MIT許可證的許可。