簡體中文|英語
語義內核:利用先進的自然語言處理技術來準確理解,處理和響應複雜的語義查詢,從而為用戶提供精確的信息檢索和建議服務。
內核記憶:ANTSK能夠連續學習和存儲知識點,具有長期的記憶功能,積累了經驗,並提供了更個性化的互動體驗。
知識庫:通過文檔(Word,PDF,Excel,TXT,Markdown,JSON,PPT)導入知識庫並執行知識基礎問答。
GPT生成:該平台支持創建個性化的GPT模型,使用戶能夠構建自己的GPT模型。
API接口發布:以API的形式公開內部功能,使開發人員能夠將ANTSK集成到其他應用程序中並增強應用程序智能。
API插件系統:打開API插件系統,允許第三方開發人員或服務提供商輕鬆地將其服務集成到ANTSK中,並不斷增強應用程序功能。
.NET插件系統:打開DLL插件系統,該系統允許第三方開發人員或服務提供商通過以標準格式代碼生成DLL來輕鬆整合其業務功能,從而不斷增強應用程序功能。
在線搜索:ANTSK,實時訪問最新信息,以確保用戶收到最及時,最相關的數據。
模型管理:改編和管理不同製造商的不同模型的集成,包括Llama.cpp支持的GGGUF類型和由LlamaFactory和Ollama支持的離線運行模型。
國內創新:ANTSK支持國內模型和數據庫,並且可以在國內創新條件下運行。
模型微調:基於模型微調的LlamaFactory進行了計劃。
ANTSK適用於各種業務場景,例如:
文件
演示和演示
Default account: test
Default password: test
Due to the low configuration of the cloud server, the local model cannot be run, so the system settings permissions have been closed. You can simply view the interface. If you want to use the local model, please download and use it on your own.
視頻演示
在這裡,我將Postgres用作數據和向量存儲,因為語義內核和內核內存支持它,但是您也可以使用其他選項。
默認情況下,該模型支持OpenAI,Azure Openai和Llama的本地模型。如果您需要使用其他型號,則可以使用One-API集成它們。
配置文件中的登錄配置是默認登錄帳戶和密碼。
需要配置以下配置文件
提供PG版本AppSettings.json和簡化版本(SQLITE+DISK) DOCKER-COMPOSE.SIMPLE.YML
從項目root目錄下載Docker-compose.yml ,然後將配置文件AppSettings.json放置在同一目錄中。
PG圖像已經準備好了。您可以在docker-compose.yml中修改默認用戶名和密碼,然後在appsettings.json中的數據庫連接需要一致。
然後,您可以在目錄中執行以下命令以啟動antsk
docker-compose up -d
# Non-host version, do not use local proxy
version: '3.8'
services:
antsk:
container_name: antsk
image: registry.cn-hangzhou.aliyuncs.com/AIDotNet/antsk:v0.5.0
ports:
- 5000:5000
networks:
- antsk
depends_on:
- antskpg
restart: always
environment:
- ASPNETCORE_URLS=http://*:5000
volumes:
- ./appsettings.json:/app/appsettings.json # Local configuration file needs to be placed in the same directory
- D://model:/app/model
networks:
antsk:
以此為例,它意味著將Windows的本地D://型號置於容器/App/Model中。如果是這樣,請在您的AppSettings.json中配置為
litedockercompose
緊湊型版本與SQLite-Disk一單擊部署
fulldockercospose
完整版使用PG+Aspire
{
"DBConnection": {
"DbType": "Sqlite",
"ConnectionStrings": "Data Source=AntSK.db;"
},
"KernelMemory": {
"VectorDb": "Disk",
"ConnectionString": "Host=;Port=;Database=antsk;Username=;Password=",
"TableNamePrefix": "km-"
},
"FileDir": {
"DirectoryPath": "D:\git\AntBlazor\model"
},
"Login": {
"User": "admin",
"Password": "xuzeyu"
},
"BackgroundTaskBroker": {
"ImportKMSTask": {
"WorkerCount": 1
}
}
}
// Supports various databases, you can check SqlSugar, MySql, SqlServer, Sqlite, Oracle, PostgreSQL, Dm, Kdbndp, Oscar, MySqlConnector, Access, OpenGauss, QuestDB, HG, ClickHouse, GBase, Odbc, OceanBaseForOracle, TDengine, GaussDB, OceanBase, Tidb, Vastbase, PolarDB, Custom
DBConnection.DbType
// Connection string, need to use the corresponding string according to the different DB types
DBConnection.ConnectionStrings
//The type of vector storage, supporting Postgres, Disk, Memory, Qdrant, Redis, AzureAISearch
//Postgres and Redis require ConnectionString configuration
//The ConnectionString of Qdrant and AzureAISearch uses Endpoint | APIKey
KernelMemory.VectorDb
//Local model path, used for quick selection of models under llama, as well as saving downloaded models.
FileDir.DirectoryPath
//Default admin account password
Login
//Import asynchronous processing thread count. A higher count can be used for online API, but for local models, 1 is recommended to avoid memory overflow issues.
BackgroundTaskBroker.ImportKMSTask.WorkerCount
在ANTSK/SRC/ANTSK中運行以下內容:
dotnet clean
dotnet build
dotnet publish "AntSK.csproj"
然後導航到antsk/src/antsk/bin/repares/net8.0/發布和運行:
dotnet AntSK.dll
現在應在開始後應用樣式。
我正在為數據庫使用CodeFirst模式,因此,只要正確配置了數據庫連接,就將自動創建表結構。
1. First, ensure that Python and pip are installed in your environment. This step is not necessary if using an image, such as version v0.2.3.2, which already includes the complete Python environment.
2. Go to the model add page and select llamafactory.
3. Click "Initialize" to check whether the 'pip install' environment setup is complete.
4. Choose a model that you like.
5. Click "Start" to begin downloading the model from the tower. This may involve a somewhat lengthy wait.
6. After the model has finished downloading, enter http://localhost:8000/ in the request address. The default port is 8000.
7. Click "Save" and start chatting.
8. Many people ask about the difference between LLamaSharp and llamafactory. In fact, LLamaSharp is a .NET implementation of llama.cpp, but only supports local gguf models, while llamafactory supports a wider variety of models and uses Python implementation. The main difference lies here. Additionally, llamafactory has the ability to fine-tune models, which is an area we will focus on integrating in the future.
由於所有貢獻的人,該項目的存在。
該倉庫遵循ANTSK許可證開源協議。
該項目遵循Apache 2.0協議,除了以下其他條款
該項目可用於商業目的,但如果違反以下規定,它有權禁止您使用它
未經授權,不允許您修改Antsk的徽標和標題信息
未經授權,您不允許您修改頁面底部的版權信息
如果您需要授權,則可以聯繫微信: Xuzeyu91
如果您打算在商業項目中使用ANTSK,則需要確保遵循以下步驟:
包含ANTSK許可證的版權聲明。螞蟻許可證。
如果修改軟件源代碼,則需要在源代碼中清楚地指出這些修改。
滿足上述要求
幫助企業AI應用程序開發,我們建議安藍氮
如果您有任何疑問或建議,請通過我的官方微信帳戶與我聯繫。我們還有一個討論小組,您可以在其中發送消息加入,然後我將您添加到該組中。
此外,您也可以通過電子郵件與我聯繫:[email protected]

我們感謝您對Antsk的興趣,並期待與您合作創造聰明的未來!