简体中文|英语
语义内核:利用先进的自然语言处理技术来准确理解,处理和响应复杂的语义查询,从而为用户提供精确的信息检索和建议服务。
内核记忆:ANTSK能够连续学习和存储知识点,具有长期的记忆功能,积累了经验,并提供了更个性化的互动体验。
知识库:通过文档(Word,PDF,Excel,TXT,Markdown,JSON,PPT)导入知识库并执行知识基础问答。
GPT生成:该平台支持创建个性化的GPT模型,使用户能够构建自己的GPT模型。
API接口发布:以API的形式公开内部功能,使开发人员能够将ANTSK集成到其他应用程序中并增强应用程序智能。
API插件系统:打开API插件系统,允许第三方开发人员或服务提供商轻松地将其服务集成到ANTSK中,并不断增强应用程序功能。
.NET插件系统:打开DLL插件系统,该系统允许第三方开发人员或服务提供商通过以标准格式代码生成DLL来轻松整合其业务功能,从而不断增强应用程序功能。
在线搜索:ANTSK,实时访问最新信息,以确保用户收到最及时,最相关的数据。
模型管理:改编和管理不同制造商的不同模型的集成,包括Llama.cpp支持的GGGUF类型和由LlamaFactory和Ollama支持的离线运行模型。
国内创新:ANTSK支持国内模型和数据库,并且可以在国内创新条件下运行。
模型微调:基于模型微调的LlamaFactory进行了计划。
ANTSK适用于各种业务场景,例如:
文档
演示和演示
Default account: test
Default password: test
Due to the low configuration of the cloud server, the local model cannot be run, so the system settings permissions have been closed. You can simply view the interface. If you want to use the local model, please download and use it on your own.
视频演示
在这里,我将Postgres用作数据和向量存储,因为语义内核和内核内存支持它,但是您也可以使用其他选项。
默认情况下,该模型支持OpenAI,Azure Openai和Llama的本地模型。如果您需要使用其他型号,则可以使用One-API集成它们。
配置文件中的登录配置是默认登录帐户和密码。
需要配置以下配置文件
提供PG版本AppSettings.json和简化版本(SQLITE+DISK) DOCKER-COMPOSE.SIMPLE.YML
从项目root目录下载Docker-compose.yml ,然后将配置文件AppSettings.json放置在同一目录中。
PG图像已经准备好了。您可以在docker-compose.yml中修改默认用户名和密码,然后在appsettings.json中的数据库连接需要一致。
然后,您可以在目录中执行以下命令以启动antsk
docker-compose up -d
# Non-host version, do not use local proxy
version: '3.8'
services:
antsk:
container_name: antsk
image: registry.cn-hangzhou.aliyuncs.com/AIDotNet/antsk:v0.5.0
ports:
- 5000:5000
networks:
- antsk
depends_on:
- antskpg
restart: always
environment:
- ASPNETCORE_URLS=http://*:5000
volumes:
- ./appsettings.json:/app/appsettings.json # Local configuration file needs to be placed in the same directory
- D://model:/app/model
networks:
antsk:
以此为例,它意味着将Windows的本地D://型号置于容器/App/Model中。如果是这样,请在您的AppSettings.json中配置为
litedockercompose
紧凑型版本与SQLite-Disk一单击部署
fulldockercospose
完整版使用PG+Aspire
{
"DBConnection": {
"DbType": "Sqlite",
"ConnectionStrings": "Data Source=AntSK.db;"
},
"KernelMemory": {
"VectorDb": "Disk",
"ConnectionString": "Host=;Port=;Database=antsk;Username=;Password=",
"TableNamePrefix": "km-"
},
"FileDir": {
"DirectoryPath": "D:\git\AntBlazor\model"
},
"Login": {
"User": "admin",
"Password": "xuzeyu"
},
"BackgroundTaskBroker": {
"ImportKMSTask": {
"WorkerCount": 1
}
}
}
// Supports various databases, you can check SqlSugar, MySql, SqlServer, Sqlite, Oracle, PostgreSQL, Dm, Kdbndp, Oscar, MySqlConnector, Access, OpenGauss, QuestDB, HG, ClickHouse, GBase, Odbc, OceanBaseForOracle, TDengine, GaussDB, OceanBase, Tidb, Vastbase, PolarDB, Custom
DBConnection.DbType
// Connection string, need to use the corresponding string according to the different DB types
DBConnection.ConnectionStrings
//The type of vector storage, supporting Postgres, Disk, Memory, Qdrant, Redis, AzureAISearch
//Postgres and Redis require ConnectionString configuration
//The ConnectionString of Qdrant and AzureAISearch uses Endpoint | APIKey
KernelMemory.VectorDb
//Local model path, used for quick selection of models under llama, as well as saving downloaded models.
FileDir.DirectoryPath
//Default admin account password
Login
//Import asynchronous processing thread count. A higher count can be used for online API, but for local models, 1 is recommended to avoid memory overflow issues.
BackgroundTaskBroker.ImportKMSTask.WorkerCount
在ANTSK/SRC/ANTSK中运行以下内容:
dotnet clean
dotnet build
dotnet publish "AntSK.csproj"
然后导航到antsk/src/antsk/bin/repares/net8.0/发布和运行:
dotnet AntSK.dll
现在应在开始后应用样式。
我正在为数据库使用CodeFirst模式,因此,只要正确配置了数据库连接,就将自动创建表结构。
1. First, ensure that Python and pip are installed in your environment. This step is not necessary if using an image, such as version v0.2.3.2, which already includes the complete Python environment.
2. Go to the model add page and select llamafactory.
3. Click "Initialize" to check whether the 'pip install' environment setup is complete.
4. Choose a model that you like.
5. Click "Start" to begin downloading the model from the tower. This may involve a somewhat lengthy wait.
6. After the model has finished downloading, enter http://localhost:8000/ in the request address. The default port is 8000.
7. Click "Save" and start chatting.
8. Many people ask about the difference between LLamaSharp and llamafactory. In fact, LLamaSharp is a .NET implementation of llama.cpp, but only supports local gguf models, while llamafactory supports a wider variety of models and uses Python implementation. The main difference lies here. Additionally, llamafactory has the ability to fine-tune models, which is an area we will focus on integrating in the future.
由于所有贡献的人,该项目的存在。
该仓库遵循ANTSK许可证开源协议。
该项目遵循Apache 2.0协议,除了以下其他条款
该项目可用于商业目的,但如果违反以下规定,它有权禁止您使用它
未经授权,不允许您修改Antsk的徽标和标题信息
未经授权,您不允许您修改页面底部的版权信息
如果您需要授权,则可以联系微信: Xuzeyu91
如果您打算在商业项目中使用ANTSK,则需要确保遵循以下步骤:
包含ANTSK许可证的版权声明。蚂蚁许可证。
如果修改软件源代码,则需要在源代码中清楚地指出这些修改。
满足上述要求
帮助企业AI应用程序开发,我们建议安蓝氮
如果您有任何疑问或建议,请通过我的官方微信帐户与我联系。我们还有一个讨论小组,您可以在其中发送消息加入,然后我将您添加到该组中。
此外,您也可以通过电子邮件与我联系:[email protected]

我们感谢您对Antsk的兴趣,并期待与您合作创造聪明的未来!