简体中文 | Inglês
Kernel semântico : utiliza a tecnologia avançada de processamento de linguagem natural para entender, processar e responder com precisão e responder a consultas semânticas complexas, fornecendo aos usuários serviços precisos de recuperação de informações e recomendação.
Memória do kernel : capaz de aprender e armazenar pontos de conhecimento contínuos, o Antsk tem função de memória de longo prazo, acumula a experiência e fornece uma experiência de interação mais personalizada.
Base de conhecimento : Base de conhecimento de importação através de documentos (Word, PDF, Excel, TXT, Markdown, JSON, PPT) e Perguntas e Respostas da Base de Conhecimento.
Geração GPT : Esta plataforma suporta a criação de modelos GPT personalizados, permitindo que os usuários construam seus próprios modelos GPT.
Publicação da interface da API : expõe as funções internas na forma de APIs, permitindo que os desenvolvedores integrem a ANTSK em outros aplicativos e aprimorem a inteligência de aplicativos.
Sistema de plug-in de API : o sistema de plug-in de API aberto que permite que desenvolvedores de terceiros ou provedores de serviços integrem facilmente seus serviços ao ANTSK, aprimorando continuamente a funcionalidade do aplicativo.
Sistema de plug-in .NET : Open DLL Plugin System que permite que desenvolvedores de terceiros ou provedores de serviços integrem facilmente suas funções de negócios gerando DLL no código de formato padrão, aumentando continuamente a funcionalidade do aplicativo.
Pesquisa on-line : Antsk, acesso em tempo real às informações mais recentes, garantindo que os usuários recebam os dados mais oportunos e relevantes.
Gerenciamento do modelo : adapta e gerencia a integração de diferentes modelos de diferentes fabricantes, incluindo tipos de GGUF suportados pelo llama.cpp e modelos offline em execução suportados pela LLamaFactory e Ollama .
Inovação doméstica : a ANTSK suporta modelos e bancos de dados domésticos e pode ser executado em condições de inovação doméstica.
Modelo Tuneamento fino : planejado com base na llamafactory para ajuste fino do modelo.
Antsk é adequado para vários cenários de negócios, como:
documento
Demo e demonstração1
Default account: test
Default password: test
Due to the low configuration of the cloud server, the local model cannot be run, so the system settings permissions have been closed. You can simply view the interface. If you want to use the local model, please download and use it on your own.
Demonstração de vídeo
Aqui estou usando o Postgres como armazenamento de dados e vetor, porque o kernel semântico e a memória do kernel o suportam, mas você também pode usar outras opções.
Por padrão, o modelo suporta o modelo local do Openai, Azure Openai e Llama. Se você precisar usar outros modelos, poderá integrá-los usando um-API.
A configuração de login no arquivo de configuração é a conta de login padrão e a senha.
O seguinte arquivo de configuração precisa ser configurado
Forneceu a versão PG AppSsettings.json e a versão simplificada (SQLITE+DISC) Docker-compose.simple.yml
Faça o download do Docker-compose.yml no diretório raiz do projeto e coloque o arquivo de configuração appSsettings.json no mesmo diretório.
A imagem PG já foi preparada. Você pode modificar o nome de usuário e a senha padrão no Docker-comppose.yml e, em seguida, a conexão do banco de dados em seu appSsets.json precisa ser consistente.
Então você pode executar o seguinte comando no diretório para iniciar o Antsk
docker-compose up -d
# Non-host version, do not use local proxy
version: '3.8'
services:
antsk:
container_name: antsk
image: registry.cn-hangzhou.aliyuncs.com/AIDotNet/antsk:v0.5.0
ports:
- 5000:5000
networks:
- antsk
depends_on:
- antskpg
restart: always
environment:
- ASPNETCORE_URLS=http://*:5000
volumes:
- ./appsettings.json:/app/appsettings.json # Local configuration file needs to be placed in the same directory
- D://model:/app/model
networks:
antsk:
Tomando isso como exemplo, significa montar a pasta D: // de modelo local do Windows no contêiner/aplicativo/modelo. Nesse caso, o endereço do modelo em seu appSettings.json deve ser configurado como
LitedockerCompose
A versão compacta é implantada com sqlite-Disk por um clique
FulldockerCompose
A versão completa usa PG+Aspire
{
"DBConnection": {
"DbType": "Sqlite",
"ConnectionStrings": "Data Source=AntSK.db;"
},
"KernelMemory": {
"VectorDb": "Disk",
"ConnectionString": "Host=;Port=;Database=antsk;Username=;Password=",
"TableNamePrefix": "km-"
},
"FileDir": {
"DirectoryPath": "D:\git\AntBlazor\model"
},
"Login": {
"User": "admin",
"Password": "xuzeyu"
},
"BackgroundTaskBroker": {
"ImportKMSTask": {
"WorkerCount": 1
}
}
}
// Supports various databases, you can check SqlSugar, MySql, SqlServer, Sqlite, Oracle, PostgreSQL, Dm, Kdbndp, Oscar, MySqlConnector, Access, OpenGauss, QuestDB, HG, ClickHouse, GBase, Odbc, OceanBaseForOracle, TDengine, GaussDB, OceanBase, Tidb, Vastbase, PolarDB, Custom
DBConnection.DbType
// Connection string, need to use the corresponding string according to the different DB types
DBConnection.ConnectionStrings
//The type of vector storage, supporting Postgres, Disk, Memory, Qdrant, Redis, AzureAISearch
//Postgres and Redis require ConnectionString configuration
//The ConnectionString of Qdrant and AzureAISearch uses Endpoint | APIKey
KernelMemory.VectorDb
//Local model path, used for quick selection of models under llama, as well as saving downloaded models.
FileDir.DirectoryPath
//Default admin account password
Login
//Import asynchronous processing thread count. A higher count can be used for online API, but for local models, 1 is recommended to avoid memory overflow issues.
BackgroundTaskBroker.ImportKMSTask.WorkerCount
Execute o seguinte em Antsk/SRC/Antsk:
dotnet clean
dotnet build
dotnet publish "AntSK.csproj"
Em seguida, navegue para ANTSK/SRC/ANTSK/BIN/RELEREW/NET8.0/Publicar e Run:
dotnet AntSK.dll
Os estilos agora devem ser aplicados após o início.
Estou usando o modo Codefirst para o banco de dados, portanto, desde que a conexão do banco de dados seja configurada corretamente, a estrutura da tabela será criada automaticamente.
1. First, ensure that Python and pip are installed in your environment. This step is not necessary if using an image, such as version v0.2.3.2, which already includes the complete Python environment.
2. Go to the model add page and select llamafactory.
3. Click "Initialize" to check whether the 'pip install' environment setup is complete.
4. Choose a model that you like.
5. Click "Start" to begin downloading the model from the tower. This may involve a somewhat lengthy wait.
6. After the model has finished downloading, enter http://localhost:8000/ in the request address. The default port is 8000.
7. Click "Save" and start chatting.
8. Many people ask about the difference between LLamaSharp and llamafactory. In fact, LLamaSharp is a .NET implementation of llama.cpp, but only supports local gguf models, while llamafactory supports a wider variety of models and uses Python implementation. The main difference lies here. Additionally, llamafactory has the ability to fine-tune models, which is an area we will focus on integrating in the future.
Este projeto existe graças a todas as pessoas que contribuem.
Este armazém segue o protocolo de código aberto da Licença Antsk.
Este projeto segue o Contrato Apache 2.0, além dos seguintes termos adicionais
Este projeto pode ser usado para fins comerciais, mas tem o direito de proibi -lo de usá -lo se violar as seguintes disposições
Sem autorização, você não tem permissão para modificar as informações do logotipo e do título de Antsk
Sem autorização, você não tem permissão para modificar as informações de direitos autorais na parte inferior da página
Se você precisar de autorização, entre em contato com o WeChat: xuzeyu91
Se você planeja usar a ANTSK em projetos comerciais, precisa garantir que siga as seguintes etapas:
Declaração de direitos autorais contendo licença Antsk. Licença Antsk.
Se você modificar o código -fonte do software, precisará indicar claramente essas modificações no código -fonte.
Atender aos requisitos acima
Ajudando o desenvolvimento de aplicativos da IA Enterprise, recomendamos o Antblazor
Se você tiver alguma dúvida ou sugestão, entre em contato comigo através da minha conta oficial do WeChat. Também temos um grupo de discussão onde você pode enviar uma mensagem para participar e, em seguida, adicionarei você ao grupo.
Além disso, você também pode entrar em contato comigo por e -mail: [email protected]

Agradecemos seu interesse em Antsk e esperamos colaborar com você para criar um futuro inteligente!