简体中文 | Englisch
Semantischer Kernel : Verwendet fortschrittliche Technologie für natürliche Sprachverarbeitung, um komplexe semantische Abfragen genau zu verstehen, zu verarbeiten und zu reagieren, wodurch Benutzer präzise Informationsabruf- und Empfehlungsdienste bereitgestellt werden.
Kernel-Gedächtnis : AntSK kann kontinuierliches Lernen und Speichern von Wissenspunkten in der Lage sein, eine langfristige Erinnerungsfunktion, sammelt Erfahrung und bietet eine personalisiertere Interaktionserfahrung.
Wissensbasis : Wissensbasis durch Dokumente (Word, PDF, Excel, TXT, Markdown, JSON, PPT) importieren und Wissensbasis -Q & A durchführen.
GPT -Generation : Diese Plattform unterstützt das Erstellen personalisierter GPT -Modelle und ermöglicht es Benutzern, ihre eigenen GPT -Modelle zu erstellen.
API -Schnittstelle Publishing : Enthält interne Funktionen in Form von APIs, sodass Entwickler AntSK in andere Anwendungen integrieren und die Anwendungsintelligenz verbessern können.
API-Plugin-System : Öffnen Sie das API-Plugin-System, mit dem Entwickler oder Dienstleister von Drittanbietern ihre Dienste einfach in AntSK integrieren und die Anwendungsfunktionen kontinuierlich verbessern können.
NET-Plugin-System : Öffnen Sie das DLL-Plugin-System, mit dem Entwickler oder Dienstleister von Drittanbietern ihre Geschäftsfunktionen einfach integrieren können, indem DLL in Standardformatcode generiert und die Anwendungsfunktionen kontinuierlich verbessert werden.
Online-Suche : Antsk, Echtzeitzugriff auf die neuesten Informationen, um sicherzustellen, dass Benutzer die aktuellsten und relevantesten Daten erhalten.
Modellmanagement : Anpasst und verwaltet die Integration verschiedener Modelle verschiedener Hersteller, einschließlich GGUF -Typen, die von LLAMA.CPP und Modellen Offline -Laufen von Lamafactory und Ollama unterstützt werden.
Inländische Innovation : AntSK unterstützt inländische Modelle und Datenbanken und kann unter inländischen Innovationsbedingungen ausgeführt werden.
Modell Feinabstimmung : Geplant auf Lamafactory für die Feinabstimmung für Modell.
Antsk ist für verschiedene Geschäftsszenarien geeignet, wie zum Beispiel:
dokumentieren
Demo und Demo1
Default account: test
Default password: test
Due to the low configuration of the cloud server, the local model cannot be run, so the system settings permissions have been closed. You can simply view the interface. If you want to use the local model, please download and use it on your own.
Videodemonstration
Hier verwende ich Postgres als Daten- und Vektorspeicher, da der semantische Kernel und der Kernel -Speicher sie unterstützen, aber Sie können auch andere Optionen verwenden.
Das Modell stand standardmäßig unterstützt das lokale Modell von OpenAI, Azure Openai und Lama. Wenn Sie andere Modelle verwenden müssen, können Sie sie mit One-API integrieren.
Die Anmeldekonfiguration in der Konfigurationsdatei ist das Standard -Anmeldekonto und das Standardkennwort.
Die folgende Konfigurationsdatei muss konfiguriert werden
Bereitstellung der PG-Version AppSettings.json und die vereinfachte Version (SQLite+Disk) docker-compose.simple.yml
Laden Sie docker-compose.yml aus dem Projektroot-Verzeichnis herunter und platzieren Sie die Konfigurationsdatei AppSettings.json im selben Verzeichnis.
Das PG -Bild wurde bereits vorbereitet. Sie können den Standard-Benutzernamen und das Standardkennwort in docker-compose.yml ändern, und dann muss die Datenbankverbindung in Ihrer AppStings.json konsistent sein.
Dann können Sie den folgenden Befehl im Verzeichnis ausführen, um Antsk zu starten
docker-compose up -d
# Non-host version, do not use local proxy
version: '3.8'
services:
antsk:
container_name: antsk
image: registry.cn-hangzhou.aliyuncs.com/AIDotNet/antsk:v0.5.0
ports:
- 5000:5000
networks:
- antsk
depends_on:
- antskpg
restart: always
environment:
- ASPNETCORE_URLS=http://*:5000
volumes:
- ./appsettings.json:/app/appsettings.json # Local configuration file needs to be placed in the same directory
- D://model:/app/model
networks:
antsk:
Wenn Sie dies als Beispiel einnehmen, bedeutet dies, den lokalen D: // -Modellordner von Windows in den Container/die App/das Modell zu montieren. In diesem Fall sollte die Modelladresse in Ihren Appsettings.json als konfiguriert werden
LitedockerComponpose
Die kompakte Version wird mit SQLite-Disk von einem Klick bereitgestellt
FulldockerComponpose
Die Vollversion verwendet PG+Aspire
{
"DBConnection": {
"DbType": "Sqlite",
"ConnectionStrings": "Data Source=AntSK.db;"
},
"KernelMemory": {
"VectorDb": "Disk",
"ConnectionString": "Host=;Port=;Database=antsk;Username=;Password=",
"TableNamePrefix": "km-"
},
"FileDir": {
"DirectoryPath": "D:\git\AntBlazor\model"
},
"Login": {
"User": "admin",
"Password": "xuzeyu"
},
"BackgroundTaskBroker": {
"ImportKMSTask": {
"WorkerCount": 1
}
}
}
// Supports various databases, you can check SqlSugar, MySql, SqlServer, Sqlite, Oracle, PostgreSQL, Dm, Kdbndp, Oscar, MySqlConnector, Access, OpenGauss, QuestDB, HG, ClickHouse, GBase, Odbc, OceanBaseForOracle, TDengine, GaussDB, OceanBase, Tidb, Vastbase, PolarDB, Custom
DBConnection.DbType
// Connection string, need to use the corresponding string according to the different DB types
DBConnection.ConnectionStrings
//The type of vector storage, supporting Postgres, Disk, Memory, Qdrant, Redis, AzureAISearch
//Postgres and Redis require ConnectionString configuration
//The ConnectionString of Qdrant and AzureAISearch uses Endpoint | APIKey
KernelMemory.VectorDb
//Local model path, used for quick selection of models under llama, as well as saving downloaded models.
FileDir.DirectoryPath
//Default admin account password
Login
//Import asynchronous processing thread count. A higher count can be used for online API, but for local models, 1 is recommended to avoid memory overflow issues.
BackgroundTaskBroker.ImportKMSTask.WorkerCount
Führen Sie Folgendes in AntSK/SRC/AntSK aus:
dotnet clean
dotnet build
dotnet publish "AntSK.csproj"
Navigieren Sie dann zu AntSK/SRC/AntSK/bin/Release/Net8.0/Veröffentlichen und Ausführen:
dotnet AntSK.dll
Die Stile sollten jetzt nach dem Start angewendet werden.
Ich verwende den Codefirst -Modus für die Datenbank. Solange die Datenbankverbindung ordnungsgemäß konfiguriert ist, wird die Tabellenstruktur automatisch erstellt.
1. First, ensure that Python and pip are installed in your environment. This step is not necessary if using an image, such as version v0.2.3.2, which already includes the complete Python environment.
2. Go to the model add page and select llamafactory.
3. Click "Initialize" to check whether the 'pip install' environment setup is complete.
4. Choose a model that you like.
5. Click "Start" to begin downloading the model from the tower. This may involve a somewhat lengthy wait.
6. After the model has finished downloading, enter http://localhost:8000/ in the request address. The default port is 8000.
7. Click "Save" and start chatting.
8. Many people ask about the difference between LLamaSharp and llamafactory. In fact, LLamaSharp is a .NET implementation of llama.cpp, but only supports local gguf models, while llamafactory supports a wider variety of models and uses Python implementation. The main difference lies here. Additionally, llamafactory has the ability to fine-tune models, which is an area we will focus on integrating in the future.
Dieses Projekt besteht dank aller Menschen, die einen Beitrag leisten.
Dieses Lagerhaus folgt dem Open -Source -Protokoll der AntSK -Lizenz.
Dieses Projekt folgt der Apache 2.0 -Vereinbarung zusätzlich zu den folgenden zusätzlichen Bestimmungen
Dieses Projekt kann für kommerzielle Zwecke verwendet werden, hat jedoch das Recht, Sie zu verbieten, es zu verwenden, wenn es gegen die folgenden Bestimmungen verstößt
Ohne Genehmigung dürfen Sie das Logo und die Titelinformationen von Antsk nicht ändern
Ohne Genehmigung dürfen Sie die Copyright -Informationen am Ende der Seite nicht ändern
Wenn Sie eine Autorisierung benötigen, können Sie WeChat: Xuzeyu91 wenden
Wenn Sie vorhaben, Antsk in kommerziellen Projekten zu verwenden, müssen Sie sicherstellen, dass Sie die folgenden Schritte ausführen:
Copyright -Erklärung mit Antsk -Lizenz. Antsk -Lizenz.
Wenn Sie den Software -Quellcode ändern, müssen Sie diese Änderungen im Quellcode klar angeben.
Erfüllen Sie die oben genannten Anforderungen
Bei der Entwicklung von Enterprise AI -Anwendungsentwicklung empfehlen wir Antblazor
Wenn Sie Fragen oder Vorschläge haben, kontaktieren Sie mich bitte über mein offizielles WeChat -Konto. Wir haben auch eine Diskussionsgruppe, in der Sie eine Nachricht zum Beitritt senden können, und dann werde ich Sie der Gruppe hinzufügen.
Darüber hinaus können Sie mich auch per E -Mail kontaktieren: [email protected]

Wir schätzen Ihr Interesse an Antsk und freuen uns darauf, mit Ihnen zusammenzuarbeiten, um eine intelligente Zukunft zu schaffen!