简体中文|英語
セマンティックカーネル:高度な自然言語処理テクノロジーを利用して、複雑なセマンティッククエリを正確に理解、処理、および応答し、ユーザーに正確な情報検索および推奨サービスを提供します。
カーネルメモリ:継続的な学習と知識ポイントの保存が可能であるAntskは、長期的なメモリ機能を持ち、経験を蓄積し、よりパーソナライズされた相互作用体験を提供します。
ナレッジベース:ドキュメント(Word、PDF、Excel、TXT、Markdown、JSON、PPT)を介して知識ベースをインポートし、知識ベースQ&Aを実行します。
GPT生成:このプラットフォームは、パーソナライズされたGPTモデルの作成をサポートし、ユーザーが独自のGPTモデルを構築できるようにします。
API Interface Publishing :APIの形で内部関数を公開し、開発者がANTSKを他のアプリケーションに統合し、アプリケーションインテリジェンスを強化できるようにします。
APIプラグインシステム:サードパーティの開発者またはサービスプロバイダーがサービスをANTSKに簡単に統合できるようにするAPIプラグインシステムを開き、アプリケーション機能を継続的に強化します。
.NETプラグインシステム:標準形式コードでDLLを生成してアプリケーション機能を継続的に強化することにより、サードパーティの開発者またはサービスプロバイダーがビジネス機能を簡単に統合できるようにするDLLプラグインシステムを開きます。
オンライン検索:ANTSK、最新情報へのリアルタイムアクセス、ユーザーが最もタイムリーで関連するデータを確実に受信するようにします。
モデル管理: llama.cppでサポートされているGGUFタイプやLlamaFactoryとOllamaがサポートするオフラインランニングを含む、さまざまなメーカーのさまざまなモデルの統合を適応および管理します。
国内のイノベーション:ANTSKは国内モデルとデータベースをサポートし、国内のイノベーション条件の下で実行できます。
モデルの微調整:モデル微調整のためのllamaFactoryに基づいて計画されています。
ANTSKは、次のようなさまざまなビジネスシナリオに適しています。
書類
デモとデモ1
Default account: test
Default password: test
Due to the low configuration of the cloud server, the local model cannot be run, so the system settings permissions have been closed. You can simply view the interface. If you want to use the local model, please download and use it on your own.
ビデオデモンストレーション
ここでは、セマンティックカーネルとカーネルメモリがサポートするため、データとベクトルストレージとしてPostgresを使用していますが、他のオプションも使用できます。
このモデルは、デフォルトでは、Openai、Azure Openai、およびLlamaのローカルモデルをサポートしています。他のモデルを使用する必要がある場合は、One-APIを使用してそれらを統合できます。
構成ファイルのログイン構成は、デフォルトのログインアカウントとパスワードです。
次の構成ファイルを構成する必要があります
PGバージョンAppSettings.jsonとSimplifiedバージョン(sqlite+disk) docker-compose.simple.ymlを提供しました
Project Root Directoryからdocker-compose.ymlをダウンロードし、構成ファイルappsettings.jsonを同じディレクトリに配置します。
PG画像はすでに準備されています。 docker-compose.ymlでデフォルトのユーザー名とパスワードを変更すると、 appsettings.jsonのデータベース接続を一貫させる必要があります。
次に、ディレクトリ内の次のコマンドを実行してANTSKを開始できます
docker-compose up -d
# Non-host version, do not use local proxy
version: '3.8'
services:
antsk:
container_name: antsk
image: registry.cn-hangzhou.aliyuncs.com/AIDotNet/antsk:v0.5.0
ports:
- 5000:5000
networks:
- antsk
depends_on:
- antskpg
restart: always
environment:
- ASPNETCORE_URLS=http://*:5000
volumes:
- ./appsettings.json:/app/appsettings.json # Local configuration file needs to be placed in the same directory
- D://model:/app/model
networks:
antsk:
これを例にとると、WindowsのローカルD://モデルフォルダーをコンテナ/APP/モデルにマウントすることを意味します。その場合、appsettings.jsonのモデルアドレスは、
litedockercompose
コンパクトバージョンは、ワンクリックでsqlite-diskで展開されます
fulldockercompose
フルバージョンでは、PG+Aspireを使用します
{
"DBConnection": {
"DbType": "Sqlite",
"ConnectionStrings": "Data Source=AntSK.db;"
},
"KernelMemory": {
"VectorDb": "Disk",
"ConnectionString": "Host=;Port=;Database=antsk;Username=;Password=",
"TableNamePrefix": "km-"
},
"FileDir": {
"DirectoryPath": "D:\git\AntBlazor\model"
},
"Login": {
"User": "admin",
"Password": "xuzeyu"
},
"BackgroundTaskBroker": {
"ImportKMSTask": {
"WorkerCount": 1
}
}
}
// Supports various databases, you can check SqlSugar, MySql, SqlServer, Sqlite, Oracle, PostgreSQL, Dm, Kdbndp, Oscar, MySqlConnector, Access, OpenGauss, QuestDB, HG, ClickHouse, GBase, Odbc, OceanBaseForOracle, TDengine, GaussDB, OceanBase, Tidb, Vastbase, PolarDB, Custom
DBConnection.DbType
// Connection string, need to use the corresponding string according to the different DB types
DBConnection.ConnectionStrings
//The type of vector storage, supporting Postgres, Disk, Memory, Qdrant, Redis, AzureAISearch
//Postgres and Redis require ConnectionString configuration
//The ConnectionString of Qdrant and AzureAISearch uses Endpoint | APIKey
KernelMemory.VectorDb
//Local model path, used for quick selection of models under llama, as well as saving downloaded models.
FileDir.DirectoryPath
//Default admin account password
Login
//Import asynchronous processing thread count. A higher count can be used for online API, but for local models, 1 is recommended to avoid memory overflow issues.
BackgroundTaskBroker.ImportKMSTask.WorkerCount
ANTSK/SRC/ANTSKで以下を実行します。
dotnet clean
dotnet build
dotnet publish "AntSK.csproj"
次に、ANTSK/SRC/ANTSK/BIN/RELEASE/NET8.0/公開して実行して実行します。
dotnet AntSK.dll
スタイルは、開始後に適用する必要があります。
データベースにCodeFirstモードを使用しているため、データベース接続が適切に構成されている限り、テーブル構造が自動的に作成されます。
1. First, ensure that Python and pip are installed in your environment. This step is not necessary if using an image, such as version v0.2.3.2, which already includes the complete Python environment.
2. Go to the model add page and select llamafactory.
3. Click "Initialize" to check whether the 'pip install' environment setup is complete.
4. Choose a model that you like.
5. Click "Start" to begin downloading the model from the tower. This may involve a somewhat lengthy wait.
6. After the model has finished downloading, enter http://localhost:8000/ in the request address. The default port is 8000.
7. Click "Save" and start chatting.
8. Many people ask about the difference between LLamaSharp and llamafactory. In fact, LLamaSharp is a .NET implementation of llama.cpp, but only supports local gguf models, while llamafactory supports a wider variety of models and uses Python implementation. The main difference lies here. Additionally, llamafactory has the ability to fine-tune models, which is an area we will focus on integrating in the future.
このプロジェクトは、貢献するすべての人々のおかげで存在します。
この倉庫は、ANTSKライセンスオープンソースプロトコルに従います。
このプロジェクトは、以下の追加条件に加えて、Apache 2.0契約に続きます
このプロジェクトは商業目的で使用できますが、以下の規定に違反している場合、使用することを禁止する権利があります
許可がなければ、Antskのロゴとタイトル情報を変更することは許可されていません
許可がなければ、ページの下部にある著作権情報を変更することは許可されていません
承認が必要な場合は、WeChat: Xuzeyu91に連絡できます
商業プロジェクトでANTSKを使用する予定がある場合は、次の手順に従うことを確認する必要があります。
ANTSKライセンスを含む著作権ステートメント。 Antskライセンス。
ソフトウェアソースコードを変更する場合、ソースコードでこれらの変更を明確に示す必要があります。
上記の要件を満たしてください
エンタープライズAIアプリケーション開発を支援すると、Antblazorをお勧めします
ご質問や提案がある場合は、公式のWeChatアカウントからご連絡ください。また、参加するメッセージを送信できるディスカッショングループもあります。その後、グループに追加します。
さらに、電子メールで私に連絡することもできます:[email protected]

Antskへのあなたの興味に感謝し、あなたと協力してインテリジェントな未来を創造することを楽しみにしています!