GNU/Linux-Ai-Voice-Assistantは、さまざまなオープンソースツールを利用して、LLMS、さまざまなサービス、機能とシームレスな相互作用を提供する多用途の端子ベースのインターフェイスです。アシスタントの主なコンポーネントは次のとおりです。
Glavaはチューリングテストに合格するための単なるツールではなく、ダイナミックコマンドラインアシスタントであり、多数のタスクとクエリを支援する準備ができています。その中心には、大規模な言語モデル(LLMS)の力があります。これは、利用されるのを待っている知識の海です。
情報を取得するための単なるツールではありません。それは仲間であり、幅広いタスクを支援する準備ができており、コマンドラインエクスペリエンスをより楽しく効率的にします。
マルチモーダルの相互作用により、テキストまたは音声形式で対話できます。さまざまなソースから情報を引き出したり、シェルコマンド、画像を生成したり、Webを閲覧したりできます。それはあなたのすべての情報とエンターテイメントのニーズのためのあなたの頼りになるアシスタントです。
GlavaはLLMSの力を活用して、幅広い機能を提供します。 KeystrokesやVoiceを使用してやり取りすることを好むかどうかにかかわらず、Glavaには背中があります。テキスト形式と音声形式の両方で応答し、シームレスなインタラクションを確保します。
Glavaを使用すると、音声を使用してコマンドを指示するか、入力することができます。
音声認識のために、私たちは無料のVoskを使用します。音声認識のための軽量で効率的でオープンソースツールキット。 VoskはREST WebSocketとして実行され、正確でリアルタイムの転写を確保します。
あなたの耳が満足するためには、グラバは単なる話者ではなく、テキストへのマスター(TTS)です。 Piperを使用します。Piperは、HTTP WebSocketsで使用できる強力なツールであり、テキストがカールして音声を得るか、Piperバイナリを使用して使用できます。
ここで音声サンプルを聞いてください
Glavaは、非常に正確で、config。(vosk-apiを使用)として機能するpythonスクリプトで簡単にカスタマイズできるオタクの口述を使用して、テキストのタイピングにスピーチを行うことができます。
このプロジェクトが「書き込み」、「書き込み」コマンドを有効にするためのコマンドを有効にするためのコマンドを使用する構成を次に示します。
ユーザーは、Wolfram Alpha APIを使用した情報と計算を照会できます。
GlavaはNewsapiとGoogle Newsからのニュースを照会し、結果をテキストと音声形式の両方で取得し、学習と維持を楽しい旅に出すことができます。
Glavaは、情報検索のための単なるツールではありません。シェルコマンドを生成して実行することができ、コマンドを簡単に編集、中止、実行できます。それはパーソナルアシスタントを持っているようなもので、それ以外の場合は時間と労力がかかる可能性のあるタスクであなたを助ける準備ができています。
GlavaはさまざまなWebサイトにWebブラウザを開くことができ、ブラウジングの経験を簡単にすることができます。さまざまなWebサイトやWikipediaが情報を検索し、必要なときに必要な情報を提供できます。
YouTube、Github、Wikipedia、Amazon、Redditなどのお気に入りのWebサイトを閲覧するか、Duckduckgoをデフォルトの検索エンジンとしてカスタム検索パラメーターで使用します。
Glavaは、YT-DLP、MPD、およびMPVを使用して、YouTubeソースからあらゆる曲やビデオを再生できます。オーディオ形式とビデオ形式の両方で再生でき、個人のプレイリスト作成者になります。
Glavaは、IMDBからの映画に関する情報を照会し、プロット、キャスト、評価など、映画に関する豊富な情報を提供できます。
Glavaは、https://pollinations.ai/の無料サービスを使用して、テキストで画像を生成するのに役立ちます
開始する前に、次の要件を満たしていることを確認してください。
これらの手順に従って、プロジェクトをインストールしてセットアップします。
リポジトリをクローンします:
git clone https://github.com/akhil3417/glava
プロジェクトディレクトリに移動します。
cd glava
インストールスクリプトを実行します。
chmod +x installer.sh
./installer.sh
インストーラースクリプトは、Vosk-Model-Small-en-US-0.15(Voice_Recognition)およびEN_US-HFC_FEMALE-MEDIUM(TTS)モデルのみをインストールします。追加のモデルを追加するには、piper、voskからそれらをダウンロードし、それらを./extensions/piper/models/または./extensions/voskディレクトリに抽出します。
PiperのPiper TTSの音声サンプルを聴くことができ、それに応じて優先モデルをダウンロードできます。
shellgptのインストールが表示されない場合は、shellgptが稼働していることを確認してください。
次のコマンドでプロジェクトを開始できます。
./start.sh
or
. .env/bin/activate
python3 main.py
すべてのユーザークエリは、Commands DictionaryのKeysと一致します。それが存在する場合、対応する関数が実行されます。
詳細については、main.pyのコマンドdictを参照してください。
これで、音声コマンドまたはキーストロークを使用してプロジェクトと対話できるようになりました。
ユーザーは、ニーズ(アシスタント名、APIKeysなど)に従ってconfig.iniを編集できます。
このプロジェクトに貢献したい場合は、次のガイドラインを遵守してください。
git checkout -b feature/AmazingFeature 。git commit -m 'Add some AmazingFeature' 。git push origin feature/AmazingFeature 。このプロジェクトは早期に開発されているため、バグが予想され、将来修正されます。
ここに、Voskに基づいたいくつかのツールがあります。
このプロジェクトは、MITライセンスの下でライセンスされています。詳細については、リポジトリのlicense.mdファイルを参照してください。
お問い合わせや提案については、[すぐに追加]でプロジェクトメンテナーにお気軽にご連絡ください。私はあなたのニーズをあなたに助けてくれてうれしいです。