GNU/Linux-ai-Voice-Assistant adalah antarmuka berbasis terminal serbaguna yang memanfaatkan berbagai alat open source, menawarkan interaksi yang mulus dengan LLMS, berbagai layanan dan fitur. Komponen utama asisten adalah:
Glava bukan hanya alat untuk lulus tes Turing, ini adalah asisten baris perintah yang dinamis, siap membantu Anda dengan banyak tugas dan pertanyaan. Pada intinya terletak kekuatan model bahasa besar (LLM), lautan pengetahuan yang menunggu untuk dimanfaatkan.
Ini bukan hanya alat untuk pengambilan informasi. Ini adalah teman, siap membantu Anda dengan beragam tugas, membuat pengalaman baris perintah Anda lebih menyenangkan dan efisien.
Dengan interaksi multimodalnya, ia dapat berinteraksi dengan Anda dalam format teks atau suara. Ini dapat menarik informasi dari berbagai sumber, menghasilkan perintah shell, gambar, dan bahkan menelusuri web. Ini adalah asisten tujuan Anda untuk semua kebutuhan informasi dan hiburan Anda.
Glava memanfaatkan kekuatan LLM untuk memberikan beragam fungsi. Apakah Anda lebih suka berinteraksi dengan itu menggunakan penekanan tombol atau suara, Glava mendukung Anda. Ini merespons dalam format teks dan suara, memastikan interaksi yang mulus.
Glava memungkinkan Anda untuk mendikte perintah Anda menggunakan suara, atau mengetiknya.
Untuk pengenalan suara, kami menggunakan Vosk, gratis. Perangkat ringan, efisien, dan open-source untuk pengenalan ucapan. Vosk berjalan sebagai Websocket REST, memastikan transkripsi yang akurat dan real-time.
Agar telinga Anda puas, Glava bukan hanya seorang pembicara, itu adalah penguasa teks-ke-pidato (TTS). Ini menggunakan Piper, alat yang ampuh yang dapat digunakan dengan http websockets, di mana teks dikeriting untuk mendapatkan suara, atau dengan menggunakan biner piper.
Dengarkan sampel suara di sini
Glava dapat melakukan ucapan untuk mengetik teks, menggunakan dikte nerd yang sangat akurat dan dapat dengan mudah disesuaikan dengan skrip python yang bertindak sebagai konfigurasi. (Menggunakan vosk-api)
Berikut adalah konfigurasi yang digunakan proyek ini yang memungkinkan, "mulai menulis", "berhenti menulis" perintah untuk mengaktifkan/menonaktifkan dikte suara, bersama dengan beberapa tanda baca, kapitalisasi kata dll.
Pengguna dapat meminta informasi dan perhitungan menggunakan Wolfram Alpha API.
Glava dapat meminta berita dari Newsapi dan Google News, dan mendapatkan hasil dalam format teks dan suara, membuat pembelajaran dan tetap diperbarui dalam perjalanan yang menyenangkan.
Glava bukan hanya alat untuk pengambilan informasi. Ini dapat menghasilkan perintah shell dan menjalankannya, memungkinkan Anda untuk mengedit, membatalkan, dan menjalankan perintah dengan mudah. Ini seperti memiliki asisten pribadi, siap membantu Anda dengan tugas yang mungkin membutuhkan waktu dan usaha.
Glava dapat membuka browser web ke berbagai situs web, membuat pengalaman menjelajah Anda menjadi mudah. Ini dapat mencari berbagai situs web dan wikipedia untuk informasi, memberi Anda informasi yang Anda butuhkan, saat Anda membutuhkannya.
Jelajahi situs web favorit Anda seperti YouTube, GitHub, Wikipedia, Amazon, dan Reddit, atau menggunakan DuckDuckgo dengan parameter pencarian khusus sebagai mesin pencari default.
Glava dapat memutar lagu atau video apa pun dari sumber YouTube, menggunakan YT-DLP, MPD, dan MPV. Ini dapat memainkannya dalam format audio dan video, menjadikannya pencipta daftar putar pribadi Anda.
Glava dapat menanyakan informasi tentang film apa pun dari IMDB, memberi Anda banyak informasi tentang film tersebut, termasuk plot, pemeran, dan peringkatnya.
Glava dapat membantu Anda menghasilkan gambar dengan teks dengan menggunakan layanan gratis https://pollinations.ai/
Sebelum Anda mulai, pastikan Anda telah memenuhi persyaratan berikut:
Ikuti langkah -langkah ini untuk menginstal dan mengatur proyek:
Klon Repositori:
git clone https://github.com/akhil3417/glava
Arahkan ke Direktori Proyek:
cd glava
Jalankan skrip instalasi:
chmod +x installer.sh
./installer.sh
Catatan, skrip installer hanya menginstal vosk-model-small-en-us-0.15 (voice_recognition) dan model en_us-hfc_female-medium (TTS). Untuk menambahkan model tambahan Anda, unduh dari Piper, Vosk dan ekstrak ke ./extensions/piper/models/ atau ./extensions/vosk Directory.
Anda dapat mendengarkan sampel suara untuk Piper TTS di sini untuk Piper, dan mengunduh model yang disukai.
Pastikan Anda memiliki shellgpt dan berjalan jika tidak melihat instalasi shellgpt.
Anda sekarang dapat memulai proyek dengan perintah berikut:
./start.sh
or
. .env/bin/activate
python3 main.py
Semua kueri pengguna cocok dengan kunci di Kamus Perintah, jika ada maka fungsi yang sesuai dieksekusi, jika tidak ada yang cocok dengan ShellGpt yang mengambil alih.
Untuk info lebih lanjut, lihat perintah perintah di main.py.
Anda sekarang dapat berinteraksi dengan proyek menggunakan perintah suara atau penekanan tombol Anda.
Pengguna dapat mengedit config.ini sesuai kebutuhan mereka (nama asisten, Api-keys dll).
Jika Anda ingin berkontribusi pada proyek ini, silakan mematuhi pedoman berikut:
git checkout -b feature/AmazingFeature .git commit -m 'Add some AmazingFeature' .git push origin feature/AmazingFeature .Proyek ini sedang dalam pengembangan awal sehingga bug diharapkan dan akan diperbaiki di masa depan.
Di sini beberapa alat lagi, berdasarkan Vosk.
Proyek ini dilisensikan di bawah lisensi MIT. Untuk detail lebih lanjut, silakan merujuk ke file lisensi.md di repositori.
Untuk pertanyaan atau saran apa pun, jangan ragu untuk menjangkau pemelihara proyek di [akan segera ditambahkan]. Saya akan dengan senang hati membantu Anda dengan kebutuhan Anda.