GNU/Linux-AI-Voice-Assistant는 다양한 오픈 소스 도구를 활용하여 다양한 서비스 및 기능과의 원활한 상호 작용을 제공하는 다양한 오픈 소스 도구를 사용하는 다목적 터미널 기반 인터페이스입니다. 조수의 주요 구성 요소는 다음과 같습니다.
Glava는 Turing 테스트를 통과하기위한 도구 일뿐 만 아니라 다수의 작업과 쿼리를 도와 줄 준비가되어 있습니다. 그 핵심에는 큰 언어 모델 (LLM)의 힘이 있으며, 이는 활용을 기다리는 지식의 바다입니다.
정보 검색을위한 도구가 아닙니다. 그것은 동반자이며 다양한 작업을 도와 줄 준비가되어있어 명령 줄 경험을보다 즐겁고 효율적으로 만듭니다.
멀티 모달 상호 작용으로 텍스트 또는 음성 형식으로 상호 작용할 수 있습니다. 다양한 소스에서 정보를 가져오고 쉘 명령, 이미지를 생성하며 웹을 탐색 할 수도 있습니다. 모든 정보 및 엔터테인먼트 요구에 대한 보조원입니다.
Glava는 LLM의 힘을 활용하여 다양한 기능을 제공합니다. Keystrokes 또는 음성을 사용하여 상호 작용하는 것을 선호하든 Glava는 등을 가지고 있습니다. 텍스트와 음성 형식으로 모두 응답하여 원활한 상호 작용을 보장합니다.
Glava를 사용하면 음성을 사용하여 명령을 지시하거나 입력 할 수 있습니다.
음성 인식을 위해, 우리는 무료 인 vosk를 사용합니다. 음성 인식을위한 경량, 효율적이며 오픈 소스 툴킷. Vosk는 REST WebSocket으로 실행되어 정확하고 실시간 전사를 보장합니다.
귀가 만족하기 위해서는 Glava는 단순한 화자가 아니라 TTS (Text-Topeech)의 마스터입니다. HTTP Websockets와 함께 사용할 수있는 강력한 도구 인 Piper를 사용합니다. 여기서 텍스트는 음성을 얻거나 Piper 바이너리를 사용하여 컬링됩니다.
여기에서 음성 샘플을 들어보십시오
Glava는 매우 정확하고 구성으로 작동하는 Python 스크립트로 쉽게 사용자 정의 할 수있는 괴상한 독립을 사용하여 텍스트 타이핑에 대해 연설을 할 수 있습니다 (Vosk-API 사용).
다음은이 프로젝트가 "시작", "쓰기 시작", "쓰기 중지"명령을 활성화/비활성화하기위한 명령, 몇 가지 구두점, 단어 대문자 등을 사용하는 구성입니다.
사용자는 Wolfram Alpha API를 사용하여 정보 및 계산을 쿼리 할 수 있습니다.
Glava는 Newsapi 및 Google News의 뉴스를 쿼리하고 텍스트와 음성 형식 모두에서 결과를 얻을 수있어 학습과 기쁨의 여정에서 업데이트를 계속합니다.
Glava는 정보 검색을위한 도구가 아닙니다. Shell 명령을 생성하고 실행하여 명령을 편집, 중단 및 실행할 수 있습니다. 그것은 개인 비서를 갖는 것과 같습니다. 그렇지 않으면 시간과 노력이 필요할 수있는 작업을 도와 줄 준비가되어 있습니다.
Glava는 다양한 웹 사이트에 웹 브라우저를 열 수 있으므로 탐색 경험이 산들 바람으로 만들 수 있습니다. 정보는 다양한 웹 사이트와 위키 백과를 검색하여 필요한 정보를 제공 할 수 있습니다.
YouTube, Github, Wikipedia, Amazon 및 Reddit과 같은 좋아하는 웹 사이트를 탐색하거나 Duckduckgo를 기본 검색 엔진으로 사용하십시오.
Glava는 YT-DLP, MPD 및 MPV를 사용하여 YouTube 소스에서 모든 노래 나 비디오를 재생할 수 있습니다. 오디오 및 비디오 형식으로 재생할 수있어 개인 재생 목록 제작자가됩니다.
Glava는 IMDB의 모든 영화에 대한 정보를 쿼리 할 수있어 음모, 캐스트 및 등급을 포함하여 영화에 대한 풍부한 정보를 제공합니다.
Glava는 https://pollinations.ai/의 무료 서비스를 사용하여 텍스트로 이미지를 생성하는 데 도움이됩니다.
시작하기 전에 다음 요구 사항을 충족했는지 확인하십시오.
다음 단계에 따라 프로젝트를 설치하고 설정하십시오.
저장소 복제 :
git clone https://github.com/akhil3417/glava
프로젝트 디렉토리로 이동하십시오.
cd glava
설치 스크립트 실행 :
chmod +x installer.sh
./installer.sh
설치 프로그램 스크립트는 vosk-model-small-en-us-0.15 (Voice_recognition) 및 en_us-hfc_female-medium (TTS) 모델 만 설치합니다. 추가 모델을 추가하려면 Piper, vosk에서 다운로드하여 ./extensions/piper/models/ 또는 ./extensions/vosk 디렉토리로 추출하십시오.
파이퍼 TTS의 음성 샘플을 여기 파이퍼 용 음성 샘플을 듣고 그에 따라 선호하는 모델을 다운로드 할 수 있습니다.
Shellgpt 설치가 표시되지 않으면 Shellgpt Up 및 실행 중이 있는지 확인하십시오.
이제 다음 명령으로 프로젝트를 시작할 수 있습니다.
./start.sh
or
. .env/bin/activate
python3 main.py
모든 사용자 쿼리는 명령 사전의 키와 일치합니다. 존재하면 해당 함수가 실행됩니다.
자세한 내용은 main.py의 명령 Dict를 참조하십시오.
이제 음성 명령 또는 키 스트로크를 사용하여 프로젝트와 상호 작용할 수 있습니다.
사용자는 필요에 따라 config.ini를 편집 할 수 있습니다 (Assistant Name, Api-Keys 등).
이 프로젝트에 기여하려면 다음 지침을 준수하십시오.
git checkout -b feature/AmazingFeature 만듭니다.git commit -m 'Add some AmazingFeature' .git push origin feature/AmazingFeature .이 프로젝트는 조기 개발 중이므로 버그가 예상되고 향후 수정 될 것입니다.
여기에는 vosk를 기반으로 몇 가지 도구가 더 있습니다.
이 프로젝트는 MIT 라이센스에 따라 라이센스가 부여됩니다. 자세한 내용은 저장소의 License.md 파일을 참조하십시오.
문의 나 제안을하려면 [곧 추가 할 것인가]의 프로젝트 관리자에게 자유롭게 연락하십시오. 나는 당신의 필요를 도와 드리겠습니다.