SimpleSpeechloop:使用兩個Mozilla項目,將語音識別和文本到語音的非常基本的演示:
深史
TTS
這是一個機器人,可以通過本地運行的語音識別來聆聽您所說的話,然後使用文本到語音進行一些(有限的)響應
在此處查看演示視頻:https://www.youtube.com/watch?v=cdu6oz1bnoy
警告:確實要求您同時使用DeepSpeech( v0.7.0 )和TTS的工作裝置,這可能需要一定數量的技能來設置(儘管由於各自項目的開發人員的努力,這變得越來越容易,更容易。
如果您遇到問題遇到問題,最好的方法是仔細閱讀安裝說明,以確保您沒有錯過任何東西,並且如果您有信心排除了明顯的潛在問題,然後將其提高到相關的勸告論壇上(給出了您所做的清晰詳細信息 -請記住,如果您在此部分含糊不清,則其他人將無法為您提供幫助。
深語言話語
TTS話語
有五個基本動作:
迴聲:這是默認值 - 無論演講識別認為您所說的話,它都會回應迴聲
“告訴我___”:它將查找一個Wikipedia文檔,其中包括“告訴我”之後的單詞並回复摘要。一個很好的例子是諸如元素之類的東西,例如“告訴我有關鐵”返回此頁面的摘要:https://en.wikipedia.org/wiki/iron
“製作機器人噪音”:它將播放file robot_noise.wav (至少到目前為止我的演講模型可能經常出現雜物! )[目前已評論]
“暫停”:它將暫停聆聽20秒(因此它阻止了不斷的迴聲!!)
“停止”:這將導致應用程序停止運行
通過查看代碼,您應該能夠添加更多。對於更複雜的任何事情,您還希望除了這種簡單的循環外更複雜的方法。
請注意,如果隨著其版本的進度,任何一個支持項目的API都存在更改,則您可能需要在此處對代碼進行調整以使其保持正常工作。它應該與DeepSpeech版本0.51一起使用。它實際上是來自DeepSpeech示例回購的VAD演示的適應性版本,帶有TTS螺栓固定,還有一些簡單的技巧,可以讓它回頭說些什麼。
它可以“按照”共享,希望它以某種方式有所幫助嗎?
我只在Linux上測試了它 - 如果您嘗試將其適應Mac / Windows,則最幸運!
音頻設置:確保您有一個工作的麥克風和音頻插入揚聲器或耳機!
同時安裝DeepSpeech和TTS - 最好直接參考這些項目。建議您在每個的虛擬環境中進行此操作(Demo.py是從DeepSpeech One運行的,並且TTS服務器由TTS運行)。您也需要安裝Demo.py的要求(在深層環境中) - 從內存中,這些是請求,彩色和pyaudio (但是請檢查文件以確保)。 DeepSpeech應發布v0.7.0。
啟動TTS服務器- 通常,您不妨在本地運行。只需確保更新demo.py中的終點以匹配(當前設置為http://0.0.0.0.0:5002/api/tts)
運行demo.py -python demo.py -d 7 -m ../models/your_model_folder/
這些參數與DeepSpeech示例回購中的VAD演示相同。
-d是麥克風的頻道(您可以使用show_alsa_channels.py檢查ALSA頻道)
-m是您計劃使用的DeepSpeech模型目錄的位置(例如,您已經訓練 /微調或預培訓的一個)位置