Roadmap | Docs | Papiere | Laufzeit | Vorbereitete Modelle | Umarmung | Fragen Sie den Wenet Guru
Wir teilen uns das Netz zusammen.
pip install git+https://github.com/wenet-e2e/wenet.git Befehlszeilennutzung (verwenden -h für Parameter):
wenet --language chinese audio.wavPython -Programmiernutzung :
import wenet
model = wenet . load_model ( 'chinese' )
result = model . transcribe ( 'audio.wav' )
print ( result [ 'text' ])Weitere Befehlszeilen und Python -Programmiernutzung finden Sie in der Python -Nutzung.
git clone https://github.com/wenet-e2e/wenet.gitconda create -n wenet python=3.10
conda activate wenet
conda install conda-forge::soxpip install torch==2.2.2+cu121 torchaudio==2.2.2+cu121 -f https://download.pytorch.org/whl/torch_stable.htmlInstallieren Sie CAN: Bitte folgen Sie diesem Link, um das Cann -Toolkit und die Kernel zu installieren.
Installieren Sie Wenet mit Tack-NPU-Abhängigkeiten:
pip install -e .[torch-npu]| Erfordernis | Minimum | Empfehlen |
|---|---|---|
| Cann | 8.0.RC2.Alpha003 | letzte |
| Fackel | 2.1.0 | 2.2.0 |
| Torch-NPU | 2.1.0 | 2.2.0 |
| Torchaudio | 2.1.0 | 2.2.0 |
| Deepspeed | 0,13.2 | letzte |
pip install -r requirements.txt
pre-commit install # for clean and tidy code # If you encounter sox compatibility issues
RuntimeError: set_buffer_size requires sox extension which is not available.
# ubuntu
sudo apt-get install sox libsox-dev
# centos
sudo yum install sox sox-devel
# conda env
conda install conda-forge::soxFür den Einsatz erstellen
Wenn Sie optional X86 -Laufzeit oder Sprachmodell (LM) verwenden möchten, müssen Sie die Laufzeit wie folgt erstellen. Andernfalls können Sie diesen Schritt einfach ignorieren.
# runtime build requires cmake 3.14 or above
cd runtime/libtorch
mkdir build && cd build && cmake -DGRAPH_TOOLS=ON .. && cmake --build .Weitere Informationen finden Sie in Doc, um Laufzeit auf mehr Plattformen und Betriebssystemen zu erstellen.
Sie können direkt über GitHub -Themen diskutieren.
Für chinesische Benutzer können Sie auch den QR -Code links scannen, um unserem offiziellen Bericht über Theet zu folgen. Wir haben eine Wechat -Gruppe für eine bessere Diskussion und eine schnellere Reaktion erstellt. Bitte suche den persönlichen QR -Code rechts, und der Typ ist dafür verantwortlich, dass Sie zur Chat -Gruppe einladen.
![]() | ![]() |
|---|
@inproceedings { yao2021wenet ,
title = { WeNet: Production oriented Streaming and Non-streaming End-to-End Speech Recognition Toolkit } ,
author = { Yao, Zhuoyuan and Wu, Di and Wang, Xiong and Zhang, Binbin and Yu, Fan and Yang, Chao and Peng, Zhendong and Chen, Xiaoyu and Xie, Lei and Lei, Xin } ,
booktitle = { Proc. Interspeech } ,
year = { 2021 } ,
address = { Brno, Czech Republic } ,
organization = { IEEE }
}
@article { zhang2022wenet ,
title = { WeNet 2.0: More Productive End-to-End Speech Recognition Toolkit } ,
author = { Zhang, Binbin and Wu, Di and Peng, Zhendong and Song, Xingchen and Yao, Zhuoyuan and Lv, Hang and Xie, Lei and Yang, Chao and Pan, Fuping and Niu, Jianwei } ,
journal = { arXiv preprint arXiv:2203.15455 } ,
year = { 2022 }
}