Hoja de ruta | Docios | Documentos | Tiempo de ejecución | Modelos previos a la aparición | Huggingface | Pregúntale a Wenet Guru
Compartimos la red juntos.
pip install git+https://github.com/wenet-e2e/wenet.git Uso de la línea de comandos (use -h para parámetros):
wenet --language chinese audio.wavUso de la programación de Python :
import wenet
model = wenet . load_model ( 'chinese' )
result = model . transcribe ( 'audio.wav' )
print ( result [ 'text' ])Consulte el uso de Python para obtener más línea de comandos y uso de la programación de Python.
git clone https://github.com/wenet-e2e/wenet.gitconda create -n wenet python=3.10
conda activate wenet
conda install conda-forge::soxpip install torch==2.2.2+cu121 torchaudio==2.2.2+cu121 -f https://download.pytorch.org/whl/torch_stable.htmlInstale Cann: siga este enlace para instalar Cann Toolkit y granos.
Instale Wenet con dependencias de antorcha-NPU:
pip install -e .[torch-npu]| Requisito | Mínimo | Recomendar |
|---|---|---|
| GOLPE LIGERO | 8.0.rc2.alpha003 | el último |
| antorcha | 2.1.0 | 2.2.0 |
| Torch-NPU | 2.1.0 | 2.2.0 |
| torchaudio | 2.1.0 | 2.2.0 |
| velocidad profunda | 0.13.2 | el último |
pip install -r requirements.txt
pre-commit install # for clean and tidy code # If you encounter sox compatibility issues
RuntimeError: set_buffer_size requires sox extension which is not available.
# ubuntu
sudo apt-get install sox libsox-dev
# centos
sudo yum install sox sox-devel
# conda env
conda install conda-forge::soxConstruir para la implementación
Opcionalmente, si desea usar X86 Runtime o Model de idioma (LM), debe construir el tiempo de ejecución de la siguiente manera. De lo contrario, puede ignorar este paso.
# runtime build requires cmake 3.14 or above
cd runtime/libtorch
mkdir build && cd build && cmake -DGRAPH_TOOLS=ON .. && cmake --build .Consulte Doc para construir tiempo de ejecución en más plataformas y sistema operativo.
Puede discutir directamente sobre temas de GitHub.
Para los usuarios chinos, también puede escanear el código QR a la izquierda para seguir nuestra cuenta oficial de Wenet. Creamos un grupo WeChat para una mejor discusión y una respuesta más rápida. Escanee el código QR personal a la derecha, y el tipo es responsable de invitarlo al grupo de chat.
![]() | ![]() |
|---|
@inproceedings { yao2021wenet ,
title = { WeNet: Production oriented Streaming and Non-streaming End-to-End Speech Recognition Toolkit } ,
author = { Yao, Zhuoyuan and Wu, Di and Wang, Xiong and Zhang, Binbin and Yu, Fan and Yang, Chao and Peng, Zhendong and Chen, Xiaoyu and Xie, Lei and Lei, Xin } ,
booktitle = { Proc. Interspeech } ,
year = { 2021 } ,
address = { Brno, Czech Republic } ,
organization = { IEEE }
}
@article { zhang2022wenet ,
title = { WeNet 2.0: More Productive End-to-End Speech Recognition Toolkit } ,
author = { Zhang, Binbin and Wu, Di and Peng, Zhendong and Song, Xingchen and Yao, Zhuoyuan and Lv, Hang and Xie, Lei and Yang, Chao and Pan, Fuping and Niu, Jianwei } ,
journal = { arXiv preprint arXiv:2203.15455 } ,
year = { 2022 }
}