Veuillez vous référer à la méthode de déploiement suivante.
Veuillez prévoir d'abord une copie du code et le déployer sur votre propre Vercel. Reportez-vous à la vidéo de démonstration.
Le chemin de fer a ajouté une limite de 500 heures par mois et ne s'arrête pas automatiquement, il y aura donc une période de temps chaque mois qui ne peut pas être utilisée. Si possible, utilisez Docker pour déployer.
Docker est requis.
# 拉取镜像
docker pull wxxxcxx/ms-ra-forwarder:latest
# 运行
docker run --name ms-ra-forwarder -d -p 3000:3000 wxxxcxx/ms-ra-forwarder
# or
docker run --name ms-ra-forwarder -d -p 3000:3000 -e TOKEN:自定义TOKEN wxxxcxx/ms-ra-forwarder
# 浏览器访问 http://localhost:3000 Créez docker-compose.yml pour écrire le contenu suivant et enregistrer.
version : ' 3 '
services :
ms-ra-forwarder :
container_name : ms-ra-forwarder
image : wxxxcxx/ms-ra-forwarder:latest
restart : unless-stopped
ports :
- 3000:3000
environment :
# 不需要可以不用设置环境变量
- TOKEN=自定义TOKEN Exécuter docker compose up -d dans le répertoire docker-compose.yml .
Le fonctionnement manuel nécessite que GIT et NodeJS soient installés à l'avance.
# 获取代码
git clone https://github.com/wxxxcxx/ms-ra-forwarder.git
cd ms-ra-forwarder
# 安装依赖
npm install
# 运行
npm run startVeuillez visiter le site Web que vous avez déployé, et après avoir testé sur la page, cliquez sur "Générer le lien de moteur vocal Reading (Legado)", puis l'importez-le dans Reading (Legado).
L'adresse d'interface est api/ra . Le format est:
POST /api/ra
FORMAT: audio-16khz-128kbitrate-mono-mp3
Content-Type: text/plain
<speak version="1.0" xmlns="http://www.w3.org/2001/10/synthesis" xmlns:mstts="https://www.w3.org/2001/mstts" xml:lang="en-US">
<voice name="zh-CN-XiaoxiaoNeural">
如果喜欢这个项目的话请点个 Star 吧。
</voice>
</speak>
Le texte demandé est au format SSML, qui prend en charge les styles de prononciation et de discours personnalisés (actuellement seule la version Azure prend en charge les styles de vocation personnalisés). Voici des exemples et une documentation liés:
Texte à la voix
Améliorer la synthèse avec le langage de balisage de la synthèse de la parole (SSML)
Le format audio par défaut est WebM. Si vous avez besoin d'obtenir l'audio dans d'autres formats, veuillez modifier FORMAT de l'en-tête de demande (les options disponibles peuvent être consultées dans RA / index.ts).
Si vous devez empêcher les autres de désutiliser vos services déployés, vous pouvez ajouter TOKEN à la variable d'environnement de l'application, puis ajouter Authorization: Bearer <TOKEN> accès à l'en-tête de demande.
Le service officiel Azure TTS de Microsoft a actuellement une certaine limite libre. Si la limite libre vous suffit, veuillez soutenir le service officiel.
Si vous avez seulement besoin de générer une voix pour le texte fixe, vous pouvez utiliser la création de contenu audio. Il offre des fonctionnalités plus riches pour générer des sons plus naturels.
Ce projet utilise l'interface entre le navigateur Edge "Lire à haute voix" et les pages de démonstration Azure TTS, et ne garantit pas la disponibilité et la stabilité ultérieures.
Ce projet est pour l'apprentissage et la référence uniquement et n'est pas disponible dans le commerce.
2023-04-19: Azure a une fonction d'essai hors ligne pour la page de démonstration, ce qui a rendu l'interface de la version Azure inutilisable. Veuillez migrer vers l'interface du navigateur Edge.
2022-11-18: Ajouter la prise en charge du fichier de dictionnaire, reportez-vous à https://github.com/wxxxcxx/azure-tts-lexicon-cn/blob/main/lexicon.xml pour le format de fichier de dictionnaire.
2022-09-10: Modifiez l'adresse du référentiel Docker, et l'image Docker construite ultérieurement sera migrée vers WXXXCXX / MS-RA-FORWARDER (l'ancienne version de l'image de référentiel d'origine est toujours valide).
2022-09-01: L'API Azure TTS semble avoir été à nouveau modifiée. Les utilisateurs de versions plus anciennes peuvent ne pas être en mesure de l'utiliser normalement. Veuillez mettre à jour la dernière version.
2022-07-17: Ajout de la prise en charge de l'API Azure TTS (je ne l'ai pas beaucoup testé, je ne sais pas si c'est stable ou ne pas l'utiliser). Parce que l'appel de l'API Azure TTS nécessite d'obtenir le code d'autorisation. D'autres méthodes peuvent être utilisées pendant une période de temps ou une fois, et Vercel doit recueillir le code d'autorisation à chaque fois qu'il appelle l'API. Non seulement il est facile à temps, mais il augmente également le fardeau des serveurs Microsoft, il n'est donc pas recommandé pour les utilisateurs qui le déploient dans Vercel (bien qu'il ne soit pas impossible de l'utiliser ~ mais si Microsoft est blessé et qu'il sera mauvais de changer l'interface?).
2022-07-02: API Version Edge Les formats actuellement pris en charge par des tests incluent webm-24khz-16bit-mono-opu , audio-24khz-48kbitrate-mono-mp3 et audio-24khz-96kbitrate-mono-mp3 . De plus, à partir de cet après-midi, si vous utilisez le son qui n'est pas dans la liste déroulante, vous verrez une erreur comme "la voix non supportée Zh-Cn-Yunyeneural"., Et elle pourrait également être coupée à l'avenir. Utilisez et chérissez-le!
2022-07-01: Les services déployés sur des serveurs en dehors de la Chine continentale ne peuvent actuellement choisir que l'audio au format Les utilisateurs qui utilisent Vercel doivent donc le redéployer.webm-24khz-16bit-mono-opus !
2022-06-16: L'interface fournie par le navigateur Edge ne peut plus définir le style de la parole. Si vous constatez qu'il ne peut pas être utilisé normalement, veuillez vous référer au n ° 12 pour les mises à jour.
Merci aux organisations / individus suivants pour leur soutien à ce projet