Weitere Informationen finden Sie in der folgenden Bereitstellungsmethode.
Bitte geben Sie zuerst eine Kopie des Codes auf und stellen Sie ihn in Ihrem eigenen Vercel bereit. Siehe Demo -Video.
Die Eisenbahn hat ein 500-Stunden-Limit pro Monat hinzugefügt und wird nicht automatisch geschlossen. Daher gibt es jeden Monat einen Zeitraum, der nicht verwendet werden kann. Wenn möglich, verwenden Sie Docker zum Bereitstellen.
Docker ist erforderlich.
# 拉取镜像
docker pull wxxxcxx/ms-ra-forwarder:latest
# 运行
docker run --name ms-ra-forwarder -d -p 3000:3000 wxxxcxx/ms-ra-forwarder
# or
docker run --name ms-ra-forwarder -d -p 3000:3000 -e TOKEN:自定义TOKEN wxxxcxx/ms-ra-forwarder
# 浏览器访问 http://localhost:3000 Erstellen Sie docker-compose.yml um den folgenden Inhalt zu schreiben und zu speichern.
version : ' 3 '
services :
ms-ra-forwarder :
container_name : ms-ra-forwarder
image : wxxxcxx/ms-ra-forwarder:latest
restart : unless-stopped
ports :
- 3000:3000
environment :
# 不需要可以不用设置环境变量
- TOKEN=自定义TOKEN Führen Sie docker compose up -d im docker-compose.yml -Verzeichnis aus.
Bei manuellem Betrieb muss Git und NodeJs im Voraus installiert werden.
# 获取代码
git clone https://github.com/wxxxcxx/ms-ra-forwarder.git
cd ms-ra-forwarder
# 安装依赖
npm install
# 运行
npm run startBitte besuchen Sie die Website, die Sie bereitgestellt haben, und klicken Sie nach dem Testen auf der Seite auf "Lesen (Legado) Voice Engine -Link generieren" und dann in Reading (Legado) importieren.
Die Schnittstellenadresse ist api/ra . Das Format lautet:
POST /api/ra
FORMAT: audio-16khz-128kbitrate-mono-mp3
Content-Type: text/plain
<speak version="1.0" xmlns="http://www.w3.org/2001/10/synthesis" xmlns:mstts="https://www.w3.org/2001/mstts" xml:lang="en-US">
<voice name="zh-CN-XiaoxiaoNeural">
如果喜欢这个项目的话请点个 Star 吧。
</voice>
</speak>
Der angeforderte Text befindet sich im SSML -Format, das benutzerdefinierte Aussprache und Sprachstile unterstützt (derzeit unterstützt nur die Azure -Version benutzerdefinierte Sprachstile). Im Folgenden finden Sie Beispiele und Dokumentation:
Text zur Stimme
Verbesserung der Synthese mit Sprachsynthese Markup Sprache (SSML)
Das Standard -Audio -Format ist WebM. Wenn Sie Audio in anderen Formaten erhalten müssen, ändern Sie bitte FORMAT des Anforderungsheaders (die verfügbaren Optionen können in ra/index.ts angezeigt werden).
Wenn Sie verhindern müssen, dass andere Ihre bereitgestellten Dienste missbrauchen, können Sie der Umgebungsvariablen der Anwendung TOKEN hinzufügen und dann Authorization: Bearer <TOKEN> Zugriff auf den Anforderungsheader.
Der offizielle Azure TTS -Service von Microsoft hat derzeit ein bestimmtes kostenloses Limit. Wenn Sie das kostenlose Limit für Sie ausreichen, unterstützen Sie bitte den offiziellen Service.
Wenn Sie nur Sprache für festen Text generieren müssen, können Sie die Erstellung von Audioinhalten verwenden. Es bietet reichhaltigere Funktionen, um mehr natürliche Klänge zu erzeugen.
Dieses Projekt verwendet die Schnittstelle zwischen dem Edge -Browser "Leses" und Azure TTS -Demo -Seiten und garantiert keine anschließende Verfügbarkeit und Stabilität.
Dieses Projekt dient nur zum Lernen und Referenz und ist nicht im Handel erhältlich.
2023-04-19: Azure hat eine Offline-Versuchsfunktion für die Demo-Seite, die dazu geführt hat, dass die Azure-Versionsschnittstelle unbrauchbar ist. Bitte migrieren Sie zur Edge -Browser -Schnittstelle.
2022-11-18: Hinzufügen von Dictionary-Dateiunterstützung finden Sie unter https://github.com/wxxxcxx/azure-tts-lexicon-cn/blob/main/lexicon.xml für das Format der Wörterbuchdatei.
2022-09-10: Ändern Sie die später erstellte Docker-Repository-Adresse, und das später erstellte Docker-Bild wird in WXXXCXX/MS-RA-Forward migriert (die alte Version des ursprünglichen Repository-Bildes ist noch gültig).
2022-09-01: Die Azure TTS-API scheint erneut geändert worden zu sein. Ältere Versionsbenutzer können es möglicherweise nicht normal verwenden. Bitte aktualisieren Sie die neueste Version.
2022-07-17: Azure TTS-API-Unterstützung hinzugefügt (ich habe sie nicht viel getestet, ich weiß nicht, ob es stabil ist oder nicht, um es zu verwenden). Da das Aufrufen der Azure TTS -API die Erlangung des Autorisierungscodes erfordert. Andere Methoden können nur oder einmal für einen bestimmten Zeitraum verwendet werden, und Vercel muss den Autorisierungscode jedes Mal erneut begeben, wenn er die API aufruft. Es ist nicht nur einfach zu zeitweise zu werden, sondern erhöht auch die Belastung für Microsoft -Server, sodass Benutzer, die sie in Vercel bereitstellen, nicht empfohlen wird (obwohl es nicht unmöglich ist, es zu verwenden ~, aber wenn Microsoft verletzt ist und es schlecht sein wird, das Interface erneut zu ändern?).
2022-07-02: Edge-Version API Die derzeit durch Tests unterstützten Formate enthalten webm-24khz-16bit-mono-opu , audio-24khz-48kbitrate-mono-mp3 und audio-24khz-96kbitrate-mono-mp3 . Wenn Sie ab diesem Nachmittag den Ton verwenden, der sich nicht in der Dropdown-Liste befindet, sehen Sie einen Fehler wie "Nicht unterstützte Stimme zh-cn-yunyeneural". Benutze und schätze es!
2022-07-01: Dienste, die auf Servern außerhalb des Festlandes eingesetzt werden, können derzeit nur Audio im Benutzer, die Vercel verwenden, müssen es also neu anwenden.webm-24khz-16bit-mono-opus -Format auswählen!
2022-06-16: Die vom Edge-Browser bereitgestellte Schnittstelle kann den Sprachstil nicht mehr festlegen. Wenn Sie feststellen, dass es nicht normal verwendet werden kann, finden Sie auf #12, um Updates zu erhalten.
Dank der folgenden Organisationen/Einzelpersonen für ihre Unterstützung für dieses Projekt