Die offizielle Liquiditätsbasis in Silicon Base Weibo hat kürzlich eine wichtige Ankündigung veröffentlicht, in der angekündigt wurde, dass die Deepseek-R1- und V3-APIs seiner Siliconcloud-Plattform jetzt die Stapel-Inferenz unterstützen. Die Einführung dieses neuen Features markiert einen weiteren großen Durchbruch im Siliziumbasisfluss im Bereich der künstlichen Intelligenzdienste.
Über die Batch-API können Benutzer große Mengen an Datenverarbeitungsanforderungen an die Siliconcloud-Plattform senden, ohne sich über die Echtzeit-Inferenzrate zu sorgen. Nach offizieller Einführung werden die Aufgaben der Stapelinferenz innerhalb von 24 Stunden voraussichtlich innerhalb von 24 Stunden ausgeführt, was die Effizienz der Datenverarbeitung erheblich verbessert. Noch aufregender ist, dass der Preis für Deepseek-V3-Batch-Inferenz im Vergleich zur Echtzeitinferenz direkt um 50% reduziert wird. Darüber hinaus startete Deepseek-R1-Batch-Argumentation vom 11. bis 18. März eine Rabattaktivität von 75%, wobei der Eingangspreis nur 1 Yuan/Millionen-Token und der Ausgangspreis auf 4 Yuan/Millionen-Token gesunken war.
Die Einführung der Batch-Inferenzfunktion bietet Benutzern effizientere Lösungen für den Umgang mit großen Datenaufgaben. Unabhängig davon, ob es sich um Berichte, Reinigungsdaten oder Datenanalysen, Modellleistungsbewertung und andere Szenarien ausführen, kann diese neue Funktion eine wichtige Rolle spielen. Besonders geeignet für Datenverarbeitungsaufgaben, für die keine Reaktion in Echtzeit erforderlich ist, sodass Benutzer die hochwertigen Dienste von Deepseek-R1 und V3 API zu geringeren Kosten genießen können.
