Platform Siliconcloud baru-baru ini mengumumkan peluncuran fungsi inferensi batch Deepseek-R1 & V3API, memberi pengguna solusi pemrosesan data skala besar yang lebih efisien. Melalui fungsi ini, pengguna dapat mengirim permintaan batch ke platform, menyingkirkan batasan tingkat inferensi real-time, dan menyelesaikan tugas pemrosesan data dalam waktu 24 jam. Peluncuran fitur ini menandai inovasi lebih lanjut oleh Siliconcloud di bidang Layanan Kecerdasan Buatan.
Pembaruan ini tidak hanya membawa peningkatan fungsional, tetapi juga disertai dengan pengurangan harga yang signifikan. Harga inferensi batch Deepseek-V3 berkurang 50% dibandingkan dengan inferensi real-time, menghemat banyak biaya. Selain itu, dari 11 Maret hingga 18 Maret, penalaran batch Deepseek-R1 meluncurkan diskon waktu terbatas, dengan harga input hanya 1 yuan/juta token dan harga output adalah 4 yuan/juta token, penurunan 75%. Kebijakan preferensial ini tidak diragukan lagi memberi pengguna pilihan yang lebih hemat biaya.

Peluncuran fungsi penalaran batch dirancang untuk memenuhi kebutuhan pengguna saat menangani tugas skala besar seperti menghasilkan laporan dan pembersihan data. Dibandingkan dengan inferensi real-time, inferensi batch lebih cocok untuk skenario yang tidak memerlukan respons langsung, seperti analisis data, evaluasi kinerja model, dll. Melalui fitur ini, pengguna dapat menyelesaikan tugas pemrosesan data yang kompleks dalam waktu yang lebih singkat sambil menikmati biaya yang lebih rendah.
Perlu disebutkan bahwa Deepseek-R1 & V3API sebelumnya telah mendukung sejumlah fungsi, termasuk panggilan fungsi, mode JSON, awalan dan FIM. Selain itu, tutup TPM (Token diproses per menit) dari versi Pro Deepseek-R1 & V3API telah meningkat dari 10.000 menjadi 1 juta, lebih lanjut meningkatkan kekuatan pemrosesannya. Pembaruan ini membuat platform siliconcloud lebih kompetitif di bidang layanan kecerdasan buatan dan memberi pengguna dukungan teknis yang lebih kuat.