騰訊雲TI平台正式上架DeepSeek系列大模型,其中包括參數量達671B的“滿血版”V3和R1原版模型,以及多個蒸餾模型。 DeepSeek-R1憑藉其卓越的性能和MIT開源許可,在數學、代碼、自然語言推理等任務上表現突出,甚至與GPT-4不相上下。此次上架不僅為開發者提供了強大的AI工具,更降低了大模型的使用門檻,推動了大模型技術的普及與應用。
近日,騰訊雲TI平台宣布正式上架備受矚目的DeepSeek系列模型,包括參數量達到671B的“滿血版”V3和R1原版模型,以及基於DeepSeek-R1蒸餾得到的系列模型,參數規模從70B到1.5B不等。這一舉措為開發者提供了強大的AI工具支持,進一步推動了大模型技術的普及和應用。
DeepSeek系列模型以其卓越的性能在全球範圍內獲得了廣泛關注。其中,DeepSeek-R1在發佈時即開源,並在後訓練階段大規模使用了強化學習技術,即使在僅有極少標註數據的情況下,也能極大提升模型推理能力。在數學、代碼、自然語言推理等任務上,DeepSeek-R1的性能與OpenAI的GPT-4正式版不相上下。此外,DeepSeek-R1遵循MIT License,允許用戶通過蒸餾技術訓練其他模型,其蒸餾模型DeepSeek-R1-Distill在參數規模更小、推理成本更低的情況下,依然在基準測試中表現出色。

騰訊雲TI平台不僅全面支持DeepSeek系列模型的一鍵部署,還限時開放了R1模型的免費在線體驗,為開發者提供了零門檻的開箱體驗。用戶可以在“TI平台-大模型廣場”中點擊DeepSeek系列模型卡片,了解模型信息,並進行在線體驗和一鍵部署。此外,TI平台還提供了模型服務管理、監控運營、資源伸縮等企業級能力,幫助企業和開發者將DeepSeek模型高效、穩定地接入實際業務中。
為了滿足不同用戶的需求,TI平台提供了多種計費模式,包括按量計費和包年包月。對於需要短時體驗的用戶,可以直接從TI平台購買算力並選用按量計費模式;而對於已購買CVM機器或需要長時間體驗的用戶,則推薦使用自有的CVM機器作為推理算力。在算力配置方面,“滿血版”DeepSeek-R1推薦使用騰訊雲上的2台8卡HCCPNV6機型進行服務部署,以獲得穩定業務體驗;而蒸餾後的DeepSeek-R1-Distill-Qwen-1.5 B模型則可以單張中端GPU卡進行部署。開發者可以根據業務複雜度選擇合適的模型進行測試,並通過調用API的方式將其接入AI應用。
騰訊雲TI平台的這一新動作,不僅為開發者提供了強大的AI工具支持,也為大模型技術的普及和應用提供了有力的推動。通過免費體驗和一鍵部署功能,TI平台降低了開發者使用大模型的門檻,使其能夠更快速地將AI技術應用於實際業務中,進一步提升了AI技術的實用性和可及性。
總而言之,騰訊雲TI平台推出DeepSeek系列模型,為開發者提供了便捷高效的大模型應用體驗,進一步推動了人工智能技術的發展和應用落地,值得期待其未來發展。