أعلنت Baidu Intelligent Cloud رسميًا أن نموذج Wenxin الكبير ERNIE 4.0 Turbo مفتوح بالكامل، ويمكن لمستخدمي المؤسسات استخدامه على الفور من خلال خدمة API لمنصة Baidu Intelligent Cloud Qianfan ذات الطراز الكبير. وتمثل هذه الخطوة خطوة مهمة لشركة بايدو في التطبيق التجاري لنماذج اللغة واسعة النطاق، مما يوفر للشركات حلول ذكاء اصطناعي أكثر ملاءمة وكفاءة. لقد قام ERNIE 4.0 Turbo بتحسين السرعة وتعزيز المعرفة وقدرات الاسترجاع بشكل كبير، خاصة في محتوى الفيديو واسترجاع رابط الويب، ويمكن للمستخدمين الحصول مباشرة على المحتوى ذي الصلة والانتقال إليه. ستعمل هذه الخطوة على تعزيز تطبيق النماذج الكبيرة في مختلف الصناعات.
اليوم، أعلنت Baidu Intelligent Cloud أن نموذج Wenxin الكبير ERNIE 4.0 Turbo مفتوح بالكامل لمستخدمي المؤسسات، ومن الآن فصاعدًا، يمكنك تسجيل الدخول إلى النظام الأساسي للنموذج الكبير Baidu Intelligent Cloud Qianfan لاستخدام خدمات API.
في السابق، أصدرت Baidu رسميًا Wenxin Big Model 4.0 Turbo. إن Wenxin Big Model 4.0 Turbo ليس أسرع فحسب، بل يحتوي أيضًا على تحسينات كبيرة في تعزيز المعرفة وقدرات الاسترجاع.

ومن الجدير بالذكر أن Wenxin Large Model 4.0 Turbo يتمتع أيضًا بمحتوى فيديو قوي وقدرات استرجاع رابط الويب. يمكن للمستخدمين البحث مباشرة عن محتوى الفيديو أو روابط الويب ذات الصلة، والنقر مباشرة على روابط البحث ذات الصلة للانتقال إلى صفحة تفاصيل المحتوى الجديدة.
أعلن وانغ هايفنغ، كبير مسؤولي التكنولوجيا في بايدو، عن أحدث بيانات مستخدم Wen Xinyiyan في المؤتمر.
حاليًا، وصلت قاعدة مستخدمي Wen Xinyiyan إلى 300 مليون، وتصل المكالمات اليومية لنموذجها الضخم لواجهة برمجة التطبيقات (API) إلى 500 مليون مرة. بالإضافة إلى ذلك، أظهر عدد المستخدمين الذين يطرحون الأسئلة باستخدام نموذج Wenxin أيضًا نموًا ملحوظًا، مع زيادة متوسط عدد الأسئلة اليومي بنسبة 78%.
عنوان التقديم: https://cloud.baidu.com/survey_summit/tuwen.html
لا يوفر الافتتاح الكامل لـ Wenxin Large Model ERNIE 4.0 Turbo للمؤسسات دعمًا فنيًا قويًا للذكاء الاصطناعي فحسب، بل يبشر أيضًا بابتكار Baidu المستمر ومكانتها الرائدة في مجال الذكاء الاصطناعي، مما يوفر زخمًا جديدًا لتعزيز تطوير وتطبيق تكنولوجيا الذكاء الاصطناعي. . من المتوقع أن تتمكن Wenxin Big Model من تقديم خدمات أكثر ملاءمة وأكثر ذكاءً لعدد أكبر من المستخدمين في المستقبل.