كانت هناك العديد من الأخبار الجيدة في مجال الذكاء الاصطناعي هذا الأسبوع، فقد أصدرت Google وMeta تحديثات رئيسية على التوالي، وقد تم تحسين أداء نموذج Google Gemini بشكل كبير وتم تخفيض التكلفة، كما أضاف Meta Llama 3.2 ميزات مرئية لافتة للنظر. وفي الوقت نفسه، حقق مشروع AlphaChip التابع لشركة Google DeepMind أيضًا تقدمًا كبيرًا، وسرع كفاءة تصميم الرقائق، ونماذج مفتوحة المصدر ذات صلة، مما ضخ زخمًا قويًا في تطوير الصناعة. سيشرح محرر Downcodes هذه التطورات المثيرة في مجال الذكاء الاصطناعي بالتفصيل.
كانت صناعة الذكاء الاصطناعي مشغولة للغاية في الأسبوع الماضي، حيث أطلقت كل من Google وMeta إصدارات جديدة من نماذج الذكاء الاصطناعي، مما جذب الكثير من الاهتمام. أولاً، أعلنت Google عن تحديث جديد لسلسلة Gemini الخاصة بها يوم الثلاثاء، حيث أطلقت نموذجين جديدين جاهزين للإنتاج – Gemini-1.5-Pro-002 وGemini-1.5-Flash-002.

أدى هذا التحديث إلى تحسين الجودة الإجمالية للنموذج بشكل كبير، خاصة في الرياضيات ومعالجة السياق الطويل ومهام الرؤية. تدعي Google أنه في اختبار قياس الأداء MMLU-Pro، تحسن الأداء بنسبة 7%، وتحسن الأداء في المهام المتعلقة بالرياضيات بنسبة 20%. إذا كنت مهتمًا بالذكاء الاصطناعي، فيجب أن تعلم أن المعايير ذات أهمية محدودة، لكن هذه البيانات لا تزال مثيرة للغاية.
بالإضافة إلى تحسين أداء النموذج، قامت Google أيضًا بتخفيض تكلفة استخدام Gemini1.5Pro بشكل كبير، مع انخفاض رسوم الإدخال والإخراج بنسبة 64% و52% على التوالي. هذه الخطوة تجعل استخدام Gemini أكثر فعالية من حيث التكلفة للمطورين.
بالإضافة إلى ذلك، بعد التحديث، تم أيضًا تحسين سرعة معالجة الطلب في Gemini-1.5Flash وPro. يمكن للأول دعم 2000 طلب في الدقيقة، ويمكن للأخير دعم 1000 طلب في الدقيقة. ولا شك أن مثل هذه التحسينات ستساعد المطورين على بناء التطبيقات بسهولة أكبر.

وفي يوم الأربعاء، لم تكن Meta خاملة، حيث أطلقت Llama3.2، وهو تحديث رئيسي لنموذج الذكاء الاصطناعي مفتوح الوزن. يتضمن هذا التحديث نماذج لغوية كبيرة ذات إمكانيات مرئية، تتراوح في حجم المعلمات من 1.1 مليار إلى 9 مليارات، كما يطلق أيضًا نماذج نصية خفيفة الوزن تحتوي على 100 مليون و300 مليون معلمة مصممة للأجهزة المحمولة.
تدعي Meta أن هذه النماذج المرئية قابلة للمقارنة بالنماذج مغلقة المصدر الرائدة في السوق في التعرف على الصور والفهم البصري. علاوة على ذلك، قام بعض الباحثين في مجال الذكاء الاصطناعي باختبار نماذج جديدة وأظهرت النتائج أن هذه النماذج الصغيرة تؤدي أداءً جيدًا في العديد من المهام النصية.

بعد ذلك، يوم الخميس، أعلن Google DeepMind رسميًا عن مشروع كبير - AlphaChip. يعتمد المشروع على بحث تم إجراؤه عام 2020 ويهدف إلى تصميم تخطيطات الرقائق من خلال التعلم المعزز. وتقول Google إن AlphaChip حققت سرعات "تخطيط شرائح خارقة" في إنشاء تخطيطات شرائح عالية الجودة في أجيالها الثلاثة الأخيرة من وحدات المعالجة الموترية (TPUs). يمكن تخفيضها من أسابيع أو حتى أشهر في البشر إلى ساعات.
والأمر الجدير بالذكر هو أن Google قامت أيضًا بمشاركة نموذج AlphaChip المُدرب مسبقًا مع الجمهور على GitHub حتى تتمكن شركات تصميم الرقائق الأخرى أيضًا من استخدام هذه التكنولوجيا، وحتى شركات مثل MediaTek بدأت في اعتمادها.
تسليط الضوء على:
** تطلق Google إصدارًا جديدًا من نموذج Gemini، مما يؤدي إلى تحسين الأداء العام وخفض السعر بشكل ملحوظ. **
**تطلق Meta تطبيق Llama3.2، وهو نموذج لغة صغير يدعم الوظائف المرئية ويعمل بشكل جيد. **
** تعمل تقنية AlphaChip من Google على تسريع تصميم الرقائق وتحسين كفاءة التصميم بشكل كبير ومشاركة التكنولوجيا. **
وبشكل عام، فإن الابتكارات التي شهدناها هذا الأسبوع في مجال الذكاء الاصطناعي مثيرة للاهتمام. ومن شأن هذه التطورات التكنولوجية أن تعزز تطبيق الذكاء الاصطناعي في المزيد من المجالات وتستحق الاهتمام المستمر. سيستمر محرر Downcodes في تقديم المزيد من المعلومات التقنية المتطورة لك.