أصدرت Meta مترجم Meta LLM المثير للإعجاب، والذي تم بناؤه على Meta Code Llama وله إصداران، 7B و13B، وقدراته القوية على تحسين التعليمات البرمجية وتجميعها مثيرة للإعجاب. فهو لا يمكنه فقط محاكاة سلوك المترجم، والتنبؤ بأفضل مسار للتحسين، وحتى إجراء تفكيك التعليمات البرمجية، مما يدل على مستوى من الذكاء يتجاوز المترجمين التقليديين. حقق الإصدار المضبوط بدقة FTD نتائج ملحوظة في تحسين حجم الكود. وبالمقارنة مع خيار التحسين -Oz، فقد زاد بنسبة 5.24%، وهو ما يتجاوز بكثير 0.03% لـ GPT-4 Turbo. كما أن أدائها في التفكيك ممتاز أيضًا، كما أن درجة BLEU ذهابًا وإيابًا البالغة 0.96 تتفوق أيضًا بشكل كبير على GPT-4 Turbo.
أظهر مترجم Meta LLM قدرات قوية في تحسين التعليمات البرمجية والتفكيك، وحققت نسخته المضبوطة بدقة FTD زيادة بنسبة 5.24% في تحسين حجم التعليمات البرمجية مقارنة بخيار التحسين -Oz، وحققت BLEU ذهابًا وإيابًا بقيمة 0.96 في قدرات التفكيك النتائج تتجاوز بكثير تلك الخاصة بـ GPT-4Turbo. وقد جذبت هذه النتائج المذهلة اهتماما واسع النطاق في الصناعة. يمكن ضبط المترجم بدقة لمهام محددة ويستمر في التحسين أثناء تعلمه، مع إمكانات هائلة للتطوير المستقبلي. وقد تم نشر روابط للأبحاث والنماذج ذات الصلة، ويمكن للقراء المهتمين معرفة المزيد.

بالإضافة إلى ذلك، فيما يتعلق بقدرات التفكيك، أظهر مترجم LLM FTD قدرات قوية، حيث وصل إلى درجة BLEU ذهابًا وإيابًا تبلغ 0.96، وهو ما يتجاوز بكثير درجة GPT-4Turbo البالغة 0.43.
لقد اجتذبت هذه الأخبار اهتمامًا واسع النطاق على الإنترنت، ويمكن للقراء المهتمين زيارة الروابط الخاصة بالنموذج والورقة لمعرفة المزيد.
الورقة: https://ai.meta.com/research/publications/meta-large-language-model-compiler-foundation-models-of-compiler-optimization/?utm_source=twitter&utm_medium=organic_social&utm_content=link&utm_campaign=fair
يمثل ظهور مترجم Meta LLM إنجازًا كبيرًا للذكاء الاصطناعي في مجال تحسين التعليمات البرمجية وتجميعها. إن أدائها القوي وإمكانيات التطوير المستقبلية تستحق التطلع إليها. ويعتقد أن هذه التكنولوجيا سيكون لها تأثير عميق على مجالات تطوير البرمجيات والذكاء الاصطناعي.