مكسيم بيرمان ، أمل رانين تريكي ، ماثيو ب. بلاستشكو
ESAT-PSI ، كو لوف ، بلجيكا.
تم نشره في CVPR 2018. انظر صفحة المشروع ، ورقة Arxiv ، ورقة على CVF Open Access.
تضمنت الملفات:
تتوقع Binary lovasz_hinge درجات ذات قيمة حقيقية (تتوافق الدرجات الإيجابية مع وحدات البكسل المقدمة).
تتوقع lovasz_softmax متعدد الطبقات احتمالات الفصل (من المتوقع أن يكون فئة التسجيل القصوى). استخدم أولاً طبقة Softmax على الدرجات غير الطبيعية.
تضمنت الملفات:
تحذير: تم اختبار قيم الخسائر والتدرجات لتكون هي نفسها كما في Pytorch (انظر دفاتر الملاحظات) ، ومع ذلك لم نستخدم تطبيق TF في إعداد التدريب.
انظر العروض التوضيحية للحصول على أدلة بسيطة للمبدأ.
يمكن تحسين الخسارة من تلقاء نفسها ، ولكن قد تختلف أجهزة التحكم في التحسين الأمثل (معدلات التعلم ، الزخم) عن أفضل تلك الخاصة بالدخول المتقاطع. كما تمت مناقشته في الورقة ، يعتمد تحسين مجموعة البيانات Miou (مقياس VOC Pascal) على حجم الدُفعة وعدد الفئات. لذلك ، قد يكون لديك أفضل النتائج من خلال التحسين من خلال الدخول المتقاطع أولاً والتعاون مع خسارتنا ، أو عن طريق الجمع بين الخسارة.
انظر على سبيل المثال كيف تصنيف الغطاء الأرضي من صور القمر الصناعي مع خسارة U-NET و Lovasz-Softmax بواسطة Alexander Rakhlin et al. استخدم خسارتنا في CVPR 18 DeepGlobe Challenge.
يجب أن يحل هذه المشكلة من TensorFlow Master من TensorFlow (أو استخدام توزيع مستقبلي يتضمن التزام TensorFlow/TensorFlow@73e3215) ؛ انظر العدد رقم 6.
يرجى الاستشهاد
@inproceedings{berman2018lovasz,
title={The Lov{'a}sz-Softmax loss: A tractable surrogate for the optimization of the intersection-over-union measure in neural networks},
author={Berman, Maxim and Rannen Triki, Amal and Blaschko, Matthew B},
booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},
pages={4413--4421},
year={2018}
}