Maxim Berman, Amal Rannen Triki, Matthew B. Blaschko
ESAT-PSI, Ku Leuven, Belgien.
Veröffentlicht in CVPR 2018. Siehe Projektseite, Arxiv Paper, Papier über CVF Open Access.
Dateien enthalten:
Der binäre lovasz_hinge erwartet reale Werte (positive Bewertungen entsprechen den Vordergrundpixeln).
Die Multiclass lovasz_softmax erwartet Klassenwahrscheinlichkeiten (die Kategorie der maximalen Bewertung wird vorhergesagt). Verwenden Sie zunächst eine Softmax -Schicht auf den nichtemalisierten Punktzahlen.
Dateien enthalten:
WARNUNG: Die Verlustewerte und -gradienten wurden auf die gleiche wie bei Pytorch (siehe Notebooks) getestet. Wir haben jedoch die TF -Implementierung in einer Trainingseinstellung nicht verwendet.
In den Demos finden Sie einfache Prinzip -Beweise.
Der Verlust kann für sich genommen optimiert werden, aber die optimalen Optimierungshyperparameter (Lernraten, Impuls) können sich von den besten für die Cross-Entropie unterscheiden. Wie in der Arbeit erläutert, hängt die Optimierung des Dataset-Miou (Pascal VOC-Maßes) von der Chargengröße und der Anzahl der Klassen ab. Daher haben Sie möglicherweise die besten Ergebnisse, indem Sie zuerst mit Kreuzentropie und Finetuning mit unserem Verlust oder durch Kombination der beiden Verluste optimiert werden.
Sehen Sie zum Beispiel, wie die Arbeitsabdeckung der Satellitenbilder mit U-NET- und Lovasz-Softmax-Verlust von Alexander Rakhlin et al. benutzte unseren Verlust in der CVPR 18 DeepGlobe Challenge.
Das Kompilieren von TensorFlow -Master (oder eine zukünftige Verteilung, die den Tensorflow/Tensorflow@73E3215 enthält) sollte dieses Problem lösen. Siehe Ausgabe 6.
Bitte zitieren
@inproceedings{berman2018lovasz,
title={The Lov{'a}sz-Softmax loss: A tractable surrogate for the optimization of the intersection-over-union measure in neural networks},
author={Berman, Maxim and Rannen Triki, Amal and Blaschko, Matthew B},
booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},
pages={4413--4421},
year={2018}
}