تنفيذي للتسمية smooth و amsoftmax و partial-fc وفقدان البؤرة والخسارة المزدوجة والخسارة ثلاثية ، giou/diou/ciou-loss/func ، التقارب-الخسارة ، pc_softmax_cross_entropy ، ohem-loss (softmax على أساس الصلب). Lovasz-softmax-loss ، وخسارة الزهر (كلا فقدان النرد الناعم المعمم وفقدان الدفعة الناعمة الناعمة). ربما هذا مفيد في عملي المستقبلي.
حاول أيضًا تنفيذ وظائف تنشيط Swish و Hard-Swish (Hswish) و Mish.
بالإضافة إلى ذلك ، تتم إضافة وظيفة واحدة قائمة على CUDA (ملصق الدعم السلس).
أضف حديثًا مشغل "المتوسط المتحرك الأسي (EMA)".
أضف OPS Connertolution ، مثل Coord-Conv2d ، و Dynamic-Conv2d (DY-CONV2D).
يتم تنفيذ بعض المشغلين مع امتداد Pytorch CUDA ، لذلك تحتاج إلى تجميعه أولاً:
$ python -m pip install .
بعد التثبيت ، يمكنك الآن التقاط ما تحتاجه واستخدام الخسائر أو العمليات مثل واحدة من هذه:
from pytorch_loss import SwishV1 , SwishV2 , SwishV3
from pytorch_loss import HSwishV1 , HSwishV2 , HSwishV3
from pytorch_loss import MishV1 , MishV2 , MishV3
from pytorch_loss import convert_to_one_hot , convert_to_one_hot_cu , OnehotEncoder
from pytorch_loss import EMA
from pytorch_loss import TripletLoss
from pytorch_loss import SoftDiceLossV1 , SoftDiceLossV2 , SoftDiceLossV3
from pytorch_loss import PCSoftmaxCrossEntropyV1 , PCSoftmaxCrossEntropyV2
from pytorch_loss import LargeMarginSoftmaxV1 , LargeMarginSoftmaxV2 , LargeMarginSoftmaxV3
from pytorch_loss import LabelSmoothSoftmaxCEV1 , LabelSmoothSoftmaxCEV2 , LabelSmoothSoftmaxCEV3
from pytorch_loss import GIOULoss , DIOULoss , CIOULoss
from pytorch_loss import iou_func , giou_func , diou_func , ciou_func
from pytorch_loss import FocalLossV1 , FocalLossV2 , FocalLossV3
from pytorch_loss import Dual_Focal_loss
from pytorch_loss import GeneralizedSoftDiceLoss , BatchSoftDiceLoss
from pytorch_loss import AMSoftmax
from pytorch_loss import AffinityFieldLoss , AffinityLoss
from pytorch_loss import OhemCELoss , OhemLargeMarginLoss
from pytorch_loss import LovaszSoftmaxV1 , LovaszSoftmaxV3
from pytorch_loss import TaylorCrossEntropyLossV1 , TaylorCrossEntropyLossV3
from pytorch_loss import InfoNceDist
from pytorch_loss import PartialFCAMSoftmax
from pytorch_loss import TaylorSoftmaxV1 , TaylorSoftmaxV3
from pytorch_loss import LogTaylorSoftmaxV1 , LogTaylorSoftmaxV3
from pytorch_loss import CoordConv2d , DY_Conv2d لاحظ أن بعض الخسائر أو OPS تحتوي على 3 إصدارات ، مثل LabelSmoothSoftmaxCEV1 ، LabelSmoothSoftmaxCEV2 ، LabelSmoothSoftmaxCEV3 ، هنا V1 يعني التنفيذ مع Pytorch Ops Pure و Use Comps torch.autograd للحساب المتخلف ، يعني V2 التنفيذ مع pytorch V3 postor. امتداد. بشكل عام ، تكون V3 OPS أسرع وأكثر كفاءة في الذاكرة ، لأنني حاولت الضغط على كل شيء في وظيفة kernel Cuda واحدة ، والتي تجلب في معظم الحالات أقل من مجموعة من Pytorch Ops.
بالنسبة لأولئك الذين صادفوا العثور على هذا الريبو ، إذا رأيت أخطاء في الكود الخاص بي ، فلا تتردد في فتح مشكلة لتصحيح لي.