【24h】

Taming the Cross Entropy Loss

机译:驯服交叉熵损失

获取原文

摘要

We present the Tamed Cross Entropy (TCE) loss function, a robust derivative of the standard Cross Entropy (CE) loss used in deep learning for classification tasks. However, unlike other robust losses, the TCE loss is designed to exhibit the same training properties than the CE loss in noiseless scenarios. Therefore, the TCE loss requires no modification on the training regime compared to the CE loss and, in consequence, can be applied in all applications where the CE loss is currently used. We evaluate the TCE loss using the ResNet architecture on four image datasets that we artificially contaminated with various levels of label noise. The TCE loss outperforms the CE loss in every tested scenario.
机译:我们提出了驯服的交叉熵(TCE)损失函数,这是用于分类任务的深度学习中使用的标准交叉熵(CE)损失的稳健派生。但是,与其他鲁棒性损耗不同,在无噪声情况下,TCE损耗设计为具有与CE损耗相同的训练特性。因此,与CE丢失相比,TCE丢失不需要对训练方案进行任何修改,因此可以应用于当前使用CE丢失的所有应用中。我们使用ResNet架构在四个图像数据集上使用ResNet架构评估了TCE损失,这些图像数据集被各种级别的标签噪声人为地污染了。在每种测试情况下,TCE损失均优于CE损失。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号