非平衡数据集 focal loss 多类分类

本文为 AI 研习社编译的技术博客,原标题 :

Multi-class classification with focal loss for imbalanced datasets

作者 |  Chengwei Zhang

翻译 | 汪鹏       校对 | 斯蒂芬·二狗子

审核 | Pita       整理 | 立鱼王

原文链接:

https://medium.com/swlh/multi-class-classification-with-focal-loss-for-imbalanced-datasets-c478700e65f5

焦点损失函数 Focal Loss(2017年何凯明大佬的论文)被提出用于密集物体检测任务。它可以训练高精度的密集物体探测器,哪怕前景和背景之间比例为1:1000(译者注:facal loss 就是为了解决目标检测中类别样本比例严重失衡的问题)。本教程将向您展示如何在给定的高度不平衡的数据集的情况下,应用焦点损失函数来训练一个多分类模型。

     背景

让我们首先了解类别不平衡数据集的一般的处理方法,然后再学习 focal loss 的解决方式。

在多分类问题?#26657;?#31867;别平衡的数据集的目标标签是均匀分布的。若某类目标的样本相比其他类在数?#21487;?#21344;据极大优势,则可以将该数据集视为不平衡的数据集。这种不平衡将导致两个问题:

  • 训练效率低下,因为大多数样本都是简单的目标,这些样本在训?#20998;?#25552;供给模型不太有用的信息;

  • 简单的样本数?#21487;?#30340;极大优势会搞垮训练,使模型性能退化。

一种常见的解决方案是执行某?#20013;问?#30340;困难样本挖掘,实现方式就是在训练时选取困难样本 或 使用更复杂的采样,以及重新对样本加权等方案。

对具体图像分类问题,对数据增强技术方案变更,以便为样本不足的类创建增强的数据。

焦点损失函数旨在通过降低内部加权(简单样本)来解决类别不平衡问题,这样即使简单样本的数量很大,但它们对总损失的贡献却很小。也就是说,该函数侧重于用困难样本稀疏的数据集来训练。

     将 Focal Loss 应用于欺诈检测任务

为?#25628;?#31034;,我们将会使用 Kaggle上的欺诈检测数据集 构建一个分类器,这个数据及具有极端的类不平衡问题,它包含总共6354407个正常样本和8213个欺诈案例,两者比例约为733:1。对这种高度不平衡的数据集的分类问题,若某模?#22270;?#21333;猜测所有输入样本为“正常?#26412;?#21487;以达到733 /(733 + 1)= 99.86%的准确度,这显然是不合理。因此,我们需要的是这个模型能够正确检测出欺诈案例。

为了证明focal loss 比传统技术更有效,让我们建立一个简单地使用类别权重 class_weight训练的基准模型,告诉模型?#26696;?#22810;地关注”来自代表性不足的欺诈样本。

基准模型

基准模型的准确率达到了99.87%,略好于通过采取“简单路线?#27604;?#29468;测所有情况都为“正常”。

我们?#22815;?#21046;了混淆矩阵来展示模型在测试集上的分类性能。你可以看到总共有1140 + 480 = 1620 个样本被错误分类。

混淆矩阵-基准模型

现在让我们将focal loss应用于这个模型的训练。你可以在下面看到如何在Keras框架下自定义焦点损失函数focal loss 。

焦点损失函数-模型

焦点损失函数focal loss 有两个可调的参数。

  • 焦点参数γ(gamma)平滑地调整简单样本被加权的速率。当γ= 0时, focal loss 效果与交叉熵函数相同,并且随着 γ 增加,调制因子的影响同样增加(γ = 2在实验中表现的效果最好)。

  • α(alpha):平衡focal loss ,相对于非 α 平衡?#38382;?#21487;以略微提高它的准确度。

现在让我?#21069;?#35757;练好的模型与之前的模型进行比较性能。 雷锋网雷锋网 (公众号:雷锋网) 雷锋网

Focal Loss 模型:

  • 精确度:99.94%

  • 总错误分类测试集样本:766 + 23 = 789,将错误数减少了一半。

混淆矩阵-focal loss模型

    结论及导读

在这个快速教程?#26657;?#25105;们为你的知识库引入了一个新的工具?#21019;?#29702;高度不平衡的数据集 — Focal Loss。并通过一个具体的例子展示了如何在Keras 的 API 中定义 focal loss进而改善你的分类模型。

你可以在?#19994;腉itHub上?#19994;?#36825;篇文章的完整?#21019;?#30721;。

有关focal loss的详细情况,可去查阅论文https://arxiv.org/abs/1708.02002。

最初发表于www.dlology.com.

想要继续查看该篇文章相关链接和参考文献?

点击 非平衡数据集 focal loss 多类分类 即可访问:

https://ai.yanxishe.com/page/TextTranslation/1646

AI研习社今日推荐: 2019 最新斯坦福 CS224nNLP 课程

自然语言处理(NLP)是信息时代最重要的技术之一,也是人工智能的关键部分。NLP的应用无处不在,因为人们几乎用语言进行交流:网络搜索,广告,电子邮件,客户服务,语言翻译,医学报告?#21462;?#36817;年来,深度学习方法在许多不同的NLP任务中获得了非常高的性能,使用单个?#35828;?#31471;神经模型,不需要传统的,任务特定的特征工程。在本课程?#26657;?#23398;生将深入了解NLP深度学习的前沿研究。

课程链接: https://ai.yanxishe.com/page/groupDetail/59

雷锋网原创文章,未经授权禁止转载。详情见 转载须知

我来评几句
登录后评论

已发表评论数()

相关站点

+订阅
?#35753;?#25991;章
河北20选5平台
体育彩票网 白小姐图库总站 北京快3开奖l结果近50期 伦敦奥运会排球冠军 江苏快3彩乐乐网 福建三 高频彩的技巧与心得分享 四川金7乐开奖大小走势图 大乐透走势图连线 36体育彩票走势图 pk10一天赚300好搞吗 乒乓球世界杯 赛马会lg 一波中特公开资料8 ag平台网站