如何选择数据集(非平衡数据集focalloss)
如何选择数据集(非平衡数据集focalloss)让我们首先了解类别不平衡数据集的一般的处理方法,然后再学习 focal loss 的解决方式。焦点损失函数 Focal Loss(2017年何凯明大佬的论文)被提出用于密集物体检测任务。它可以训练高精度的密集物体探测器,哪怕前景和背景之间比例为1:1000(译者注:facal loss 就是为了解决目标检测中类别样本比例严重失衡的问题)。本教程将向您展示如何在给定的高度不平衡的数据集的情况下,应用焦点损失函数来训练一个多分类模型。审核 | Pita 整理 | 立鱼王原文链接:https://medium.com/swlh/multi-class-classification-with-focal-loss-for-imbalanced-datasets-c478700e65f5
本文为 AI 研习社编译的技术博客,原标题 :
Multi-class classification with focal loss for imbalanced datasets
作者 | Chengwei Zhang
翻译 | 汪鹏 校对 | 斯蒂芬·二狗子
审核 | Pita 整理 | 立鱼王
原文链接:
https://medium.com/swlh/multi-class-classification-with-focal-loss-for-imbalanced-datasets-c478700e65f5
焦点损失函数 Focal Loss(2017年何凯明大佬的论文)被提出用于密集物体检测任务。它可以训练高精度的密集物体探测器,哪怕前景和背景之间比例为1:1000(译者注:facal loss 就是为了解决目标检测中类别样本比例严重失衡的问题)。本教程将向您展示如何在给定的高度不平衡的数据集的情况下,应用焦点损失函数来训练一个多分类模型。
背景
让我们首先了解类别不平衡数据集的一般的处理方法,然后再学习 focal loss 的解决方式。
在多分类问题中,类别平衡的数据集的目标标签是均匀分布的。若某类目标的样本相比其他类在数量上占据极大优势,则可以将该数据集视为不平衡的数据集。这种不平衡将导致两个问题:
-
训练效率低下,因为大多数样本都是简单的目标,这些样本在训练中提供给模型不太有用的信息;
-
简单的样本数量上的极大优势会搞垮训练,使模型性能退化。
一种常见的解决方案是执行某种形式的困难样本挖掘,实现方式就是在训练时选取困难样本 或 使用更复杂的采样,以及重新对样本加权等方案。
对具体图像分类问题,对数据增强技术方案变更,以便为样本不足的类创建增强的数据。
焦点损失函数旨在通过降低内部加权(简单样本)来解决类别不平衡问题,这样即使简单样本的数量很大,但它们对总损失的贡献却很小。也就是说,该函数侧重于用困难样本稀疏的数据集来训练。
将 Focal Loss 应用于欺诈检测任务
为了演示,我们将会使用 Kaggle上的欺诈检测数据集 构建一个分类器,这个数据及具有极端的类不平衡问题,它包含总共6354407个正常样本和8213个欺诈案例,两者比例约为733:1。对这种高度不平衡的数据集的分类问题,若某模型简单猜测所有输入样本为“正常”就可以达到733 /(733 1)= 99.86%的准确度,这显然是不合理。因此,我们需要的是这个模型能够正确检测出欺诈案例。
为了证明focal loss 比传统技术更有效,让我们建立一个简单地使用类别权重 class_weight训练的基准模型,告诉模型“更多地关注”来自代表性不足的欺诈样本。
基准模型
基准模型的准确率达到了99.87%,略好于通过采取“简单路线”去猜测所有情况都为“正常”。
我们还绘制了混淆矩阵来展示模型在测试集上的分类性能。你可以看到总共有1140 480 = 1620 个样本被错误分类。
混淆矩阵-基准模型
现在让我们将focal loss应用于这个模型的训练。你可以在下面看到如何在Keras框架下自定义焦点损失函数focal loss 。
焦点损失函数-模型
焦点损失函数focal loss 有两个可调的参数。
-
焦点参数γ(gamma)平滑地调整简单样本被加权的速率。当γ= 0时, focal loss 效果与交叉熵函数相同,并且随着 γ 增加,调制因子的影响同样增加(γ = 2在实验中表现的效果最好)。
-
α(alpha):平衡focal loss ,相对于非 α 平衡形式可以略微提高它的准确度。
现在让我们把训练好的模型与之前的模型进行比较性能。雷锋网雷锋网雷锋网
Focal Loss 模型:
-
精确度:99.94%
-
总错误分类测试集样本:766 23 = 789,将错误数减少了一半。
混淆矩阵-focal loss模型
结论及导读
在这个快速教程中,我们为你的知识库引入了一个新的工具来处理高度不平衡的数据集 — Focal Loss。并通过一个具体的例子展示了如何在Keras 的 API 中定义 focal loss进而改善你的分类模型。
你可以在我的GitHub上找到这篇文章的完整源代码。
有关focal loss的详细情况,可去查阅论文https://arxiv.org/abs/1708.02002。
最初发表于www.dlology.com.
想要继续查看该篇文章相关链接和参考文献?
点击【非平衡数据集 focal loss 多类分类】即可访问:
https://ai.yanxishe.com/page/TextTranslation/1646
AI研习社今日推荐:2019 最新斯坦福 CS224nNLP 课程
自然语言处理(NLP)是信息时代最重要的技术之一,也是人工智能的关键部分。NLP的应用无处不在,因为人们几乎用语言进行交流:网络搜索,广告,电子邮件,客户服务,语言翻译,医学报告等。近年来,深度学习方法在许多不同的NLP任务中获得了非常高的性能,使用单个端到端神经模型,不需要传统的,任务特定的特征工程。在本课程中,学生将深入了解NLP深度学习的前沿研究。
课程链接:https://ai.yanxishe.com/page/groupDetail/59