知行编程网知行编程网  2022-02-10 09:00 知行编程网 隐藏边栏 |   抢沙发  3 
文章评分 0 次,平均分 0.0
ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?回归测试ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

熟悉软件工程的小伙伴们一定知道回归测试:修改了旧代码后,重新进行测试以确认修改没有引入新的错误或导致其他代码产生错误。

它可以大幅降低系统测试、维护升级等阶段的成本。

随着深度学习网络的不断发展,越来越多的系统都得到了广泛的工业界应用。长期的系统维护就显得格外重要了。

一方面,大家在用更大的模型,更多的数据不断提高SOTA效果;但同时,模型缺乏可解释性,同时也很难将大型神经网络分解为小单元去进行回归测试。往往,更新到新版本模型引入了更多的错误就会让模型准确率提高的优势消耗殆尽。

举个简单的例子,假设iPhone将人脸识别模型的准确率从90%提高到93%,新版本的模型纠正了旧模型中4%的问题但是新引入了1%的错误。按国内iPhone有7.3亿部手机用户来算,这意味着系统更新后,有近730万用户发现人脸识别不好用了。

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

这将导致严重的用户投诉,或者拒绝在以后继续更新系统。

Amazon的研究团队在实际应用中发现了这个问题,便在NLP领域提出了针对模型版本更新会引入新bug这个问题,并且在分类问题上进行了实验。文章被收录到ACL 2021 long Paper.

论文题目:
Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing Regressions In NLP Model Updates

论文链接:
https://arxiv.org/abs/2105.03048

如何测量回归错误

在这个任务设定中,我们考虑在一个固定的数据集和任务上训练模型,目标是在给定一个旧模型的基础上,训练一个和这个旧模型比较起来回归错误尽量小且准确率不受过多损失的新模型。想要解决回归错误的问题,我们首先需要一个指标来衡量两个不同版本模型的回归错误量。

在分类问题上,定义某个“回归测试集”上样本的负翻转率(Negative Flip Rate)为回归错误的指标:ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?对于每个回归测试集中的每个样本,如果旧模型预测正确而新模型预测错误,我们就把这些样本称作负翻转样本,而回归测试集中的负翻转样本所占比例就是在这个回归测试上,从该旧模型更新到该新模型的负翻转率,或者说回归错误率:

 

 

 

通常,回归测试集可以根据不同的测试需要,进行不同的设计。比如可以像归回测试中收集或选取一些关键样例组成回归测试集,或者是收集一部分用户反馈的常见错例,又或是直接选用数据集本身的validation集。

那么在正常更新中,常见NLP分类模型会产生多少回归错误呢?

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

作者在GLUE数据集上对不同版本的模型更新进行了测试:当我们选定旧模型为BERT-base,然后更新到其他版本的分类模型,包括

  1. 另外一个随机数下训练的BERT-base;
  2. 扩大模型规模BERT-large;
  3. 修改模型预训练设定RoBERTa-base;
  4. 更改预训练目标ELECTRA-base;
  5. 更改模型结构ALBERTA-base

实验发现,回归错误在不同更新和不同任务上普遍存在。此外

  1. 即使更新到完全相同的BERT-base,唯一的变化是微调参数中的随机种子,也会产生2%-5%的回归错误。
  2. 归回错误率往往比准确率的提升更高:例如在QQP上从BERT-base更新到其他模型时,归回错误率是准确率提升的3倍以上。
  3. 当更新到有更大差异的模型时,归回错误率会更高。

如何降低回归错误

现在我们已经确定了回归错误是普遍存在的,那么如何在维持新模型准确率不损失过多的条件下降低回归错误率呢?

作者首先将这个问题形式化,写成了带限制的优化问题的形式:

 

 

 

我们在用CrossEntropy优化原分类问题的同时,给新模型的训练加上一个条件:保证回归错误率为0. 回归错误率为0显然是一种理想状态,当然如果新模型完全复制旧模型就可以达到这个条件,但是这样我们就没有办法进一步改进模型了。所以在训练新模型的时候我们可以适当放宽第二个条件:

 

 

 

我们要求回归错误率小于一个常数。

在之前定义的回归错误率中,每一个样本的回归错误是一个离散的值:如果回归了则为1,否则为0。这种性质并不利于模型的训练,于是作者对模型训练损失函数中的回归惩罚项进行松弛:

 

 

 

利用新旧模型分类预测概率的kl散度;

 

 

 

又或是用新旧模型句子表示向量之间的l2距离,来作为松弛的回归损失。

再将原问题的条件进过一步拉格朗日松弛,便可以得到:

 

 

 

而这恰好和蒸馏学习的损失函数非常相似,我们便可以用类似的学习框架来减少回归错误。值得注意的一点是,普通的蒸馏学习在所有的训练样本上都会加入两模型的距离惩罚;然而在本文中,作者只在新模型的表现不如旧模型的样本(也就是回归了的样本)上加入距离惩罚项。

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?实验结果与分析ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

作者在GLUE的任务上对提出的方法进行测试。实验表明改进版蒸馏可以有效地减小回归错误率。当更新到不同构的模型(BERT-large)时,蒸馏学习的效果更为显著。作者同样列出了另外一种方法——集成学习在降低回归错误上的效果。集成学习可以有效减少不同模型之间的方差,从而达到降低部分回归的目的。可以看到,在更新到同构模型(BERT-base),变量仅有随机数,也就是只有方差引起的回归错误时,集成学习格外有效。

更进一步,作者对蒸馏时使用的损失对齐位置进行了选择:

  1. 使用分类概率的KL散度作为蒸馏损失函数;
  2. 使用最后一层句子表示向量的l2距离作为蒸馏损失函数;
  3. 使用所有层句子表示向量的l2距离作为蒸馏损失函数。
ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

实验表明,整体而言,仅用kl散度对齐分类概率分布是有效减少回归错误的方案。对于同构的模型更新,进行更深层次的对齐可能对降低回归错误有效。

之后,作者对集成学习和蒸馏学习为何可以有效减少回归错误进行了分析。

对集成学习而言,作者微调了20个模型作为旧模型,20个作为新模型,100个每五个一组作为20个集成模型。对所有新-旧,或者是集成-旧模型对进行回归错误测试。从下图中我们可以发现,集成学习可以使分布左移且方差变小,这正说明了集成模型从减小模型间方差而言可以有效减少回归错误。

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

更进一步,作者发现,可以通过找“中心模型”来使得单模型也可以获得集成模型类似的效果:我们计算新的20个单模型之间的回归错误,然后选取相对其他19个单一新模型平均回归最小的一个作为“中心模型”,然后测试它和20个旧模型的回归错误,结果发现这个中心模型也可以像集成模型一样减少回归错误。

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

分析完集成模型为何有效,作者同样对蒸馏模型的有效性进行了分析。他们利用Checklist的方法对训练好的模型进行语言行为学回归测试:Checklist方法可以自动生成一系列测试,每一组测试针对一个语言现象。

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

测试结果表明,在语言行为学角度,蒸馏可以有效地让新模型模仿旧模型的行为——减少那些它原本会预测错误的语言行为。但相比之下,集成模型虽然在原数据测试集上可能有更小的回归错误,但是从语言行为角度看反而增加了和旧模型不一致的行为。这恰恰是因为集成学习完全没有将旧模型的信息考虑进学习过程,蒸馏学习却可以从细节上模仿旧模型从而达到在语言行为上减少回归。

ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?总结ACL'21 | debug完的神经网络,如何测试是否仍然存在bug?

本文提出了NLP模型版本更新中会出现回归错误的问题,是一个全新的领域,且对实际模型上线和部署可能产生深远影响。同时文中也给出了有效减少这类错误的方法,并从语言行为学上分析了方法的有效性。

本文为原创文章,版权归所有,欢迎分享本文,转载请保留出处!

知行编程网
知行编程网 关注:1    粉丝:1
这个人很懒,什么都没写

发表评论

表情 格式 链接 私密 签到
扫一扫二维码分享