橙子橙子  2022-01-07 09:57 知行编程网 隐藏边栏 |   抢沙发  7 
文章评分 0 次,平均分 0.0

Hyperparameter-free Continuous Learning for Domain Classification in Natural Language Understanding

今天,橙子姐姐带大家了解下NLP相关知识,我们一起来看一下吧~

最新的自然语言理解领域分类的无超参数连续学习

领域分类是自然语言理解 (NLU) 的基本任务,它通常需要快速适应新兴领域。这种约束使得不可能重新训练所有以前的域,即使它们可以被新模型访问。大多数现有的持续学习方法都存在准确性低和性能波动的问题,尤其是当新旧数据的分布显着不同时。事实上,现实世界的关键问题不在于旧数据的缺失,而在于用整个旧数据集重新训练模型的效率低下。是否有可能利用一些旧数据来产生高精度并保持稳定的性能,同时又不引入额外的超参数?

 

最新的自然语言理解领域分类的无超参数连续学习

 

在本文中,提出了一种无超参数的文本数据连续学习模型,可以在各种环境下稳定地产生高性能。具体来说,利用Fisher信息来选择可以“记录”原始模型关键信息的样本。此外,还提出了一种称为动态权重合并的新方案,以在再训练过程中实现超参数自由学习。大量实验表明,基线受到性能波动的影响,因此在实践中毫无用处。相反,提出的模型 CCFI 在平均准确度上显着并始终优于最佳的最先进方法高达 20%,并且 CCFI 的每个组件都有效地对整体性能做出了贡献。 本文提出了一个用于连续域分类的无超参数模型称为CCFI。CCFI可以通过Fisher信息采样选择的exemlars记录旧模型的信息,并通过动态权重合并进行有效的再训练。与现有模型的比较表明CCFI在各种实验环境下表现最好,无需额外的超参数搜索工作。

本文来自投稿,不代表知行编程网立场,版权归原作者所有,欢迎分享本文,转载请保留出处!

橙子
橙子 关注:2    粉丝:2
美丽又迷人的橙子姐姐~

发表评论

表情 格式 链接 私密 签到
扫一扫二维码分享