知行编程网知行编程网  2022-05-21 15:00 知行编程网 隐藏边栏 |   抢沙发  20 
文章评分 0 次,平均分 0.0

ACL2020结果已出,录用论文抢先看!

整理 | 深度学习这件小事

ACL2020结果已出,录用论文抢先看!
作为顶级国际会议,计算语言学协会(the Association for Computational Linguistics, ACL)年度会议在计算语言学和自然语言处理领域一直备受关注。

近日,ACL2020公布了录用结果,恭喜中奖的同学们!

   受COVID-19影响,会议将改为线上举行

第58届计算语言学协会(the Association for Computational Linguistics, ACL)年度会议原定于2020年7月5日至7月10日在美国西雅图举办。

因受COVID-19影响,ACL2020将改为线上举行,日期不变。ACL2020组委会将预先录制好演讲,并提供全套教程和讲习班,此外,还将组织各种现场活动,包括但不限于问答环节,在线指导,招聘会,自由会谈等。

ACL2020结果已出,录用论文抢先看!
ACL2020官网通知

   国内实验室录用情况

目前已有一些国内实验室分享了中稿情况,快来看一看吧。

清华大学CoAI小组六篇论文将在ACL2020展示


清华大学人工智能研究院交互智能(CoAI)小组有三篇长文和一篇demo论文被ACL录用,两篇文章被TACL录用并将在ACL 2020展示。以下是论文简介:

[1] KNIVES: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn Knowledge-driven Conversation (ACL 2020 long)
作者:周昊,郑楚杰,黄凯莉,黄民烈,朱小燕
简介:由于包含知识标注的多轮对话数据集的缺乏,知识驱动对话系统的研究在很大程度上受到了限制。在本文中,我们提出了一个中文的多领域的知识驱动的对话数据集KNIVES (Knowledge-driven Conversation Dataset),其使用知识图谱为多轮对话中使用的知识进行标注。我们的语料库包含了来自三个领域(电影、音乐和旅游)的4.5K个对话,86K个句子,平均轮数为19.0。这些对话包含了相关话题的深度讨论,以及多个话题之间的自然过渡。为了方便在这个数据集上的研究工作,我们提供了几个生成式和检索式的基准对话模型。实验结果显示,这些模型可以通过引入背景知识来增强模型的性能,然而利用知识进行多轮对话建模仍有很大的提升空间,有待进一步研究。结果还显示,对话模型在不同领域之间的性能差异明显,说明迁移学习和领域转换方面的工作值得进一步研究。本文提出的数据集和基准模型将会公开供学术研究使用。

[2] Multi-Agent Task-Oriented Dialog Policy Learning with Role-Aware Reward Decomposition (ACL 2020 long)
作者:高信龙一,梁润泽,黄民烈
简介:近年来,许多研究都采用用户模拟器来获得大量的模拟用户体验,以满足强化学习算法在对话策略中的训练。然而,建模一个逼真的用户模拟器是具有挑战性的。为了避免构建用户模拟器,我们提出了多代理对话策略学习法MADPL,将系统和用户均视作对话代理。两个代理之间交互对话并联合学习。该方法基于行为者-批评者框架来促进预训练并提高可扩展性。我们还提出了混合价值网络HVN用于角色感知的奖励分解,以整合各代理在任务导向型对话中角色特定的领域知识。结果表明,我们的方法可以同时成功地构建一个系统策略和一个用户策略,两个代理通过合理的对话交互可以达成较高的任务成功率。

[3] A Self-Training Method for Machine Reading Comprehension with Soft Evidence Extraction (ACL 2020 long)
作者:牛艺霖,焦方锴,周曼桐,姚婷,许静芳,黄民烈
简介:基于神经网络的阅读理解模型大多由两个模块组成:证据抽取模块和答案预测模块。前者从参考文档中抽取和问题相关的内容,后者基于抽取出来的证据回答问题。证据标签对于训练证据抽取模块而言很重要,然而,在非抽取式阅读理解任务中,我们无法自动化地获取证据标签,并且人工标注费时费力。为了解决这个问题,我们提出了一种迭代式的自训练方法。在每一轮迭代中,首先用标准答案和上一轮生成的证据标签作为监督,训练阅读理解模型;然后使用该模型生成新的证据标签,并从中选出置信度较高的标签,作为下一轮迭代的监督信号。我们在三个阅读理解任务、共七个数据集上进行了实验,结果表明,在不同的阅读理解模型、任务设定下,使用自训练方法后,证据抽取性能和任务相关指标都有提升。

[4] ConvLab-2: An Open-Source Toolkit for Building, Evaluating, and Diagnosing Dialogue Systems (ACL 2020 demo track, collaboration with MSR)
作者:朱祺,张正,方言,李响,高信龙一,李金超,彭宝霖,高剑锋,朱小燕,黄民烈
简介:为了便于研究人员用最新的模型轻松搭建对话系统,进行端到端评估,以及诊断系统的缺陷,我们开发了ConvLab-2开源工具包。作为ConvLab的后继者,ConvLab-2优化了接口和框架,集成了更新更强大的模型,支持多种数据集。除此之外,我们还开发了分析工具和交互工具。分析工具可用于从模拟的对话中提取丰富的统计信息,总结常见的错误,便于对系统进行错误分析和改进。交互工具将对话系统部署在后台,使其通过网页端的用户界面与真人交互,各个模块的输出均可实时查看和修改。ConvLab-2也将作为第九届 Dialog System Technology Challenge (Multi-domain Task-oriented Dialog Challenge II track) 使用的平台于开赛前公开。

[5] CrossWOZ: A Large-Scale Chinese Cross-Domain Task-Oriented Dialogue Dataset (TACL)
作者:朱祺,黄凯莉,张正,朱小燕,黄民烈
简介:为了推动多领域(特别是跨领域)任务导向对话的研究和填补中文任务导向对话数据的空白,我们提出了CrossWOZ,第一个大规模跨领域中文任务导向对话数据集。数据集包含6K个对话,102K个句子,涉及5个领域(景点、酒店、餐馆、地铁、出租)。平均每个对话涉及3.2个领域,远超之前的多领域对话数据集。相比之前的多领域对话数据集,我们精心设计的用户目标使对话中领域之间的依赖性更强,领域切换更自然。数据集标注信息全面,提供了对话双方的对话意图和双方的对话状态,可以用于任务导向对话系统中各个任务的研究。为了便于对比和评估模型,我们提供了流水线式对话系统各个模块的基准模型以及用户模拟器。实验结果说明,跨领域的对话在多个任务上都具有挑战性。
代码:https://github.com/thu-coai/CrossWOZ

[6] A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation (TACL)
作者:关健,黄斐,赵志浩,朱小燕,黄民烈
简介:故事生成,即根据给定的上文生成合理的故事,是一项重要但具有挑战性的任务。现有的神经语言生成模型(例如GPT-2)尽管在建模流畅性和局部连贯性方面取得了成功,但仍然会产生重复、逻辑冲突以及缺乏长距离连贯性的问题。这是由于这些生成模型难以关联相关常识、理解因果关系以及按适当的时间顺序来规划故事中的实体和事件。在本文中,我们为常识性故事生成设计了一个知识增强型的预训练模型,利用在外部知识库中常识知识上的后训练来生成合理的故事。进一步地,我们采用了多任务学习来捕获合理故事中句子之间的因果和时间依存关系,在微调过程同时训练语言模型及区分真假故事。自动和人工评估表明,与最好的生成模型相比,我们的模型可以在逻辑性和全局一致性上生成更合理的故事。
代码:https://github.com/thu-coai/CommonsenseStoryGen

哈工大SCIR八篇长文被ACL 2020录用


哈尔滨工业大学社会计算与信息检索研究中心有八篇长文被ACL 2020录用,下面是论文列表,也可查看论文介绍:

[1] Conversational Graph Grounded Policy Learning for Open-Domain Conversation Generation
作者:徐俊,王海峰,牛正雨,吴华,车万翔,刘挺 

[2] Document Modeling with Graph Attention Networks for Multi-grained Machine Reading Comprehension
作者:郑博,文灏洋,梁耀波,段楠,车万翔,Daxin Jiang,周明,刘挺

[3] Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog
作者:覃立波,徐啸,车万翔,张岳,刘挺

[4] Few-shot Slot Tagging with Collapsed Dependency Transfer and Label-enhanced Task-adaptive Projection Network
作者:侯宇泰,车万翔,赖勇魁,周之涵,刘一佳,刘晗,刘挺

[5] Generate, Delete and Rewrite: A Three-Stage Framework for Improving Persona Consistency of Dialogue Generation
作者:宋皓宇,王琰,张伟男,刘晓江,刘挺

[6] How Does Selective Mechanism Improve Self-Attention Networks?
作者:耿昕伟,王龙跃,王星,秦兵,刘挺,涂兆鹏

[7] Slot-consistent NLG for Task-oriented Dialogue System with Iterative Rectification Network
作者:李扬名,姚开盛,覃立波,车万翔,李小龙,刘挺

[8] Towards Conversational Recommendation over Multi-Type Dialogs
作者:柳泽明,王海峰,牛正雨,吴华,车万翔,刘挺

   部分已分享paper

[1] Data Manipulation: Towards Effective Instance Learning for Neural Dialogue Generation via Learning to Augment and Reweight
作者:Hengyi Cai, Hongshen Chen, Yonghao Song, Cheng Zhang, Xiaofang Zhao, Dawei Yin
链接:https://arxiv.org/pdf/2004.02594 

[2] Distinguish Confusing Law Articles for Legal Judgment Prediction
作者:Nuo Xu, Pinghui Wang, Long Chen, Li Pan, Xiaoyan Wang, Junzhou Zhao
链接:https://arxiv.org/pdf/2004.02557 

[3] An analysis of the utility of explicit negative examples to improve the syntactic abilities of neural language models
作者:Hiroshi Noji, Hiroya Takamura
链接: https://arxiv.org/pdf/2004.02451 
备注:To appear at ACL 2020 (long paper)

[4] Hierarchical Entity Typing via Multi-level Learning to Rank
作者:Tongfei Chen, Yunmo Chen, Benjamin Van Durme
链接:https://arxiv.org/pdf/2004.02286 
备注:Accepted at ACL 2020

[5] AR: Auto-Repair the Synthetic Data for Neural Machine Translation
作者:Shanbo Cheng, Shaohui Kuang, Rongxiang Weng, Heng Yu, Changfeng Zhu, Weihua Luo
链接:https://arxiv.org/pdf/2004.02196 

[6] FastBERT: a Self-distilling BERT with Adaptive Inference Time
作者:Weijie Liu, Peng Zhou, Zhe Zhao, Zhiruo Wang, Haotang Deng, Qi Ju
链接:https://arxiv.org/pdf/2004.02178 

[7] Unsupervised Domain Clusters in Pretrained Language Models
作者:Roee Aharoni, Yoav Goldberg
链接:https://arxiv.org/pdf/2004.02105 
备注:Accepted as a long paper in ACL 2020

[8] Generating Hierarchical Explanations on Text Classification via Feature Interaction Detection
作者:Hanjie Chen, Guangtao Zheng, Yangfeng Ji
链接:https://arxiv.org/pdf/2004.02015 

[9] Talk to Papers: Bringing Neural Question Answering to Academic Search
作者:Tianchang Zhao, Kyusong Lee
链接:https://arxiv.org/pdf/2004.02002 
备注:demo paper

[10] Hooks in the Headline: Learning to Generate Headlines with Controlled Styles
作者:Di Jin, Zhijing Jin, Joey Tianyi Zhou, Lisa Orii, Peter Szolovits
链接:https://arxiv.org/pdf/2004.01980 

[11] TAPAS: Weakly Supervised Table Parsing via Pre-training
作者:Jonathan Herzig, Paweł Krzysztof Nowak, Thomas Müller, Francesco Piccinno, Julian Martin Eisenschlos
链接:https://arxiv.org/pdf/2004.02349 


参考链接:
CoAI小组六篇论文将在ACL2020展示

https://mp.weixin.qq.com/s/DtsVusTXQpcNd6kwbjlxMA

哈工大SCIR八篇长文被ACL 2020录用

https://mp.weixin.qq.com/s/sFUO02l-RfF7OsAMAoi_lQ
ACL2020官网
https://acl2020.org/


<pre style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;min-height: 1em;letter-spacing: 0.544px;white-space: normal;color: rgb(0, 0, 0);font-family: -apple-system-font, system-ui, "Helvetica Neue", "PingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;widows: 1;line-height: 1.75em;margin-left: 0px;margin-right: 0px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;box-sizing: border-box !important;overflow-wrap: break-word !important;">—</span></strong>完<strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;box-sizing: border-box !important;overflow-wrap: break-word !important;">—</span></strong></span></strong></span></strong></section><section style="max-width: 100%;letter-spacing: 0.544px;white-space: normal;font-family: -apple-system-font, system-ui, "Helvetica Neue", "PingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;widows: 1;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section powered-by="xiumi.us" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-top: 15px;margin-bottom: 25px;max-width: 100%;opacity: 0.8;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section powered-by="xiumi.us" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-top: 15px;margin-bottom: 25px;max-width: 100%;opacity: 0.8;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-bottom: 15px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;color: rgb(127, 127, 127);font-size: 12px;font-family: sans-serif;line-height: 25.5938px;letter-spacing: 3px;margin-left: 0px;margin-right: 0px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(0, 0, 0);box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;font-size: 16px;font-family: 微软雅黑;caret-color: red;box-sizing: border-box !important;overflow-wrap: break-word !important;">为您推荐</span></strong></span></section><p style="margin: 5px 32px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;">一份来自亚马逊工程师的Google面试指南,GitHub收获9.8万星,已翻译成中文<br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"  /></p><section style="margin: 5px 0px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(87, 107, 149);font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">MIT最新深度学习入门课,安排起来!</span></section><section style="margin: 5px 0px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(87, 107, 149);font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">有了这个神器,轻松用 Python 写个 App</span></section><section style="margin: 5px 0px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(87, 107, 149);font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">「最全」实至名归,NumPy 官方早有中文教程</span></section><p style="margin: 5px 32px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;">Manning大神牵头,斯坦福开源Python版NLP库Stanza:涵盖66种语言</p></section></section></section></section></section></section></section></section>
ACL2020结果已出,录用论文抢先看!

本篇文章来源于: 深度学习这件小事

本文为原创文章,版权归所有,欢迎分享本文,转载请保留出处!

知行编程网
知行编程网 关注:1    粉丝:1
这个人很懒,什么都没写

发表评论

表情 格式 链接 私密 签到
扫一扫二维码分享