李航教授展望自然语言对话领域:现状与未来

李航教授展望自然语言对话领域:现状与未来 3

知行编程网 人工智能前沿 2年前 (2022-02-26) 21 0

  作者:李航 编译:机器之心(禁止二次转载)、小事 原华为诺亚方舟实验室主任、现已加入字节跳动 AI Lab的李航教授近日发表博客,对自然语言对话领域的现状和最新进展进行总结,并展望了未来的走向。本文内容朴实,既重视整体格局和跨领域思维,又能着眼于现实条件,富有启发性。   引言 语音助手、智能客服、智能音箱、聊天机器人,近年各种自然语言对话系统如雨后春笋般地涌现,有让人眼花缭乱的感觉。一方面对...

从技术到人才,清华-中国工程院知识智能联合实验室发布「2018自然语言处理研究报告」

从技术到人才,清华-中国工程院知识智能联合实验室发布「2018自然语言处理研究报告」 10

知行编程网 人工智能前沿 2年前 (2022-02-26) 10 0

  自然语言处理是现代技术最重要的组成部分之一,而最近清华大学和中国工程院知识智能联合实验室发布一份非常全面的 NLP 报告。该报告从 NLP 的概念介绍、研究与应用情况、专家学者概要以及发展趋势这 5 个方向纵览了这一领域的当下与未来,本文简要介绍了该报的概要信息,但读者可以从这些方面纵览 NLP 的发展面貌,完整内容请下载查看原报告。 报告下载地址: https://www.aminer.cn...

超硬核 ICML’21 | 如何使自然语言生成提速五倍,且显存占用减低99%

超硬核 ICML’21 | 如何使自然语言生成提速五倍,且显存占用减低99% 8

知行编程网 人工智能前沿 2年前 (2022-02-10) 32 0

我们忽略掉引言和介绍,直接把工作的效果丢上来,相信就足够令自然语言生成的相关同学心动——对于任何一个已有的Transformer生成模型,只需根据本文算法更改attention的计算顺序,就可以实现 成倍速度提升! 显存使用量降低到原来百分之个位数! 不需要重新训练! 保证输出结果与原来完全一致! 以BART为例,本文方法可以把显存使用率降低为原来的96分之一!是的,不需要在效率和质量中做权衡!无...

Transformer哪家强?Google爸爸辨优良!

Transformer哪家强?Google爸爸辨优良! 13

知行编程网 人工智能前沿 2年前 (2022-01-28) 12 0

2017年Attention is all you need横空出世,Transformer横扫机器翻译,隔年诞生的BERT建立在层层堆叠的Transformer之上,凭借这个平平无奇的Attention点乘模型一举刷新了各种沉积许久的榜单,一夜间仿佛不懂Transformer,都不敢说自己是NLPer了,曾经最心爱的RNN也瞬间黯然失色。 Transformer有着简易的的结构、SOTA的能力,...

45个小众而实用的NLP开源字典和工具

45个小众而实用的NLP开源字典和工具 3

知行编程网 人工智能前沿 2年前 (2022-01-14) 42 0

一只小狐狸带你解锁NLP/ML/DL秘籍   前言 随着BERT、ERNIE、XLNet等预训练模型的流行,解决NLP问题时不用上预训练模型似乎总显得自己有点过时。但是这显然是不对的。 众所周知,无论训练还是推理,预训练模型都会消耗大量的算力,且高度依赖GPU计算资源。然而,有很多的NLP问题实际上仅仅靠字典+规则就可以做到够用,那么这时候强行上笨重的模型无异于高射炮打蚊子,性价比是非常低的。 于...

ACL2020 | 对话数据集Mutual:论对话逻辑,BERT还差的很远

ACL2020 | 对话数据集Mutual:论对话逻辑,BERT还差的很远 9

知行编程网 人工智能前沿 2年前 (2022-01-16) 76 0

一只小狐狸带你解锁 炼丹术&NLP 秘籍 前言 自然语言处理是人工智能领域的掌上明珠,而人机对话则是自然语言处理领域的最终极一环。 以BERT为代表的预训练模型为自然语言处理领域带来了新的春天,在人机对话问题上也不例外。检索式多轮对话任务中,最有名的对话数据集就是Ubuntu Dialogue Corpus了,ACL2018提出的DAM是76.7%的,然而基于BERT来做却直接刷到了85....

扫一扫二维码分享