李航教授展望自然语言对话领域:现状与未来

李航教授展望自然语言对话领域:现状与未来 3

知行编程网 人工智能前沿 2年前 (2022-02-26) 21 0

  作者:李航 编译:机器之心(禁止二次转载)、小事 原华为诺亚方舟实验室主任、现已加入字节跳动 AI Lab的李航教授近日发表博客,对自然语言对话领域的现状和最新进展进行总结,并展望了未来的走向。本文内容朴实,既重视整体格局和跨领域思维,又能着眼于现实条件,富有启发性。   引言 语音助手、智能客服、智能音箱、聊天机器人,近年各种自然语言对话系统如雨后春笋般地涌现,有让人眼花缭乱的感觉。一方面对...

从技术到人才,清华-中国工程院知识智能联合实验室发布「2018自然语言处理研究报告」

从技术到人才,清华-中国工程院知识智能联合实验室发布「2018自然语言处理研究报告」 10

知行编程网 人工智能前沿 2年前 (2022-02-26) 10 0

  自然语言处理是现代技术最重要的组成部分之一,而最近清华大学和中国工程院知识智能联合实验室发布一份非常全面的 NLP 报告。该报告从 NLP 的概念介绍、研究与应用情况、专家学者概要以及发展趋势这 5 个方向纵览了这一领域的当下与未来,本文简要介绍了该报的概要信息,但读者可以从这些方面纵览 NLP 的发展面貌,完整内容请下载查看原报告。 报告下载地址: https://www.aminer.cn...

Google Research新成果,让表格理解和检索更上一层楼!

Google Research新成果,让表格理解和检索更上一层楼! 10

知行编程网 人工智能前沿 2年前 (2022-02-18) 123 0

如何更好地理解自然语言查询问题与表格信息?Google Research给出了一个改进版Transformer,一起来看看吧! 表格以结构化方式存储信息,广泛地存在于web世界中。表格最为常见的一种用法就是人们查询其中的信息。在很多情况下,我们可能只能够用自然语言描述出心中的查询条件,那么,自然语言处理技术是否能理解我们的问题,理解表格信息,帮助我们自动地从表格中检索答案呢?那就让Transfor...

学完文本知识,我就直接看懂图片了!

学完文本知识,我就直接看懂图片了! 18

知行编程网 人工智能前沿 2年前 (2022-02-16) 51 0

2020年, OpenAI的大作GPT-3 (Language Models are few shot learners) 横空出世,震惊整个NLP/AI圈。大家在惊叹于GPT-3 1750B参数的壕无人性同时,想必对GPT-3中的Prompt方法印象深刻。简单来说,(GPT-3中的)Prompt就是为输入的数据提供模板(例如对于翻译任务 Translate English to Chinese:...

从论文到PPT,一键生成!从此报告不用愁!

从论文到PPT,一键生成!从此报告不用愁! 10

知行编程网 人工智能前沿 2年前 (2022-02-11) 86 0

俗话说:“行百步者半九十”,论文接受固然可喜可贺,然而这只是万里长征第一步。一份具有影响力的工作少不了一个后期的宣传,做好一个PPT绝对是一个技术活。不知道小伙伴们平时怎么做PPT,是复制粘贴长篇大论抑或提纲挈领图文并茂。直接拷贝论文固然简单,但是动辄大半页的文字实在很难让人提起兴趣,大家都明白应该抓住要点,并辅以图片,但是怎么总结文章各个板块并且合理排布呢,这又是个难题。 虽然论文千变万化,但是...

超硬核 ICML’21 | 如何使自然语言生成提速五倍,且显存占用减低99%

超硬核 ICML’21 | 如何使自然语言生成提速五倍,且显存占用减低99% 8

知行编程网 人工智能前沿 2年前 (2022-02-10) 32 0

我们忽略掉引言和介绍,直接把工作的效果丢上来,相信就足够令自然语言生成的相关同学心动——对于任何一个已有的Transformer生成模型,只需根据本文算法更改attention的计算顺序,就可以实现 成倍速度提升! 显存使用量降低到原来百分之个位数! 不需要重新训练! 保证输出结果与原来完全一致! 以BART为例,本文方法可以把显存使用率降低为原来的96分之一!是的,不需要在效率和质量中做权衡!无...

我删掉了Transformer中的这几层…性能反而变好了?

我删掉了Transformer中的这几层…性能反而变好了? 13

知行编程网 人工智能前沿 2年前 (2022-02-03) 14 0

基于Transformer结构的各类语言模型(Bert基于其encoder,Gpt-2基于其decoder)早已经在各类NLP任务上大放异彩,面对让人眼花缭乱的transformer堆叠方式,你是否也会感到迷茫?没关系,现在让我们回到最初,再次看看transformer 本来的模样——Rethinking the Value of Transformer Components。该文收录已于COLI...

一人之力,刷爆三路榜单!信息抽取竞赛夺冠经验分享

一人之力,刷爆三路榜单!信息抽取竞赛夺冠经验分享 24

知行编程网 人工智能前沿 2年前 (2022-01-28) 33 0

在现如今的NLP竞赛中,信息抽取(IE)任务已占据半壁江山。来,让我们看看今年的一些IE竞赛都有啥: 看到如此众多的IE竞赛,心动的JayJay抽空参加了CHIP2020(中国健康信息处理大会)中的3个评测,最终获得了2个冠军、1个季军,具体如下表所示: 评测任务名称 所获名次 评测网址 中文医学实体关系抽取 第一 http://cips-chip.org.cn/2020/eval2 临床医学术语...

Transformer哪家强?Google爸爸辨优良!

Transformer哪家强?Google爸爸辨优良! 13

知行编程网 人工智能前沿 2年前 (2022-01-28) 12 0

2017年Attention is all you need横空出世,Transformer横扫机器翻译,隔年诞生的BERT建立在层层堆叠的Transformer之上,凭借这个平平无奇的Attention点乘模型一举刷新了各种沉积许久的榜单,一夜间仿佛不懂Transformer,都不敢说自己是NLPer了,曾经最心爱的RNN也瞬间黯然失色。 Transformer有着简易的的结构、SOTA的能力,...

NLP未来,路在何方?12位巨佬联名指路!

NLP未来,路在何方?12位巨佬联名指路! 7

知行编程网 人工智能前沿 2年前 (2022-01-27) 8 0

CMU、华盛顿大学、南加州大学、MIT、MILA、密歇根大学、爱丁堡大学、DeepMind、伯克利、Apple…如果我说来自这些地方的dalao共同发表了一篇文章,你相信么?但别惊讶,在即将召开的EMNLP'20的长文列表里,我们就真找到了这样一篇“奇文”。一篇论文引得众星云集,那解决的必然不是小问题。这不,作者也很贴心地把他们所希望解决的问题斜体独行地放在了论文的首栏里—— Where is N...

扫一扫二维码分享