最新的自然语言理解领域分类的无超参数连续学习

最新的自然语言理解领域分类的无超参数连续学习 2

橙子 每日Arxiv 2年前 (2022-01-07) 7 0

Hyperparameter-free Continuous Learning for Domain Classification in Natural Language Understanding 今天,橙子姐姐带大家了解下NLP相关知识,我们一起来看一下吧~ 领域分类是自然语言理解 (NLU) 的基本任务,它通常需要快速适应新兴领域。这种约束使得不可能重新训练所有以前的域,即使它们可以被新模型...

陈丹琦“简单到令人沮丧”的屠榜之作:关系抽取新SOTA!

陈丹琦“简单到令人沮丧”的屠榜之作:关系抽取新SOTA! 5

知行编程网 人工智能前沿 2年前 (2022-01-26) 178 0

大家好,我是卖萌屋的JayJay,好久不见啦~ 最近在「夕小瑶@知识图谱与信息抽取」群里和群友交流时,JayJay发现了来自陈丹琦大佬(女神)的一篇最新的关系抽取SOTA《A Frustratingly Easy Approach for Joint Entity and Relation Extraction》,光看题目就让人眼前一亮:是啥子简单方法,让实体关系的联合抽取方法“沮丧”了? 仔细阅...

从技术到人才,清华-中国工程院知识智能联合实验室发布「2018自然语言处理研究报告」

从技术到人才,清华-中国工程院知识智能联合实验室发布「2018自然语言处理研究报告」 10

知行编程网 人工智能前沿 2年前 (2022-02-26) 10 0

  自然语言处理是现代技术最重要的组成部分之一,而最近清华大学和中国工程院知识智能联合实验室发布一份非常全面的 NLP 报告。该报告从 NLP 的概念介绍、研究与应用情况、专家学者概要以及发展趋势这 5 个方向纵览了这一领域的当下与未来,本文简要介绍了该报的概要信息,但读者可以从这些方面纵览 NLP 的发展面貌,完整内容请下载查看原报告。 报告下载地址: https://www.aminer.cn...

45个小众而实用的NLP开源字典和工具

45个小众而实用的NLP开源字典和工具 3

知行编程网 人工智能前沿 2年前 (2022-01-14) 42 0

一只小狐狸带你解锁NLP/ML/DL秘籍   前言 随着BERT、ERNIE、XLNet等预训练模型的流行,解决NLP问题时不用上预训练模型似乎总显得自己有点过时。但是这显然是不对的。 众所周知,无论训练还是推理,预训练模型都会消耗大量的算力,且高度依赖GPU计算资源。然而,有很多的NLP问题实际上仅仅靠字典+规则就可以做到够用,那么这时候强行上笨重的模型无异于高射炮打蚊子,性价比是非常低的。 于...

NLP太卷,我去研究蛋白质了~

NLP太卷,我去研究蛋白质了~ 16

知行编程网 人工智能前沿 2年前 (2022-01-26) 7 0

为什么“单词”被省略了:单词的本质是含义简单且可以高频重复的信息,句子的本质是经过多个单词不断消歧最终包含指向性含义的信息。从基因角度来看,大的片段相当于句子,对这些片段再分段起单词作用,密码子(每三个核苷酸)对应一个氨基酸,本质上还是字母。从蛋白质角度来看,二级结构中由氢键造成的较为规律的折叠、螺旋可以视作单词,能实现特定功能的蛋白质才称得上句子。 参考文献 理论基础,思想很重要,但论证得并不好...

如何让BERT拥有视觉感知能力?两种方式将视频信息注入BERT

如何让BERT拥有视觉感知能力?两种方式将视频信息注入BERT 35

知行编程网 人工智能前沿 2年前 (2022-01-15) 6 0

一只小狐狸带你解锁NLP/ML/DL秘籍 老板老板,听说BERT是个瞎子 此话怎讲? 它能理解语言,但是理解不了小夕的自拍! video-BERT了解一下 喵喵喵? AI的三大核心板块(CV/Speech/NLP)近几年都相继取得了非常大的发展和进步。但是正所谓成也萧何,败也萧何,深度学习一直在能力泛化和鲁棒性问题上饱受诟病,通用AI之路遥遥无期。 不过,近期得益于预训练模型的成功,似乎跨模态问题...

NLP未来,路在何方?12位巨佬联名指路!

NLP未来,路在何方?12位巨佬联名指路! 7

知行编程网 人工智能前沿 2年前 (2022-01-27) 8 0

CMU、华盛顿大学、南加州大学、MIT、MILA、密歇根大学、爱丁堡大学、DeepMind、伯克利、Apple…如果我说来自这些地方的dalao共同发表了一篇文章,你相信么?但别惊讶,在即将召开的EMNLP'20的长文列表里,我们就真找到了这样一篇“奇文”。一篇论文引得众星云集,那解决的必然不是小问题。这不,作者也很贴心地把他们所希望解决的问题斜体独行地放在了论文的首栏里—— Where is N...

当NLPer爱上CV:后BERT时代生存指南之VL-BERT篇

当NLPer爱上CV:后BERT时代生存指南之VL-BERT篇 13

知行编程网 人工智能前沿 2年前 (2022-01-15) 23 0

一只小狐狸带你解锁 炼丹术&NLP 秘籍 前言 BERT的出现让NLP发展实现了一个大飞跃,甚至有大佬说NLP已经没有可以做的啦,后面就是拼机器拼money了。但是,我认为任何领域的进步之后都会有更苛刻的要求,科研没有尽头,需求也永远无法满足。而多模态,要求机器拥有多维度的感知能力,就是一个更强的挑战。 关于这个话题也逐渐成为另外一个新热点。从19年到现在的论文数量就可见一斑。 所以,为了...

一人之力,刷爆三路榜单!信息抽取竞赛夺冠经验分享

一人之力,刷爆三路榜单!信息抽取竞赛夺冠经验分享 24

知行编程网 人工智能前沿 2年前 (2022-01-28) 33 0

在现如今的NLP竞赛中,信息抽取(IE)任务已占据半壁江山。来,让我们看看今年的一些IE竞赛都有啥: 看到如此众多的IE竞赛,心动的JayJay抽空参加了CHIP2020(中国健康信息处理大会)中的3个评测,最终获得了2个冠军、1个季军,具体如下表所示: 评测任务名称 所获名次 评测网址 中文医学实体关系抽取 第一 http://cips-chip.org.cn/2020/eval2 临床医学术语...

ACL2020 | 对话数据集Mutual:论对话逻辑,BERT还差的很远

ACL2020 | 对话数据集Mutual:论对话逻辑,BERT还差的很远 9

知行编程网 人工智能前沿 2年前 (2022-01-16) 76 0

一只小狐狸带你解锁 炼丹术&NLP 秘籍 前言 自然语言处理是人工智能领域的掌上明珠,而人机对话则是自然语言处理领域的最终极一环。 以BERT为代表的预训练模型为自然语言处理领域带来了新的春天,在人机对话问题上也不例外。检索式多轮对话任务中,最有名的对话数据集就是Ubuntu Dialogue Corpus了,ACL2018提出的DAM是76.7%的,然而基于BERT来做却直接刷到了85....

扫一扫二维码分享