45个小众而实用的NLP开源字典和工具 3
一只小狐狸带你解锁NLP/ML/DL秘籍 前言 随着BERT、ERNIE、XLNet等预训练模型的流行,解决NLP问题时不用上预训练模型似乎总显得自己有点过时。但是这显然是不对的。 众所周知,无论训练还是推理,预训练模型都会消耗大量的算力,且高度依赖GPU计算资源。然而,有很多的NLP问题实际上仅仅靠字典+规则就可以做到够用,那么这时候强行上笨重的模型无异于高射炮打蚊子,性价比是非常低的。 于...
一只小狐狸带你解锁NLP/ML/DL秘籍 前言 随着BERT、ERNIE、XLNet等预训练模型的流行,解决NLP问题时不用上预训练模型似乎总显得自己有点过时。但是这显然是不对的。 众所周知,无论训练还是推理,预训练模型都会消耗大量的算力,且高度依赖GPU计算资源。然而,有很多的NLP问题实际上仅仅靠字典+规则就可以做到够用,那么这时候强行上笨重的模型无异于高射炮打蚊子,性价比是非常低的。 于...
非事实类问题大多数研究关注于事实类问题,而非事实类问题的研究相对不足,包括数学类的问题、判断类的问题等。 [EMNLP 2019] NumNet: Machine Reading Comprehension with Numerical Reasoning 数学类问题 [NAACL19] MathQA: Towards Interpretable Math Word Problem Solving...
无论是做研究还是解决业务问题,做数据集都是绕不开的问题。很多刚入行的同学觉得发布一个数据集是最容易灌水的了,燃鹅如果你真的做过就会发现,随意产生一个数据集很容易,但是若以解决实际问题或让大家能在上面磕盐玩耍为目的,来产生一个能用的、质量高的、难度适中的数据集一点都不容易,超级费时费脑子甚至费钱好不好(╯°□°)╯︵┻━┻ 虽然并没有刻意的研究数据集该怎么做,不过因为项目或研究需要,已经被赶鸭子上架...
非常重要的前言 无论你是PM还是QA还是java开发,请不要拿本文刺激你身边的NLP工程师,人生已经如此的艰难,有些事情就 击溃拼音标注系统篇 写给卖豆芽的对联,我想打印出拼音 长长长长长长长,长长长长长长长。 (solution: changzhangchangzhangchangchangzhangzhangchangzhangchangzhangzhangchang, zhangchan...
前言 关于本文的阅读方式: 这不是一篇学术综述,也不是单纯的科普文,而是试图从目标出发来渐进式的思考对话系统的设计,顺便科普。因此本文不适合跳读,也不适合5分钟式浏览,而是适合在夜深人静的时候一个人... 我知道你们夜深人静的时候肯定不会看这个的( ̄∇ ̄) 言归正传,其实本文最主要的目的还是试图理清楚对话系统的若干概念,对话是一个很大的概念,有非常非常多的子问题,刚入坑的小伙伴...
推广返利