天天说常识推理,究竟常识是什么? 9
写这篇文章的时候,我去搜了搜常识的例子。 “睁开眼睛打喷嚏是不可能的。(还真没留意。)““北极熊是左撇子。“”长颈鹿没办法咳嗽。” 呃?好吧,我需要补一补自己的常识。那么这些所谓的“常识”真的是常识吗? 关于常识的研究近年来是比较火热的话题,在NLP领域,研究的方向主要有两条线,一是各种benchmark数据集的构建,各种刷榜以测试我们的模型是否具备某些类型的常识;二是常识知识图谱的构建,关注点主...
写这篇文章的时候,我去搜了搜常识的例子。 “睁开眼睛打喷嚏是不可能的。(还真没留意。)““北极熊是左撇子。“”长颈鹿没办法咳嗽。” 呃?好吧,我需要补一补自己的常识。那么这些所谓的“常识”真的是常识吗? 关于常识的研究近年来是比较火热的话题,在NLP领域,研究的方向主要有两条线,一是各种benchmark数据集的构建,各种刷榜以测试我们的模型是否具备某些类型的常识;二是常识知识图谱的构建,关注点主...
上次写的那篇 《Prompt 综述+15篇最新论文梳理]》 有亿点点肝。这次给大家整点轻松好玩的(顺便给这篇推文打个广告,快去看!)。 不知道读者朋友们有没有遇到这样的情况:有新的论文发表了,很想跑作者的模型玩一玩,但是又懒得复现,所以只能压抑着自己的好奇心... 直到有一天,我发现 Hugging Face 有一个叫 Spaces 的板块,专门放一些机器学习 API 供大家试玩... 这就很有意...
目前伴随着预训练预言模型的兴起,越来越多的 NLP 任务开始脱离对分词的依赖。通过 Fine-Tune Bert 这类预训练预言模型,能直接在下游任务上取得一个很好的结果。同时也有文章探讨中文分词在神经网络时代的必要性。对于分词任务本身也是如此。 那中文分词这个任务有还意义吗?或者换句话说中文分词是不是一个已经解决的任务。那么接下来笔者将会带大家梳理目前分词的研究方向和进展。 本文的思维导图如下图...
俗话说:“行百步者半九十”,论文接受固然可喜可贺,然而这只是万里长征第一步。一份具有影响力的工作少不了一个后期的宣传,做好一个PPT绝对是一个技术活。不知道小伙伴们平时怎么做PPT,是复制粘贴长篇大论抑或提纲挈领图文并茂。直接拷贝论文固然简单,但是动辄大半页的文字实在很难让人提起兴趣,大家都明白应该抓住要点,并辅以图片,但是怎么总结文章各个板块并且合理排布呢,这又是个难题。 虽然论文千变万化,但是...
小编:前几周小屋刚推完《还在用[CLS]?从BERT得到最强句子Embedding的打开方式!》,苏神就来打脸了_(:з」∠)_ BERT-flow来自论文《On the Sentence Embeddings from Pre-trained Language Models》[1],中了EMNLP 2020,主要是用flow模型校正了BERT出来的句向量的分布,从而使得计算出来的cos相似度更为...
George Seif 最近分享了他在找工作时遇到的常见的面试问题,并与大家分享如何处理这些问题,23道面试题让你熟悉机器学习、数据科学常见知识点,建议大家学习和收藏。 Data Science and Machine Learning Interview Questions 数据科学与机器学习面试指南 啊!可怕的机器学习面试。面试前你可能觉得你自己什么都知道,直到你被测试的时候才发现情况并没有你...
阿汤哥的碟中谍系列一直是我的最爱,惊险刺激,场面火爆。最近碟中谍6更是全面上映,一路从地上打到天上,尤其最后两架直升机追逐的场面非常好看!看完之后不过瘾,想想还有啥有类似碟中谍的好看的电影,不如我们用万能的Python+机器学习里的协同过滤的算法来写一个电影推荐系统。 01.准备数据集 机器学习离不开数据集,我们必须要有一些数据喂给机器学习,训练模型之后才能让算法运行起来,这里我们准备了两份数据集...
周一,黄教主又很淡定的在自家厨房里开完了GTC发布会。 众所周知,NLP领域的模型一个比一个大,自从百亿参数的Google T5出来后,大部分AI研究者只能望着手里的蹩脚算力兴叹。如今动辄就是千亿、万亿参数模型,目前比较流行的V100主机显然已经无法满足需求。而本周刚落幕的GTC发布会,则为如今的万亿模型想象力的时代提供了一份极其重要的保障,不仅使得造万亿模型都成为了可能,甚至打开了通往十万亿乃至...
从5月初开始,CV圈似乎开始了一阵MLP“文艺复兴”的热潮:在短短4天时间里,来自谷歌、清华、牛津、Facebook四个顶级研究机构的研究者分别独立发布了4篇关于MLP结构在图像任务上取得不错效果的论文。虽然研究本身令人兴奋,但发表的过程却让人一言难尽:来自牛津的小哥Luke就在reddit上抱怨到他正在进行的实验被谷歌的MLP-Mixer抢先发表(scoop)了,所以他正在撰写的实验总结也只能以...
之前已经介绍过三篇自监督学习的综述:《怎样缓解灾难性遗忘?持续学习最新综述三篇!》。这是最近2020年10月arXiv上的又一篇论文"A Survey On Contrastive Self-supervised Learning"。 论文地址: https://arxiv.org/pdf/2011.00362.pdf Arxiv访问慢的小伙伴也可以在【夕小瑶的卖萌屋】订阅号后台回复关键词【122...
推广返利