天天说常识推理,究竟常识是什么?

天天说常识推理,究竟常识是什么? 9

知行编程网 人工智能前沿 2年前 (2022-02-04) 156 0

写这篇文章的时候,我去搜了搜常识的例子。 “睁开眼睛打喷嚏是不可能的。(还真没留意。)““北极熊是左撇子。“”长颈鹿没办法咳嗽。” 呃?好吧,我需要补一补自己的常识。那么这些所谓的“常识”真的是常识吗? 关于常识的研究近年来是比较火热的话题,在NLP领域,研究的方向主要有两条线,一是各种benchmark数据集的构建,各种刷榜以测试我们的模型是否具备某些类型的常识;二是常识知识图谱的构建,关注点主...

写Rap,编菜谱,你画我猜……这些 AI demo 我可以玩一天!

写Rap,编菜谱,你画我猜……这些 AI demo 我可以玩一天! 27

知行编程网 人工智能前沿 2年前 (2022-02-21) 105 0

上次写的那篇 《Prompt 综述+15篇最新论文梳理]》 有亿点点肝。这次给大家整点轻松好玩的(顺便给这篇推文打个广告,快去看!)。 不知道读者朋友们有没有遇到这样的情况:有新的论文发表了,很想跑作者的模型玩一玩,但是又懒得复现,所以只能压抑着自己的好奇心... 直到有一天,我发现 Hugging Face 有一个叫 Spaces 的板块,专门放一些机器学习 API 供大家试玩... 这就很有意...

预训练卷不动,可以卷输入预处理啊!

预训练卷不动,可以卷输入预处理啊! 24

知行编程网 人工智能前沿 2年前 (2022-02-13) 103 0

目前伴随着预训练预言模型的兴起,越来越多的 NLP 任务开始脱离对分词的依赖。通过 Fine-Tune Bert 这类预训练预言模型,能直接在下游任务上取得一个很好的结果。同时也有文章探讨中文分词在神经网络时代的必要性。对于分词任务本身也是如此。 那中文分词这个任务有还意义吗?或者换句话说中文分词是不是一个已经解决的任务。那么接下来笔者将会带大家梳理目前分词的研究方向和进展。 本文的思维导图如下图...

从论文到PPT,一键生成!从此报告不用愁!

从论文到PPT,一键生成!从此报告不用愁! 10

知行编程网 人工智能前沿 2年前 (2022-02-11) 86 0

俗话说:“行百步者半九十”,论文接受固然可喜可贺,然而这只是万里长征第一步。一份具有影响力的工作少不了一个后期的宣传,做好一个PPT绝对是一个技术活。不知道小伙伴们平时怎么做PPT,是复制粘贴长篇大论抑或提纲挈领图文并茂。直接拷贝论文固然简单,但是动辄大半页的文字实在很难让人提起兴趣,大家都明白应该抓住要点,并辅以图片,但是怎么总结文章各个板块并且合理排布呢,这又是个难题。 虽然论文千变万化,但是...

打脸!一个线性变换就能媲美“最强句子embedding”?

打脸!一个线性变换就能媲美“最强句子embedding”? 13

知行编程网 人工智能前沿 2年前 (2022-01-31) 83 0

小编:前几周小屋刚推完《还在用[CLS]?从BERT得到最强句子Embedding的打开方式!》,苏神就来打脸了_(:з」∠)_ BERT-flow来自论文《On the Sentence Embeddings from Pre-trained Language Models》[1],中了EMNLP 2020,主要是用flow模型校正了BERT出来的句向量的分布,从而使得计算出来的cos相似度更为...

【经验分享】数据科学与机器学习面试指南

【经验分享】数据科学与机器学习面试指南

知行编程网 人工智能前沿 2年前 (2022-03-02) 73 0

George Seif 最近分享了他在找工作时遇到的常见的面试问题,并与大家分享如何处理这些问题,23道面试题让你熟悉机器学习、数据科学常见知识点,建议大家学习和收藏。 Data Science and Machine Learning Interview Questions 数据科学与机器学习面试指南 啊!可怕的机器学习面试。面试前你可能觉得你自己什么都知道,直到你被测试的时候才发现情况并没有你...

碟中谍这么火,我用机器学习做个迷你推荐系统电影

碟中谍这么火,我用机器学习做个迷你推荐系统电影 10

知行编程网 python社区 2年前 (2022-03-17) 51 0

阿汤哥的碟中谍系列一直是我的最爱,惊险刺激,场面火爆。最近碟中谍6更是全面上映,一路从地上打到天上,尤其最后两架直升机追逐的场面非常好看!看完之后不过瘾,想想还有啥有类似碟中谍的好看的电影,不如我们用万能的Python+机器学习里的协同过滤的算法来写一个电影推荐系统。 01.准备数据集 机器学习离不开数据集,我们必须要有一些数据喂给机器学习,训练模型之后才能让算法运行起来,这里我们准备了两份数据集...

撑起百万亿参数模型想象力!英伟达发布新一代SuperPOD超算,AI算力新巅峰!

撑起百万亿参数模型想象力!英伟达发布新一代SuperPOD超算,AI算力新巅峰! 14

知行编程网 人工智能前沿 2年前 (2022-02-07) 50 0

周一,黄教主又很淡定的在自家厨房里开完了GTC发布会。 众所周知,NLP领域的模型一个比一个大,自从百亿参数的Google T5出来后,大部分AI研究者只能望着手里的蹩脚算力兴叹。如今动辄就是千亿、万亿参数模型,目前比较流行的V100主机显然已经无法满足需求。而本周刚落幕的GTC发布会,则为如今的万亿模型想象力的时代提供了一份极其重要的保障,不仅使得造万亿模型都成为了可能,甚至打开了通往十万亿乃至...

论文投稿新规则,不用跑出SOTA,还能“内定”发论文?!

论文投稿新规则,不用跑出SOTA,还能“内定”发论文?! 15

知行编程网 人工智能前沿 2年前 (2022-02-09) 50 0

从5月初开始,CV圈似乎开始了一阵MLP“文艺复兴”的热潮:在短短4天时间里,来自谷歌、清华、牛津、Facebook四个顶级研究机构的研究者分别独立发布了4篇关于MLP结构在图像任务上取得不错效果的论文。虽然研究本身令人兴奋,但发表的过程却让人一言难尽:来自牛津的小哥Luke就在reddit上抱怨到他正在进行的实验被谷歌的MLP-Mixer抢先发表(scoop)了,所以他正在撰写的实验总结也只能以...

再介绍一篇Contrastive Self-supervised Learning综述论文

再介绍一篇Contrastive Self-supervised Learning综述论文 23

知行编程网 人工智能前沿 2年前 (2022-01-29) 49 0

之前已经介绍过三篇自监督学习的综述:《怎样缓解灾难性遗忘?持续学习最新综述三篇!》。这是最近2020年10月arXiv上的又一篇论文"A Survey On Contrastive Self-supervised Learning"。 论文地址: https://arxiv.org/pdf/2011.00362.pdf Arxiv访问慢的小伙伴也可以在【夕小瑶的卖萌屋】订阅号后台回复关键词【122...

扫一扫二维码分享