谷歌重磅:可以优化自己的优化器!手动调参或将成为历史!?

谷歌重磅:可以优化自己的优化器!手动调参或将成为历史!? 7

知行编程网 人工智能前沿 2年前 (2022-01-25) 5 0

背景 Google Brain团队发布的一篇最新论文在外网引发热议,或将成为Deep Learning发展历程上里程碑式的工作。它所讨论的,是所有AI行业者都要面对的——Deep Learning中的优化问题。也就是,如何更好地训练一个模型。 深度模型的训练过程是非常困难的,常见的挑战包括:陷入局部极小值、梯度消失/爆炸、长期依赖(long dependency)等等。但对于大多数算法工程师来说其...

资源|帝国理工学院134页机器学习中的数学知识

资源|帝国理工学院134页机器学习中的数学知识 6

知行编程网 人工智能前沿 2年前 (2022-03-02) 6 0

转自 | 专知     整理 | 小事 【导读】最近,帝国理工学院计算机系统计机器学习的老师Marc Deisenroth撰写的134页"Mathematics for Machine Learning" 机器学习中的数学知识,深入浅出地介绍了常见的机器学习方法和其应用,比如主成分分析(PCA),线性判别分析,贝叶斯线性回归和支持向量机(SVM)等,是学习机器学习的比较不错的讲义。   资源获取方...

【重版】朴素贝叶斯与拣鱼的故事

【重版】朴素贝叶斯与拣鱼的故事 42

知行编程网 人工智能前沿 2年前 (2021-12-29) 6 0

重版公告 由于小夕之后要讲的好几篇文章要基于这一篇的知识,但是以前写的的这篇文章对朴素贝叶斯的讨论不够深入,又不值得再额外写一篇朴素贝叶斯啦,因此本文重版了以前的文章《朴素贝叶斯》。与旧版相比,新版对基础知识的讲解进行了大幅更新,并加入了一些更深的讨论和结论,并重新进行了排版。   朴素贝叶斯分类器可以说是最经典的基于统计的机器学习模型了。首先,暂且不管贝叶斯是什么意思,朴素这个名字放在分类器中好...

NLP领域的首次Hard Label黑盒攻击!

NLP领域的首次Hard Label黑盒攻击! 16

知行编程网 人工智能前沿 2年前 (2022-02-05) 46 0

背景 前段时间已经和大家分享了两篇关于NLP Privacy的文章。今天,我们又来给大家推送优质论文了(公众号学习法)。其实,NLP与其他方向的跨界结合这段时间层出不穷,且都发表到了非常好的顶会上。目前有越来越多的 NLP 研究者开始探索文本对抗攻击这一方向,以 2020 年 ACL 为例,粗略统计有超过 10 篇相关论文。NLP Privacy可谓是NLP研究的下一个风口。 本次给大家介绍一篇文...

从逻辑回归到受限玻尔兹曼机

从逻辑回归到受限玻尔兹曼机 12

知行编程网 人工智能前沿 2年前 (2022-01-01) 23 0

在那很久很久以前,可爱的小夕写了一篇将逻辑回归小题大做的文章,然后在另一篇文章中阐述了逻辑回归的本质,并且推广出了softmax函数。   从那之后,小夕又在一篇文章中阐述了逻辑回归与朴素贝叶斯的恩仇录,这两大祖先级人物将机器学习的国度划分为两大板块——生成式与判别式。   后来,朴素贝叶斯为了将自己的国度发扬光大,进化出了贝叶斯网以抗衡逻辑回归,一雪前耻。   然而,傲娇的逻辑回归怎能就此善罢甘...

写Rap,编菜谱,你画我猜……这些 AI demo 我可以玩一天!

写Rap,编菜谱,你画我猜……这些 AI demo 我可以玩一天! 27

知行编程网 人工智能前沿 2年前 (2022-02-21) 105 0

上次写的那篇 《Prompt 综述+15篇最新论文梳理]》 有亿点点肝。这次给大家整点轻松好玩的(顺便给这篇推文打个广告,快去看!)。 不知道读者朋友们有没有遇到这样的情况:有新的论文发表了,很想跑作者的模型玩一玩,但是又懒得复现,所以只能压抑着自己的好奇心... 直到有一天,我发现 Hugging Face 有一个叫 Spaces 的板块,专门放一些机器学习 API 供大家试玩... 这就很有意...

谈谈工业界落地能力最强的机器学习算法

谈谈工业界落地能力最强的机器学习算法

知行编程网 人工智能前沿 2年前 (2022-01-28) 35 0

尽管BERT为代表的预训练模型大肆流行,但是身处工业界才会知道它落地有多难,尤其是QPS动辄几百的在线推荐、搜索系统,哪怕在大厂也很难在线上系统见到它们。 今天就想反其道而行之,谈谈工业界搜索、推荐、广告这类核心场景中落地能力最强的算法(之一):因子分解机(FM)。我不敢说它是最简单的(FM的确很简单),但是作为一个推荐算法调参工程师,掌握FM一定是性价比最高的。我推崇FM算法的原因,有以下三点:...

深度 | 贝叶斯、香农、奥卡姆合写博客「机器学习是什么」

深度 | 贝叶斯、香农、奥卡姆合写博客「机器学习是什么」 9

知行编程网 人工智能前沿 2年前 (2022-03-04) 3 0

牛顿说:「解释自然界的一切,应该追求使用最少的原理。」 介绍 我们很少听到一个三词短语,能将统计学习、信息论和自然哲学的一些核心概念融合到一起。它对于任何有探索兴趣的人来说,都有精确且易于理解的含义,而且对 ML 和数据科学的研究人员,它应该是个有实用性的词。 我说的就是「最小描述长度」(Minimum Description Length)。你可能在想这到底是什么…… 让我们拨开层层迷雾,看看它...

逻辑回归与朴素贝叶斯的战争

逻辑回归与朴素贝叶斯的战争 10

知行编程网 人工智能前沿 2年前 (2021-12-29) 28 0

0 一起走过的   首先,小夕带领大家回顾一下文章《逻辑回归》、《Sigmoid与Softmax》、《朴素贝叶斯》中的几点内容,这几点内容也是本文的前置知识:   1. 逻辑回归模型的表达式(假设函数):,其中。 2. 逻辑回归模型本质上是二类分类问题中其中一个类别的后验概率。 3. 用于二类分类的sigmoid函数只是用于多类分类的softmax函数的一个特例。 4. 朴素贝叶斯模型本质上计算并...

预训练语言模型真的是世界模型?

预训练语言模型真的是世界模型? 10

知行编程网 人工智能前沿 2年前 (2022-02-06) 29 0

自GPT、BERT问世以来,预训练语言模型在NLP领域大放异彩,刷新了无数榜单,成为当前学界业界的心头爱,其主体结构——Transformer——也在逐步的运用于其他领域的任务中,常见的如与CV的跨界,也有相对小众的bioinfo的任务(如蛋白质分类),然后此时问题来了,NLP领域技术成熟数据丰富,相比之下,其他领域或许不那么充足,那么曾经在 文本 数据上预训练的模型对 模态 有没有迁移作用呢? ...

扫一扫二维码分享