观点 | 机器学习=「新瓶装旧酒」的数据统计?No!

观点 | 机器学习=「新瓶装旧酒」的数据统计?No! 3

知行编程网 人工智能前沿 2年前 (2022-03-01) 2 0

  最近,关于深度学习和人工智能的一个梗在社交媒体上广为流传,认为二者只是墙上一道镶了崭新边框的裂缝,暗讽机器学习只是重新包装过的统计学,本质上是「新瓶装旧酒」。然而事实真的是这样吗?本文对这种看法提出了异议,认为机器学习 ≠ 数据统计,深度学习为我们处理复杂的非结构化数据问题做出了重大贡献,而人工智能应该得到其应得的赞赏。   随着深度学习的热度开始消退,这个梗最近开始在社交媒体上广为流传,引起...

25个机器学习面试题,期待你来解答

25个机器学习面试题,期待你来解答 6

知行编程网 人工智能前沿 2年前 (2022-03-01) 8 0

机器学习有非常多令人困惑及不解的地方,很多问题都没有明确的答案。但在面试中,如何探查到面试官想要提问的知识点就显得非常重要了。在本文中,作者给出了 25 个非常有意思的机器学习面试问题,这些问题都没有给出明确的答案,但都有一定的提示。读者也可以在留言中尝试。 许多数据科学家主要是从一个数据从业者的角度来研究机器学习(ML)。因此,关于机器学习,我们应该尽可能多地把注意力放在新的程序包、框架、技术等...

入门必备|中文课程!台大李宏毅机器学习公开课2019版上线

入门必备|中文课程!台大李宏毅机器学习公开课2019版上线 6

知行编程网 人工智能前沿 2年前 (2022-03-17) 32 0

来自 |机器之心作者 |思源,泽南台大教授李宏毅的机器学习课程经常被认为是中文开放课程中的首选。李教授的授课风格风趣幽默,通俗易懂,其课程内容中不仅有机器学习、深度学习的基础知识,也会介绍 ML 领域里的各种最新技术。近日,2019 版的课程资料与视频终于上线了!课程资料链接:http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML19.html课程视频(Bil...

怎样将Embedding融入传统机器学习框架?

怎样将Embedding融入传统机器学习框架? 2

知行编程网 人工智能前沿 2年前 (2022-01-29) 5 0

LR本身是一个经典的CTR模型,广泛应用于推荐/广告系统。输入的特征大多数是离散型/组合型。那么对于Embedding技术,如何在不使用深度学习模型的情况下(假设就是不能用DNN),融入到LR框架中呢?让我们来看看清华大学的博士石塔西大佬是如何解答的。 问题实战意义 其实这个问题可以再扩展一下,即,如何在传统机器学习算法(LR/GBDT)中使用Embedding信息。 这个问题并非空穴来风,而是有...

打脸!一个线性变换就能媲美“最强句子embedding”?

打脸!一个线性变换就能媲美“最强句子embedding”? 13

知行编程网 人工智能前沿 2年前 (2022-01-31) 83 0

小编:前几周小屋刚推完《还在用[CLS]?从BERT得到最强句子Embedding的打开方式!》,苏神就来打脸了_(:з」∠)_ BERT-flow来自论文《On the Sentence Embeddings from Pre-trained Language Models》[1],中了EMNLP 2020,主要是用flow模型校正了BERT出来的句向量的分布,从而使得计算出来的cos相似度更为...

线性代数应该这样讲(三)-向量2范数与模型泛化

线性代数应该这样讲(三)-向量2范数与模型泛化 9

知行编程网 人工智能前沿 2年前 (2022-01-02) 22 0

在线性代数(一)中,小夕主要讲解了映射与矩阵的关系;在线性代数(二)中,小夕讲解了映射视角下的特征值与特征向量的物理意义。本文与下一篇会较为透彻的解析一下向量的二范数与一范数,他们在机器学习任务中是最常用,有时甚至是核心的东西哦。 首先,来一个俗俗的开篇。向量x的p范数表示如下: 由此,p=1、p=2就分别代表1范数和2范数。本文只看p=2的情况。 二范数相信大家在大一学线性代数的时候就已经被灌输...

机器学习从理论到工程的第二步-开发环境与工具篇

机器学习从理论到工程的第二步-开发环境与工具篇 11

知行编程网 人工智能前沿 2年前 (2021-12-31) 10 0

在《第一步-编程语言篇》中,小夕为大家较为详细的介绍了做机器学习(及其相关应用方向)的编程语言的选择问题,这一篇便是小夕为大家推荐的各个编程语言的开发环境/工具。 习惯性扫盲开篇。鉴于可能有部分同学的软件开发经验稍有欠缺,因此首先讲讲基本概念。 代码编辑器: 代码编辑器就是写代码的地方啦,其实任何文本编辑器都可以作为代码编辑器,毕竟源代码是写成纯文本的形式的。   但是效果往往就是像上图一样简陋而...

NeurIPS 2020 | 没有乘法的神经网络,照样起飞?

NeurIPS 2020 | 没有乘法的神经网络,照样起飞? 15

知行编程网 人工智能前沿 2年前 (2022-01-31) 35 0

今天给大家介绍一篇1962年的论文《Computer Multiplication and Division Using Binary Logarithms》[1],作者是John N. Mitchell,他在里边提出了一个相当有意思的算法:在二进制下,可以完全通过加法来近似完成两个数的相乘,最大误差不超过1/9。整个算法相当巧妙,更有意思的是它还有着非常简洁的编程实现,让人拍案叫绝。然而,笔者发...

从朴素贝叶斯到贝叶斯网

从朴素贝叶斯到贝叶斯网 12

知行编程网 人工智能前沿 2年前 (2021-12-31) 15 0

  回顾 在文章《朴素贝叶斯》中,小夕为大家介绍了朴素贝叶斯模型的基本知识,并且得出了朴素贝叶斯是利用联合概率P(x1,x2,x3...xn,y)来确定某个样本为某个类别的概率,进而利用最大后验概率(MAP)来决策类别。也就是说,朴素贝叶斯的假设函数如下: 其中,假设有c个类别,则i=1,2,...,c。(补充:argmax大家应该都熟悉了吧,意思就是返回使函数值最大的参数,这里的函数即P(X,y...

撑起百万亿参数模型想象力!英伟达发布新一代SuperPOD超算,AI算力新巅峰!

撑起百万亿参数模型想象力!英伟达发布新一代SuperPOD超算,AI算力新巅峰! 14

知行编程网 人工智能前沿 2年前 (2022-02-07) 50 0

周一,黄教主又很淡定的在自家厨房里开完了GTC发布会。 众所周知,NLP领域的模型一个比一个大,自从百亿参数的Google T5出来后,大部分AI研究者只能望着手里的蹩脚算力兴叹。如今动辄就是千亿、万亿参数模型,目前比较流行的V100主机显然已经无法满足需求。而本周刚落幕的GTC发布会,则为如今的万亿模型想象力的时代提供了一份极其重要的保障,不仅使得造万亿模型都成为了可能,甚至打开了通往十万亿乃至...

扫一扫二维码分享