人工智能前沿

一手AI资讯|计算机视觉|自然语言|机器学习|深度学习
训练神经网络时如何确定batch的大小?

训练神经网络时如何确定batch的大小? 11

知行编程网 2年前 (2022-01-01) 14 0

  当我们要训练一个已经写好的神经网络时,我们就要直面诸多的超参数啦。这些超参数一旦选不好,那么很有可能让神经网络跑的还不如感知机。因此在面对神经网络这种容量很大的model前,是很有必要深刻的理解一下各个超参数的意义及其对model的影响的。   贴心的小夕还是先带领大家简单回顾一下神经网络的一次迭代过程:     即,首先选择n个样本组成一个batch,然后将batch丢进神经网络,得到输出结...

机器学习从理论到工程的第二步-开发环境与工具篇

机器学习从理论到工程的第二步-开发环境与工具篇 11

知行编程网 2年前 (2021-12-31) 10 0

在《第一步-编程语言篇》中,小夕为大家较为详细的介绍了做机器学习(及其相关应用方向)的编程语言的选择问题,这一篇便是小夕为大家推荐的各个编程语言的开发环境/工具。 习惯性扫盲开篇。鉴于可能有部分同学的软件开发经验稍有欠缺,因此首先讲讲基本概念。 代码编辑器: 代码编辑器就是写代码的地方啦,其实任何文本编辑器都可以作为代码编辑器,毕竟源代码是写成纯文本的形式的。   但是效果往往就是像上图一样简陋而...

机器学习从理论到工程的第二步-开发环境与工具篇(下)

机器学习从理论到工程的第二步-开发环境与工具篇(下) 24

知行编程网 2年前 (2021-12-31) 2 0

好啦~继续昨天的《第二步——开发环境与工具篇(上)》~ 其实有点尴尬啦,本来想一篇讲完的,结果小夕太啰嗦了,还没有开始讲正文,就写了快2000字了。。。所以说,这一篇是上一篇的正文。。。 matlab就不用说了,matlab程序本身就集成了所有你需要的东西了~顺便提一下,没有条件使用特殊免收费版matlab的时候,octave甚至一些在线octave网站都是可以接手matlab的~ C、C++、J...

从朴素贝叶斯到贝叶斯网

从朴素贝叶斯到贝叶斯网 12

知行编程网 2年前 (2021-12-31) 15 0

  回顾 在文章《朴素贝叶斯》中,小夕为大家介绍了朴素贝叶斯模型的基本知识,并且得出了朴素贝叶斯是利用联合概率P(x1,x2,x3...xn,y)来确定某个样本为某个类别的概率,进而利用最大后验概率(MAP)来决策类别。也就是说,朴素贝叶斯的假设函数如下: 其中,假设有c个类别,则i=1,2,...,c。(补充:argmax大家应该都熟悉了吧,意思就是返回使函数值最大的参数,这里的函数即P(X,y...

神经网络激活函数=生物转换器?

神经网络激活函数=生物转换器? 24

知行编程网 2年前 (2021-12-31) 2 0

啊~昨晚躺了一个小时竟然没有睡着,美容觉泡汤了...于是竟然大半夜起来写了这篇文章 在《逻辑回归到神经网络》中,小夕让神经网络冒了个泡。在《一般化机器学习与神经网络》中,将神经网络这一火热的模型强制按回机器学习一般框架里。在《BP算法的本质》里,详细的阐述了BP算法的本质与目标。 好啦~这一篇回到简单、纯粹的状态,我们来一起戳一戳可爱的神经细胞。 学生物的人眼里的神经细胞: 学数学与机器学习的人眼...

线性代数应该这样讲(二)

线性代数应该这样讲(二) 17

知行编程网 2年前 (2021-12-31) 1 0

在《...(一)》中,小夕从映射的角度讲解了矩阵及矩阵运算,这也是机器学习中看待矩阵的非常重要的视角。   另一方面说,矩阵当然也是用于存储数据的数据结构,这也是最好理解的形式。另外还可以看做是一个线性方程组(课本上讲烂了的开头),甚至可以将其仅仅看做一般化的张量(tensor)中的一个普通切片(slice),或者说其中一层。所以矩阵代表什么含义,要在不同的场景中灵活对待,不要局限在一种视角哦。 ...

从逻辑回归到神经网络

从逻辑回归到神经网络 21

知行编程网 2年前 (2021-12-29) 21 0

回顾 小夕在文章《逻辑回归》中详细讲解了逻辑回归模型,又在《Sigmoid与Softmax》中详细讲解了Sigmoid的实际意义(代表二类分类问题中,其中一个类别的后验概率)。   至此,我们已经比较透彻的理解了逻辑回归模型假设函数(也就是用于预测类别的函数)。纯从计算顺序上来说,逻辑回归预测类别的顺序即: 1. 输入样本X与模型参数作内积,结果记为z 2. 将中间结果z输入到Sigmoid函数,...

神经网络中的偏置项b到底是什么?

神经网络中的偏置项b到底是什么? 4

知行编程网 2年前 (2021-12-29) 7 0

前言 很多人不明白为什么要在神经网络、逻辑回归中要在样本X的最前面加一个1,使得 X=[x1,x2,…,xn] 变成 X=[1,x1,x2,…,xn] 。因此可能会犯各种错误,比如漏了这个1,或者错误的将这个1加到W·X的结果上,导致模型出各种bug甚至无法收敛。究其原因,还是没有理解这个偏置项的作用啦。   在文章《逻辑回归》和《从逻辑回归到神经网络》中,小夕为了集中论点,往往忽略掉模型的偏置项...

【重版】朴素贝叶斯与拣鱼的故事

【重版】朴素贝叶斯与拣鱼的故事 42

知行编程网 2年前 (2021-12-29) 6 0

重版公告 由于小夕之后要讲的好几篇文章要基于这一篇的知识,但是以前写的的这篇文章对朴素贝叶斯的讨论不够深入,又不值得再额外写一篇朴素贝叶斯啦,因此本文重版了以前的文章《朴素贝叶斯》。与旧版相比,新版对基础知识的讲解进行了大幅更新,并加入了一些更深的讨论和结论,并重新进行了排版。   朴素贝叶斯分类器可以说是最经典的基于统计的机器学习模型了。首先,暂且不管贝叶斯是什么意思,朴素这个名字放在分类器中好...

逻辑回归与朴素贝叶斯的战争

逻辑回归与朴素贝叶斯的战争 10

知行编程网 2年前 (2021-12-29) 28 0

0 一起走过的   首先,小夕带领大家回顾一下文章《逻辑回归》、《Sigmoid与Softmax》、《朴素贝叶斯》中的几点内容,这几点内容也是本文的前置知识:   1. 逻辑回归模型的表达式(假设函数):,其中。 2. 逻辑回归模型本质上是二类分类问题中其中一个类别的后验概率。 3. 用于二类分类的sigmoid函数只是用于多类分类的softmax函数的一个特例。 4. 朴素贝叶斯模型本质上计算并...

扫一扫二维码分享