从逻辑回归到神经网络

从逻辑回归到神经网络 21

知行编程网 人工智能前沿 2年前 (2021-12-29) 21 0

回顾 小夕在文章《逻辑回归》中详细讲解了逻辑回归模型,又在《Sigmoid与Softmax》中详细讲解了Sigmoid的实际意义(代表二类分类问题中,其中一个类别的后验概率)。   至此,我们已经比较透彻的理解了逻辑回归模型假设函数(也就是用于预测类别的函数)。纯从计算顺序上来说,逻辑回归预测类别的顺序即: 1. 输入样本X与模型参数作内积,结果记为z 2. 将中间结果z输入到Sigmoid函数,...

预训练卷不动,可以卷输入预处理啊!

预训练卷不动,可以卷输入预处理啊! 24

知行编程网 人工智能前沿 2年前 (2022-02-13) 103 0

目前伴随着预训练预言模型的兴起,越来越多的 NLP 任务开始脱离对分词的依赖。通过 Fine-Tune Bert 这类预训练预言模型,能直接在下游任务上取得一个很好的结果。同时也有文章探讨中文分词在神经网络时代的必要性。对于分词任务本身也是如此。 那中文分词这个任务有还意义吗?或者换句话说中文分词是不是一个已经解决的任务。那么接下来笔者将会带大家梳理目前分词的研究方向和进展。 本文的思维导图如下图...

神经网络中的偏置项b到底是什么?

神经网络中的偏置项b到底是什么? 4

知行编程网 人工智能前沿 2年前 (2021-12-29) 7 0

前言 很多人不明白为什么要在神经网络、逻辑回归中要在样本X的最前面加一个1,使得 X=[x1,x2,…,xn] 变成 X=[1,x1,x2,…,xn] 。因此可能会犯各种错误,比如漏了这个1,或者错误的将这个1加到W·X的结果上,导致模型出各种bug甚至无法收敛。究其原因,还是没有理解这个偏置项的作用啦。   在文章《逻辑回归》和《从逻辑回归到神经网络》中,小夕为了集中论点,往往忽略掉模型的偏置项...

扫一扫二维码分享