人工智能前沿

一手AI资讯|计算机视觉|自然语言|机器学习|深度学习
如何与深度学习服务器优雅的交互?

如何与深度学习服务器优雅的交互? 14

知行编程网 2年前 (2022-01-04) 119 0

有没有想到小夕今天会发文章呢?( ̄∇ ̄)有木有超级想小夕呢( ̄∇ ̄) 小夕在前面写了一堆纯理论和半理论的文章,不要怕,这次来一篇纯工程的tricks集合! 如果有人问小夕:"小夕,要是人工智能的就业岗位一夜之间消失了,你会去转行做什么呢?" 答曰:"当然是去做Linux运维啊23333" 小夕有一台自己负责的GPU服务器,她可让小夕操碎了心呐。最近好不容易把这娇气的小公举拉扯大了,下面就向各位服务...

step-by-step: 夕小瑶版神经网络调参指南(上)

step-by-step: 夕小瑶版神经网络调参指南(上) 11

知行编程网 2年前 (2022-01-04) 12 0

距离上一篇文章已经过去好久好久好久啦。闭关几个月后,其实早有继续码文章的打算,先后写了一下核函数与神经网络的一些思考、文本预处理tricks、不均衡文本分类问题、多标签分类问题、tensorflow常用tricks、噪声对比估算与负采样等文章,结果全都半途而废,写了一半然后各种原因丢掉了就不想再接着写。结果电脑里稿子攒了好多,却让订阅号空了这么久。今天终于下定决心必须要码一篇了,下午临时决定写一篇...

文本分类问题不需要ResNet?小夕解析DPCNN设计原理(上)

文本分类问题不需要ResNet?小夕解析DPCNN设计原理(上) 4

知行编程网 2年前 (2022-01-04) 55 0

历史回顾 回顾一下图像和文本的发展史,似乎这就是一场你追我赶的游戏。在上一阶段的斗争中,朴素贝叶斯、最大熵、条件随机场这些理论完备的统计机器学习模型使得文本分类、中文分词、NER等诸多自然语言处理问题取得了差强人意(释义:基本使人满意。顺带嘲讽一波误用该词的媒体们( ̄∇ ̄))的性能,而这些理论完备的模型却在图像分类这种基本的计算机视觉问题上都严重碰壁。 如今深度学习,或者具体点说卷积神经网络(CN...

文本分类问题不需要ResNet?小夕解析DPCNN设计原理(下)

文本分类问题不需要ResNet?小夕解析DPCNN设计原理(下) 12

知行编程网 2年前 (2022-01-04) 71 0

哎呀呀,说好的不拖稿的又拖了两天T_T,小夕过一阵子分享给你们这两天的开心事哦。后台催稿调参系列的小伙伴们不要急,下一篇就是第二篇调参文啦。 好啦,接着上一篇文章,直接搬来DPCNN、ShallowCNN、ResNet的对比图。 从图中的a和c的对比可以看出,DPCNN与ResNet差异还是蛮大的。同时DPCNN的底层貌似保持了跟TextCNN一样的结构,这里作者将TextCNN的包含多尺寸卷积滤...

「小公式」平均数与级数

「小公式」平均数与级数 13

知行编程网 2年前 (2022-01-04) 4 0

喵喵喵,小夕最近准备复习一下数学和基础算法,所以可能会推送或者附带推送点数学和基础算法的小文章。说不定哪天就用(考)到了呢( ̄∇ ̄) 注意哦,与头条位的文章推送不同,「小公式」和「小算法」中的标题之间可能并无逻辑关联,因此可以看作是罗列小知识点,说不定这些小知识点就能带来一些小灵感呢。 平均数 调和平均数 调和平均数(Harmonic Mean)是将数值个数除以数值倒数的总和,一组正数x1, x2...

不要再纠结卷积的公式啦!0公式深度解析全连接前馈网络与卷积神经网络

不要再纠结卷积的公式啦!0公式深度解析全连接前馈网络与卷积神经网络 11

知行编程网 2年前 (2022-01-03) 14 0

Hello~你们的小夕终于吐泡泡了~前几天小夕又加班赶project啦,拖了好几天,都快患上拖稿焦虑症了_(:з」∠)_ 关于卷积神经网,小夕就不从卷积讲啦。以前不止一个粉丝问我卷积神经网络中卷积的意义,甚至在知乎上被邀请回答一个“卷积神经网络为什么不叫互相关神经网络”的类似的奇怪问题,终于忍不住,还是赶紧把CNN写了吧(说的自己要去拯救世界了一样(//∇//) 我们还是从前面更简单的机器学习mo...

从前馈到反馈:解析循环神经网络(RNN)及其tricks

从前馈到反馈:解析循环神经网络(RNN)及其tricks 2

知行编程网 2年前 (2022-01-03) 32 0

好像已经有两周没有更新啦。最后这几天都不敢打开订阅号后台了,怕一打开发现掉了几百个粉丝的话就难过死了T_T。然而小夕发现你们并没有离开,感动的差点哭出来,都感觉再不认真写一篇文章就太对不起大家的等待啦。 而这两周,经历的事情蛮多的。为了凑下一季的房租,接了个私活,要死要活的做完了QAQ。而且还发现了一个特别好的学习平台,闭关修炼了一周,改天跟你们分享一下~下面开始正文啦,不要太激动哦。 为什么需要...

深度学习资料挑的眼花啦?小夕帮你做选择!

深度学习资料挑的眼花啦?小夕帮你做选择! 7

知行编程网 2年前 (2022-01-03) 5 0

小夕还记得几年前刚入坑的时候,老师给的入门资料就是一堆论文!害的小夕差点放弃。。。 如今深度学习应用的开发成本越来越低,学习资料越来越多,于是对初学者来说进入了另一个相反的困境——资料过多,让人眼花缭乱!哪怕是最最经典、顶尖的公开课。也是有好多门(斯坦福的、coursera的、MIT的、Berkeley的……)。更不必说眼花缭乱的纸质书籍,更更不用说铺天盖地的订阅号(比如夕小瑶的卖萌屋) 如果你正...

深度解析LSTM神经网络的设计原理

深度解析LSTM神经网络的设计原理 69

知行编程网 2年前 (2022-01-03) 27 0

引人入胜的开篇: 想要搞清楚LSTM中的每个公式的每个细节为什么是这样子设计吗?想知道simple RNN是如何一步步的走向了LSTM吗?觉得LSTM的工作机制看不透?恭喜你打开了正确的文章!  前方核弹级高能预警!本文信息量非常大,文章长且思维连贯性强,建议预留20分钟以上的时间进行阅读。 前置知识1: 在上一篇文章《前馈到反馈:解析RNN》中,小夕从最简单的无隐藏层的前馈神经网络引出了简单的循...

你的模型真的陷入局部最优点了吗?

你的模型真的陷入局部最优点了吗? 14

知行编程网 2年前 (2022-01-03) 51 0

小夕曾经收到过一个提问:“小夕,我的模型总是在前几次迭代后很快收敛了,陷入到了一个局部最优点,怎么也跳不出来,怎么办?” 本文不是单纯对这个问题的回答,不是罗列工程tricks,而是希望从理论层面上对产生类似疑问的人有所启发。   真的结束于最优点吗? 我们知道,在局部最优点附近,各个维度的导数都接近0,而我们训练模型最常用的梯度下降法又是基于导数与步长的乘积去更新模型参数的,因此一旦陷入了局部最...

扫一扫二维码分享