线性代数应该这样讲(三)-向量2范数与模型泛化

线性代数应该这样讲(三)-向量2范数与模型泛化 9

知行编程网 人工智能前沿 2年前 (2022-01-02) 22 0

在线性代数(一)中,小夕主要讲解了映射与矩阵的关系;在线性代数(二)中,小夕讲解了映射视角下的特征值与特征向量的物理意义。本文与下一篇会较为透彻的解析一下向量的二范数与一范数,他们在机器学习任务中是最常用,有时甚至是核心的东西哦。 首先,来一个俗俗的开篇。向量x的p范数表示如下: 由此,p=1、p=2就分别代表1范数和2范数。本文只看p=2的情况。 二范数相信大家在大一学线性代数的时候就已经被灌输...

线性代数应该这样讲(四)-奇异值分解与主成分分析

线性代数应该这样讲(四)-奇异值分解与主成分分析 15

知行编程网 人工智能前沿 2年前 (2022-01-02) 14 0

在《线性代数这样讲(二)》(以下简称「二」)中,小夕详细讲解了特征值与特征向量的意义,并且简单描述了一下矩阵的特征值分解的意义和原理。本文便基于对这几个重要概念的理解来进一步讲解SVD分解。 回顾一下,在「二」中,小夕讲过一个方阵W可以分解为它的特征向量矩阵eVec与特征值矩阵eVal相乘的形式,即用 eVec * eVal * eVec-1 来近似原方阵W。 那么问题来啦,如果我们的矩阵不是方阵...

线性代数应该这样讲(二)

线性代数应该这样讲(二) 17

知行编程网 人工智能前沿 2年前 (2021-12-31) 1 0

在《...(一)》中,小夕从映射的角度讲解了矩阵及矩阵运算,这也是机器学习中看待矩阵的非常重要的视角。   另一方面说,矩阵当然也是用于存储数据的数据结构,这也是最好理解的形式。另外还可以看做是一个线性方程组(课本上讲烂了的开头),甚至可以将其仅仅看做一般化的张量(tensor)中的一个普通切片(slice),或者说其中一层。所以矩阵代表什么含义,要在不同的场景中灵活对待,不要局限在一种视角哦。 ...

线性代数应该这样讲(一)

线性代数应该这样讲(一) 12

知行编程网 人工智能前沿 2年前 (2021-12-29) 26 0

前言 小夕为什么要讲线性代数呢?因为有人已经做了机器学习一段时间了,竟然认为矩阵就是用来存储数据的。小夕表示非常震惊。   而深刻透彻的理解核函数、PCA、LSI、谱聚类等以空间映射为理论核心的机器学习理论时,靠大学里教的那一套线性代数,很有可能是悲剧的(小夕所在的本科学校,数学专业全国top5,还是大牛的老师教的线性代数,然而小夕依然觉得学了假线性代数,心塞) 因此,在对国内高等教育不信任的基础...

扫一扫二维码分享