是在机器学习领域广泛应用的算法不光可以用于降维算法中的特征分解,还可以用于推荐系统以及自然语言处理等领域,是很多机器学习算法的基石本篇文章对SVD原悝做主要讲解,在学习之前确保你已经熟悉线性代数中的基本知识,包括特征值、特征向量、相似矩阵相关知识点如果不太熟悉的话,推荐阅读如下两篇文章和,读完之后再看本篇文章会有很大帮助
我们首先回顾下特征值和特征向量的定义,洳下所示其中A是一个n×n的矩阵,x是一个n维向量则我们说λ是矩阵A的一个特征值,x是矩阵A的特征值λ所对应的特征向量。但是求出特征值和特征向量有什么好处呢?
Ax=λx 求出了矩阵A的n个特征值λ1?≤λ2?≤...≤λn?以及这n个特征值所对应的特征向量w1?,w2?,...,wn?,如果这n个特征值线性無关那么矩阵A就可以用下式的特征分解表示
当矩阵A不是方阵时可以用奇异值进行分解,假设我们的的矩阵A时一个m×n的矩阵那么我们定义矩阵A的SVD为
下面我们通过一个简单例子来说明矩阵式如何进行奇异值分解的假设矩阵A為
2、定义样式以及初始化隐藏alert
3、同樣在script里面点击事件、设置alert内容。显示alert
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。