[mathjax] 对角化 可以为计算方阵的幂提供方便: $$ A^k=\begin{bmatrix} a^k & 0 \\ 0 & b^k \end{bmatrix} $$ 让$A=PDP^{-1}$那么幂次运算:$A^k=(PDP^{-1})\cdots(PDP^{-1})$去掉括号就成了$A^k=PD^kP^{-1}$. 定理1: P320 假设nxn方阵A可对角化, 当且仅当A有n个线...

 2020年3月10日 -  289次阅读 -  0条评论

[mathjax] 机器学习中的主要的降维有PCA(无监督学习)和LDA(监督学习)。本文基于scikit的LFW数据集的降维技术。 假设样本矩阵 $X\in\mathbb{R}^{n\times{m}}$ . 这里都用列向量. PCA 基变换 坐标$(a,b)$是一个类似于地址的概念, 这种地址需要和空间上某种表示进行结合才会有...

 2019年5月19日 -  851次阅读 -  2条评论

[mathjax] 基于数据构建统计模型从而对数据进行预测和分析。统计学习可由监督学习、非监督学习、半监督学习和强化学习等组成。 分类任务输出的是离散的值;回归任务输出的连续的值 监督学习 监督学习主要由模型、策略和算法组成。他的任务是学习一个模型,能够对任意一个...

 2019年2月5日 -  999次阅读 -  0条评论