前代数和矩阵论讲解为什么需要向向量

线性代数在机器学习和深度学习中扮演着重要的角色,比如我们常说的向量化,就是要把计算机无法识别的图像或者文字以向量的方式输入到神经网络模型中。也就是说,再继续就深度学习中有大量的矩阵计算,并且在神经网络中,模型参数也是矩阵的形式,所以了解矩阵和线性代数,是非常重要的,本专栏的核心知识就是对前代数和矩阵论的介绍,从基本的数学开始讲起,为什么需要向向量,矩阵的计算的核心是什么。

1、求二端口的混合H参数矩阵

表达4个端口变量之间关系的方程称为二端口网络方程。同一个二端口网络可以有6组不同形式的方程。对于一个不含电源并处于正弦稳态的线性时不变网络,这6组方程如表1所示。位于每组方程右端变量前的4个系数称为二端口网络的参数,共6组,并按所在之方程而被分别命名为短路导纳参数(或Y参数)、开路阻抗参数(或Z参数)、第一类混合参数(或H参数)、第二类混合参数(或G参数)、传输参数(或T参数)和反向传输参数(或T参数)。

另外,6组参数中每个参数自身都有特定的物理含义。例如由此4式可知:Y11是端口2短路(妭20)时端口1的策动点导纳;Y12是端口1短路(V10)时端口1对端口2的转移导纳;Y21是端口2短路(妭20)时端口2对端口1的转移导纳;Y22是端口1短路(妭10)时端口2的策动点导纳。

2、一个矩阵的特征向量的总数有多少?(大学数学问题

特征向量的个数是这样的:个数=n-特征矩阵的秩就是个数=n-r(入e-a)其中n是阶数而不是每个矩阵都能相似对角化的如果一个矩阵,它的特征值各不相同,那么一定可以对角化但如果有重根,而重根数不等于上面式子的算出的个数那它就不能相似对角化比如,一个3阶矩阵有特征值1是二重根而r(ea)不等于1,即特征向量个数=3-r(e-a)不等于2那这个3阶矩阵a就不能相似对角化多看看书,你可以的================汗了,还好咱们老祖宗发明的汉字中,“入”字比较像符号“入”=====================选择一种生活,并有勇气坚持下去总有一天做主角,唱大戏。

3、矩阵求参数问题

这个不难:矩阵A可以通过初等变换得到标准型B,可以看出A有三个特征值,即1,Y,2,可以得到方程(1):|A|1*Y*(2),即得到YX 4.......(2);同时由于1是A的一个特征值,从而有|AE|0,随便算一下,就可以得到第三个方程4*(X1)40....(3).得到X0带入(2)中得到Y4~~5分给我呗~~多谢。

矩阵 代数和 向量 讲解 参数