线性代数学习日记(一)

线性代数的核心问题是解决等式的一系列问题,这些等式是线性的,即未知数仅被数字乘,不会出现两个未知数 \(x\)\(y\) 的情况。

Introduction to Vectors

向量 \(cv\) 在一条线上,当 \(w\) 不在这条线上时,\(cv + dw\) 构成了一个平面。

线性代数建立在 \(v + w\)\(cv\)\(dw\) 这些运算上,也就是向量加法和与标量相乘。

Lengths and Dot Products

\(v = (v_1,v_2)\)\(w = (w_1, w_2)\) 的点积或内积是标量 \(v \cdot w\)\[ v \cdot w = v_1w_1 + v_2w_2 \] 向量 \(v\) 的长度 \(||v||\)\(v \cdot v\) 的平方根: \[ length = ||v|| = \sqrt{v \cdot v} = (v_1^2 + v_2^2 + \cdots + v_n^2)^{1/2} \] 单位向量是长度为 1 的向量,即 \(u \cdot u = 1\)

v 的单位向量与 v 在同一方向为 \(u = v / ||v||\)

当 v 和 w 垂直时,他们的点积 \(v \cdot w = 0\)

如果 v 和 w 是非零向量,那么 \(\frac{v \cdot w}{||v|| ||w||} = cos \theta\)

schwarz inequality \(|v \cdot w| \leq ||v|| \ ||w||\)

triangle inequality \(|v + w| \leq ||v|| + ||w||\)

Matrices

列角度

矩阵 A 与向量 x 相乘是矩阵 A 的各列以 x 的方式组合 \[ Ax = \left[\begin{array}{} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 0 & -1 & 1 \end{array}\right] \left[\begin{array}{} x_1 \\ x_2 \\ x_3 \end{array}\right] = \left[\begin{array}{} x_1 \\ x_2 - x_1 \\ x_3 - x_2 \end{array}\right] = \left[\begin{array}{} b_1 \\ b_2 \\ b_3 \end{array}\right] = b \] 这个 A 称作 diffenence matrix,因为 b 包括了输入向量 x 的所有差值。

行角度

矩阵 A 与向量 x 相乘也可以看作是行的点积 \[ Ax = \left[\begin{array}{} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 0 & -1 & 1 \end{array}\right] \left[\begin{array}{} x_1 \\ x_2 \\ x_3 \end{array}\right] = \left[\begin{array}{} (1, 0, 0) \cdot (x_1, x_2, x_3) \\ (-1, 1, 0) \cdot (x_1, x_2, x_3) \\ (0, -1, 1) \cdot (x_1, x_2, x_3) \end{array}\right] \]


线性代数学习日记(一)
https://blog.lfd.world/2023/08/26/xian-xing-dai-shu-xue-xi-ri-ji-yi/
作者
培根请加蛋
发布于
2023年8月26日
许可协议