线性代数学习日记(一)
线性代数的核心问题是解决等式的一系列问题,这些等式是线性的,即未知数仅被数字乘,不会出现两个未知数 \(x\) 乘 \(y\) 的情况。
Introduction to Vectors
向量 \(cv\) 在一条线上,当 \(w\) 不在这条线上时,\(cv + dw\) 构成了一个平面。
线性代数建立在 \(v + w\),\(cv\) 和 \(dw\) 这些运算上,也就是向量加法和与标量相乘。
Lengths and Dot Products
\(v = (v_1,v_2)\) 和 \(w = (w_1, w_2)\) 的点积或内积是标量 \(v \cdot w\) : \[ v \cdot w = v_1w_1 + v_2w_2 \] 向量 \(v\) 的长度 \(||v||\) 是 \(v \cdot v\) 的平方根: \[ length = ||v|| = \sqrt{v \cdot v} = (v_1^2 + v_2^2 + \cdots + v_n^2)^{1/2} \] 单位向量是长度为 1 的向量,即 \(u \cdot u = 1\)。
v 的单位向量与 v 在同一方向为 \(u = v / ||v||\)。
当 v 和 w 垂直时,他们的点积 \(v \cdot w = 0\)。
如果 v 和 w 是非零向量,那么 \(\frac{v \cdot w}{||v|| ||w||} = cos \theta\)
schwarz inequality \(|v \cdot w| \leq ||v|| \ ||w||\)
triangle inequality \(|v + w| \leq ||v|| + ||w||\)
Matrices
列角度
矩阵 A 与向量 x 相乘是矩阵 A 的各列以 x 的方式组合 \[ Ax = \left[\begin{array}{} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 0 & -1 & 1 \end{array}\right] \left[\begin{array}{} x_1 \\ x_2 \\ x_3 \end{array}\right] = \left[\begin{array}{} x_1 \\ x_2 - x_1 \\ x_3 - x_2 \end{array}\right] = \left[\begin{array}{} b_1 \\ b_2 \\ b_3 \end{array}\right] = b \] 这个 A 称作 diffenence matrix,因为 b 包括了输入向量 x 的所有差值。
行角度
矩阵 A 与向量 x 相乘也可以看作是行的点积 \[ Ax = \left[\begin{array}{} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 0 & -1 & 1 \end{array}\right] \left[\begin{array}{} x_1 \\ x_2 \\ x_3 \end{array}\right] = \left[\begin{array}{} (1, 0, 0) \cdot (x_1, x_2, x_3) \\ (-1, 1, 0) \cdot (x_1, x_2, x_3) \\ (0, -1, 1) \cdot (x_1, x_2, x_3) \end{array}\right] \]