iPAS AI應用規劃師 經典題庫

L23102 線性代數在機器學習中的應用
出題方向
1
向量與矩陣基本運算
2
線性方程式與矩陣分解
3
向量空間、基底與維度
4
特徵值與特徵向量
5
主成分分析 (PCA) 與降維
6
線性代數在回歸模型中的應用
7
線性代數在神經網路中的應用
8
相似度量測與推薦系統
#1
★★★★★
機器學習中,一個包含 m樣本、每個樣本有 n特徵的數據集,通常會被表示成什麼樣的矩陣
A
一個 m x n矩陣,其中每一列代表一個樣本每一行代表一個特徵
B
一個 n x m矩陣,其中每一列代表一個特徵,每一行代表一個樣本
C
一個 m x m方陣
D
一個 n x n方陣
答案解析
機器學習的慣例中,數據集通常表示為一個矩陣 X,其維度為 m x n。這裡 m 代表樣本Samples)的數量(或稱觀測值、實例),n 代表特徵Features)的數量(或稱屬性、維度)。矩陣每一列Row)對應一個樣本數據點,而每一行Column)對應一個特徵。例如,Xij 代表第 i 個樣本的第 j 個特徵值。這種表示法方便進行向量化運算矩陣運算,是許多機器學習算法的基礎。選項 B 的 n x m 矩陣表示法則將特徵作為列,樣本作為行,雖然也可以使用,但 m x n 更為常見。
#2
★★★★
給定兩個向量 v = [1, 2, 3]w = [4, 5, 6],它們的點積Dot Productv · w 是多少?
A
一個新的向量 [4, 10, 18]
B
一個純量 32
C
一個 3x3 的矩陣
D
無法計算,因為維度不匹配
答案解析
兩個相同維度向量點積(也稱為內積 Inner Product純量積 Scalar Product)計算方式是將對應位置的元素相乘,然後將所有乘積加總。對於 v = [v1, v2, ..., vn]w = [w1, w2, ..., wn],其點積v · w = v1*w1 + v2*w2 + ... + vn*wn
在此例中,v = [1, 2, 3]w = [4, 5, 6]
v · w = (1 * 4) + (2 * 5) + (3 * 6) = 4 + 10 + 18 = 32
點積的結果是一個純量Scalar),而不是向量矩陣點積機器學習中用於計算向量間的相似度(如餘弦相似度)、投影、以及神經網路中的加權求和等。選項 A 是逐元素乘積Hadamard product)。
#3
★★★★★
奇異值分解Singular Value Decomposition, SVD)是將任意一個 m x n矩陣 A 分解為哪三個矩陣的乘積?
A
LDU 分解(下三角對角上三角
B
UΣVT 分解,其中 Um x m 正交矩陣Σm x n 對角矩陣奇異值),Vn x n 正交矩陣
C
QR 分解(正交矩陣上三角矩陣
D
特徵分解 A = PDP-1(僅適用於方陣
答案解析
奇異值分解SVD)是線性代數中非常重要且應用廣泛的矩陣分解方法,適用於任何 m x n 的實數或複數矩陣 A。它將 A 分解為 A = UΣVT 的形式,其中:
  • U:是一個 m x m正交矩陣Orthogonal Matrix),其列向量構成 A列空間Column Space)的一組標準正交基U 的列稱為左奇異向量
  • Σ:是一個 m x n對角矩陣Diagonal Matrix),其對角線上的元素 σi ≥ 0 稱為矩陣 A奇異值Singular Values),通常按降序排列。非對角線元素均為 0。
  • VT:是一個 n x n正交矩陣 V轉置V 的列向量構成 A列空間Row Space)的一組標準正交基V 的列稱為右奇異向量
SVD機器學習中有廣泛應用,包括降維(如 PCA 的一種實現方式)、推薦系統矩陣填充)、自然語言處理(如 LSA)、圖像壓縮等。LDUQR 分解主要用於解線性方程組特徵分解僅適用於可對角化的方陣
#4
★★★
一個向量空間Vector Space)的維度Dimension)指的是什麼?
A
該空間中向量的數量。
B
構成該空間的任何一組基底Basis)中所包含向量數量
C
該空間中向量元素的最大值。
D
該空間中所有向量長度的平均值。
答案解析
向量空間維度是描述該空間「大小」或「自由度」的基本概念。一個向量空間基底是指一組線性獨立Linearly Independent)的向量,它們可以通過線性組合生成(Span)該空間中的所有向量。對於一個給定的向量空間,其所有可能的基底都包含相同數量向量,這個數量就被定義為該向量空間維度。例如,我們熟悉的二維歐幾里得空間 R2 的一個標準基底是 {[1, 0], [0, 1]},包含兩個向量,因此其維度是 2。三維空間 R3維度是 3。機器學習特徵空間維度就是指特徵的數量。
#5
★★★★★
對於一個 n x n方陣 A,如果存在一個非零向量 v 和一個純量 λ,使得 Av = λv 成立,那麼 λv 分別被稱為什麼?
A
λ奇異值Singular Value),v左奇異向量Left Singular Vector)。
B
λ特徵值Eigenvalue),v 是對應於 λ特徵向量Eigenvector)。
C
λ行列式Determinant),v單位向量Unit Vector)。
D
λ範數Norm),v基底向量Basis Vector)。
答案解析
特徵值特徵向量描述了線性變換(由矩陣 A 代表)對某些特定向量的作用方式。如果一個非零向量 v 經過矩陣 A 的變換後,其方向保持不變(或變為反方向),只是長度被縮放了 λ 倍Av = λv),那麼這個純量 λ 就被稱為矩陣 A 的一個特徵值,而向量 v 就被稱為對應於特徵值 λ 的一個特徵向量特徵值特徵向量在許多領域都有重要應用,包括主成分分析PCA)、馬可夫鏈的穩態分析、微分方程求解、量子力學等。奇異值奇異向量SVD 相關,適用於任意矩陣而非僅方陣
#6
★★★★★
主成分分析Principal Component Analysis, PCA)是一種常用的降維技術,其主要目標是找到一組新的正交座標軸主成分),使得數據在哪個方向上的變異數最大化?
A
使得數據的平均值最大化。
B
按照數據投影後變異數Variance由大到小的順序排列。
C
使得數據點之間的距離最小化。
D
使得數據與原始座標軸的相關性最大化。
答案解析
PCA 的核心思想是通過線性變換將原始高維數據投影到一個新的低維子空間中,同時盡可能多地保留原始數據的變異信息PCA 尋找數據變異最大的方向作為第一個主成分PC1),然後在與 PC1 正交的子空間中尋找變異次大的方向作為第二個主成分PC2),依此類推。這些主成分方向恰好對應於數據共變異數矩陣Covariance Matrix)的特徵向量,而每個主成分解釋的變異量則對應於相應的特徵值。通過選擇前 k 個(k < n)變異最大主成分來表示數據,就可以實現降維,同時保留了數據中大部分的結構信息。
#7
★★★★
多元線性回歸Multiple Linear Regression)中,模型可以表示為 y = Xβ + ε。如果我們使用普通最小平方法Ordinary Least Squares, OLS)來估計參數 β,其解析解Closed-form Solution)通常表示為?
A
β̂ = (XTX)XTy
B
β̂ = (XTX)-1XTy
C
β̂ = XTy
D
β̂ = (XXT)-1Xy
答案解析
多元線性回歸試圖找到一組參數 β,使得模型預測值 ŷ = Xβ 與實際觀測值 y 之間的殘差平方和Sum of Squared Residuals, SSR = ||y - Xβ||²)最小化。通過對 SSR 關於 β 求導數並令其為零,可以推導出 OLS 估計量的解析解(也稱為正規方程 Normal Equation 的解)。這個解是 β̂ = (XTX)-1XTy。這裡假設矩陣 Xm x (n+1) 維(m個樣本,n個特徵加上截距項),ym x 1 維的觀測值向量β(n+1) x 1 維的參數向量。這個公式要求 XTX 矩陣可逆的(即特徵之間不能完全線性相關)。如果 XTX 不可逆或接近奇異,則可能需要使用嶺回歸Ridge Regression)等加入正規化的方法。
#8
★★★★
深度學習神經網路中,一個全連接層Fully Connected Layer)的操作,可以看作是對輸入向量進行了什麼樣的線性代數運算?
A
計算輸入向量範數Norm)。
B
一個仿射變換Affine Transformation),即先進行矩陣乘法線性變換),再加上一個偏置向量(平移)。
C
對輸入向量進行奇異值分解SVD)。
D
計算輸入向量特徵值
答案解析
一個全連接層(或稱密集層 Dense Layer)接收一個輸入向量 x,並輸出一個向量 y。其計算過程通常是 y = Wx + b,其中:
  • W 是一個權重矩陣Weight Matrix),它定義了輸入和輸出之間的線性映射關係。如果輸入維度是 n,輸出維度是 k,則 Wk x n矩陣
  • x 是輸入列向量n x 1)。
  • b 是一個偏置向量Bias Vector),維度k x 1
  • 矩陣乘法 Wx 實現了線性變換,而加上偏置向量 b 實現了平移。
線性變換加上平移在數學上稱為仿射變換。這個仿射變換的結果通常會再通過一個非線性的激活函數Activation Function,如 ReLU, Sigmoid, Tanh)來引入非線性,這是神經網路能夠學習複雜模式的關鍵。因此,全連接層的核心線性代數運算是仿射變換
#9
★★★★
推薦系統資訊檢索中,常用來衡量兩個向量(例如,用戶向量或物品向量)之間方向相似度,而不考慮其長度(大小)的指標是?
A
歐幾里得距離Euclidean Distance
B
餘弦相似度Cosine Similarity
C
曼哈頓距離Manhattan Distance
D
向量點積Dot Product
答案解析
餘弦相似度計算的是兩個非零向量之間夾角的餘弦值。其計算公式為:cos(θ) = (v · w) / (||v|| * ||w||),其中 v · w向量 vw點積||v||||w|| 分別是它們的歐幾里得範數(長度)。餘弦相似度的取值範圍是 [-1, 1]。值為 1 表示兩個向量方向完全相同;值為 -1 表示方向完全相反;值為 0 表示兩個向量正交(垂直)。由於計算中除以了向量的長度,餘弦相似度只關注向量之間的方向關係,而忽略了它們的大小。這使得它特別適用於衡量文本向量(如 TF-IDF詞嵌入)或用戶/物品嵌入向量之間的語義或偏好相似度歐幾里得距離曼哈頓距離衡量的是點之間的空間距離,會受到向量大小的影響。點積本身也受向量大小影響。
#10
★★★
一個矩陣Rank)指的是什麼?
A
矩陣中非零元素的個數。
B
矩陣的列向量(或行向量)所能張成的向量空間最大維度,即線性獨立的列(或行)向量的最大數量
C
矩陣行列式的值。
D
矩陣對角線上元素之和( Trace)。
答案解析
矩陣線性代數中的一個基本概念,它有多種等價的定義:
  • 列秩Column Rank):矩陣向量所張成的列空間Column Space)的維度,等於線性獨立的列向量的最大數目
  • 行秩Row Rank):矩陣向量所張成的行空間Row Space)的維度,等於線性獨立的行向量的最大數目
  • 一個重要的定理是:矩陣列秩總是等於其行秩,因此統稱為矩陣
  • 也等於矩陣經過高斯消元法化為行階梯形Row Echelon Form)後非零行的數目。
  • 對於方陣小於其維度表示該矩陣是奇異的(Singular),行列式為0,不存在逆矩陣
矩陣反映了矩陣所代表的線性變換的「退化」程度或信息的冗餘度,在判斷線性方程組解的存在性、PCA等應用中很重要。
#11
★★★★
如果一個向量集合中的任何一個向量都不能表示為集合中其他向量線性組合,則稱這個向量集合具有什麼性質?
A
正交性Orthogonality
B
線性獨立Linear Independence
C
線性相依Linear Dependence
D
標準正交性Orthonormality
答案解析
線性獨立向量空間中的核心概念。一組向量 {v1, v2, ..., vk} 被稱為線性獨立,若且唯若方程 c1*v1 + c2*v2 + ... + ck*vk = 0唯一解c1 = c2 = ... = ck = 0。換句話說,沒有任何一個向量可以表示為其他向量的線性組合。如果存在不全為零的係數使得上述方程成立,則這組向量稱為線性相依線性獨立性是構成向量空間基底的必要條件。正交性向量點積為0,標準正交性向量正交又長度為1。
#12
★★★★
對於一個對稱矩陣Symmetric Matrix),其特徵向量Eigenvectors)具有什麼重要的性質?
A
所有特徵向量都是零向量
B
對應於不同特徵值特徵向量必定相互正交Orthogonal)。
C
所有特徵值都必定是複數。
D
特徵向量之間必定線性相依
答案解析
對稱矩陣(即 A = AT)具有非常良好的性質:
  1. 所有特徵值都是實數
  2. 對應於不同特徵值特徵向量必定相互正交
  3. 總是可以找到一組 n 個線性獨立特徵向量,構成整個 Rn 空間的一組正交基(甚至可以標準化為標準正交基)。
  4. 對稱矩陣必定可以正交對角化,即存在一個正交矩陣 P 使得 PTAP = D,其中 D 是由特徵值構成的對角矩陣
這些性質使得對稱矩陣在許多應用中特別重要,例如共變異數矩陣(用於PCA)就是對稱的
#13
★★★
主成分分析PCA)中,通常如何選擇要保留的主成分數量 k
A
k 固定為 2 或 3,以便視覺化
B
根據累積解釋變異比例Cumulative Explained Variance Ratio)達到某個閾值(如 90% 或 95%)來決定 k
C
選擇使得 k 等於原始特徵數量 n
D
隨機選擇一個 k 值。
答案解析
PCA 降維的目標是在減少維度的同時,盡可能保留原始數據中的信息(用變異數來衡量)。每個主成分都對應一個特徵值,該特徵值代表了該主成分方向上解釋的數據變異量。通常將特徵值從大到小排序,然後計算前 k主成分所解釋的變異量佔總變異量的比例(累積解釋變異比例)。一種常見的選擇 k 的方法是設定一個閾值(例如 90%、95% 或 99%),然後選擇足以達到該閾值的最小主成分數量 k。這樣可以在保留大部分數據信息的同時實現顯著的降維。也可以通過觀察解釋變異比例k 變化的「陡坡圖」(Scree Plot)來尋找一個「拐點」(Elbow Point)作為 k 的選擇。選擇k=2 或 3 主要用於數據視覺化。選擇 k=n 則沒有降維
#14
★★★
嶺回歸Ridge Regression)在普通最小平方法OLS)的目標函數中加入了一個 L2 正規化項(參數平方和的懲罰)。這樣做的主要目的是什麼?
A
使所有回歸係數都變為 0。
B
處理特徵之間的多重共線性Multicollinearity)問題,穩定係數估計,並減小模型變異,防止過擬合
C
強制模型選擇一部分特徵
D
加快模型訓練速度。
答案解析
當輸入特徵之間存在高度相關性(多重共線性)時,OLS 估計中的 (XTX) 矩陣可能接近奇異或不可逆,導致回歸係數 β̂ 的估計值非常不穩定,對數據的微小變動非常敏感(即模型變異很大)。嶺回歸通過在最小化殘差平方和目標函數上增加一個懲罰項 λ||β||²(其中 λ > 0正規化參數),來對係數的大小進行約束。這相當於在 (XTX) 的對角線上加上一個小的正數 λI,使得矩陣變得更容易求逆,從而穩定係數估計嶺回歸會將係數向零收縮(Shrinkage),但通常不會使其精確等於零(這是 L1 正規化 LASSO 的特點,選項 C)。其主要作用是降低模型的變異,以犧牲少量偏誤為代價來提高模型的泛化能力,尤其是在存在多重共線性特徵數量接近甚至超過樣本數量時。
#15
★★★
卷積神經網路Convolutional Neural Network, CNN)中,卷積核KernelFilter)與輸入圖像(或特徵圖)進行的「卷積」操作,本質上是一種什麼樣的線性代數運算?
A
矩陣轉置Transpose)。
B
卷積核與輸入局部區域的逐元素乘積後求和(類似於點積互相關 Cross-correlation)。
C
奇異值分解SVD)。
D
計算行列式Determinant)。
答案解析
卷積操作是 CNN 的核心。它涉及將一個小的卷積核(例如 3x3 矩陣)在輸入圖像(或上一層的特徵圖)上滑動。在每個位置,卷積核中的權重會與其覆蓋的輸入區域中的像素值(或特徵值)進行逐元素的乘法運算,然後將所有乘積加總,得到輸出特徵圖在該位置的一個值。這個「逐元素乘積後求和」的過程,在數學上非常類似於計算兩個矩陣卷積核和輸入局部區域)對應元素的點積(如果將它們展平成向量)或者信號處理中的互相關運算。通過滑動卷積核並重複這個過程,就可以生成下一層的特徵圖,實現對局部模式(如邊緣、紋理)的檢測。
#16
★★
向量L2 範數L2 Norm),也稱為歐幾里得範數Euclidean Norm),通常用來衡量向量的什麼?
A
向量中非零元素的個數(L0 範數)。
B
向量大小或長度Magnitude / Length)。
C
向量元素絕對值之和(L1 範數)。
D
向量中最大元素的值(L∞ 範數)。
答案解析
向量 v = [v1, v2, ..., vn]L2 範數定義為 ||v||2 = sqrt(v1² + v2² + ... + vn²)。它對應於歐幾里得空間中從原點到向量所代表點的直線距離,也就是我們通常所說的向量長度或大小L2 範數機器學習中廣泛應用,例如:(1) 計算歐幾里得距離用於 K-近鄰算法或聚類。(2) 在正規化中使用(如嶺回歸中的 L2 懲罰項)。(3) 向量歸一化Normalization)等。
#17
★★★
矩陣轉置Transpose)操作 AT 是如何定義的?
A
矩陣的所有元素取倒數。
B
矩陣行和列互換,即 (AT)ij = Aji
C
計算矩陣逆矩陣Inverse Matrix)。
D
矩陣對角線上的元素相加( Trace)。
答案解析
矩陣 A轉置,記作 ATA',是通過將 A 的行向量變換為其列向量(或者等價地,將列向量變換為行向量)得到的新矩陣。如果 A 是一個 m x n矩陣,那麼 AT 將是一個 n x m矩陣,其第 i 行第 j 列的元素等於原矩陣 A 的第 j 行第 i 列的元素。轉置操作具有一些性質,如 (A+B)T = AT + BT(AB)T = BTAT(AT)T = A轉置線性代數機器學習的公式推導和計算中非常常用。
#18
★★★
對於一個線性方程組 Ax = b,如果矩陣 A行列式 det(A) 不等於 0,這意味著該方程組
A
沒有解。
B
唯一的解
C
有無限多組解。
D
解不確定。
答案解析
對於一個 n x n方陣 A,其行列式 det(A) ≠ 0矩陣 A 可逆Invertible)或非奇異(Non-singular)的充分必要條件。如果矩陣 A 可逆,那麼線性方程組 Ax = b 必定有唯一的解,這個解可以表示為 x = A-1b,其中 A-1A逆矩陣。如果 det(A) = 0,則矩陣 A 是奇異的,不可逆,此時方程組 Ax = b 可能沒有解,也可能有無限多組解,具體取決于向量 b 是否在矩陣 A列空間中。
#19
★★★
矩陣Trace),記作 tr(A),是如何計算的?
A
矩陣所有元素的總和。
B
方陣主對角線上元素的總和
C
矩陣行列式的值。
D
矩陣
答案解析
矩陣是定義在 n x n 方陣上的一個運算。它等於矩陣主對角線(從左上到右下)上所有元素的總和。即對於方陣 Atr(A) = Σ Aii (i 從 1 到 n)。具有線性性質 tr(A+B) = tr(A) + tr(B)tr(cA) = c*tr(A),以及重要的循環性質 tr(ABC) = tr(BCA) = tr(CAB)(只要矩陣乘積有定義)。一個值得注意的性質是,方陣等於其所有特徵值(包括重複的)的總和。
#20
★★
PCA 降維前,通常需要對原始數據進行什麼樣的預處理
A
增加更多特徵
B
中心化(將每個特徵減去其均值)和/或標準化(再除以標準差),以確保特徵具有零均值和可比較的尺度
C
將所有數據值替換為 1。
D
刪除所有離群值
答案解析
PCA 是通過尋找數據變異最大的方向來進行降維的。如果原始特徵尺度(單位或數值範圍)差異很大,那麼具有較大數值範圍的特徵將在計算共變異數矩陣時佔據主導地位,使得 PCA 的結果主要由這些大尺度特徵決定,而忽略了其他特徵可能包含的重要結構信息。為了避免這種情況,通常在應用 PCA 之前需要對數據進行預處理
  1. 中心化 (Centering):將每個特徵減去其平均值,使得每個特徵均值變為 0。這是計算共變異數矩陣的前提。
  2. 標準化 (Standardization) / 縮放 (Scaling)(可選但常用):在中心化之後,再將每個特徵除以其標準差,使得每個特徵變異數變為 1。這樣可以確保所有特徵PCA 分析中具有同等的權重。
是否需要標準化取決於具體應用和對特徵尺度的考量,但中心化幾乎總是必需的。
#21
兩個矩陣 A (m x n)B (p x q) 可以相乘 (得到矩陣 AB) 的條件是?
A
m = p
B
n = p (第一個矩陣的行數等於第二個矩陣的列數)
C
m = q
D
n = q
答案解析
矩陣乘法 AB 只有在第一個矩陣 A行數Number of Columns等於第二個矩陣 B列數Number of Rows)時才有定義。如果 Am x n 矩陣Bp x q 矩陣,則它們可以相乘的條件是 n = p。乘積矩陣 AB 將是一個 m x q矩陣矩陣乘法不滿足交換律,即一般情況下 AB ≠ BA(即使兩者都有定義)。
#22
★★
一個向量空間零向量Zero Vector)具有什麼性質?
A
與任何向量點積都為 1。
B
加上任何向量 v,結果仍為 v加法單位元);乘以任何純量 c,結果仍為零向量
C
其長度(範數)為 1。
D
它是任何向量空間基底的一部分。
答案解析
零向量(通常表示為 00)是向量空間中的特殊元素,它在向量加法下充當單位元Identity Element)。即對於空間中任意向量 v,都有 v + 0 = 0 + v = v。此外,用任何純量 c 乘以零向量,結果仍然是零向量c * 0 = 0零向量的長度(範數)為 0。包含零向量的任何向量集合都是線性相依的,因此零向量不能作為基底向量
#23
如果一個方陣 A特徵值Eigenvalue)之一為 0,這意味著什麼?
A
矩陣 A單位矩陣
B
矩陣 A奇異的Singular),即不可逆,其行列式為 0。
C
矩陣 A對稱的
D
矩陣 A 的所有元素都為 0。
答案解析
特徵值 λ 是滿足方程 Av = λv(對於非零向量 v)的純量。如果 λ = 0,則方程變為 Av = 0v = 0。這意味著存在一個非零向量 v,使得 Av = 0。根據線性方程組理論,齊次方程 Ax = 0 存在非零解的充分必要條件是矩陣 A奇異的不可逆)。矩陣 A 奇異的另一個等價條件是其行列式 det(A) = 0。因此,特徵值為 0 意味著該方陣奇異的
#24
★★
簡單線性回歸 y = β0 + β1x + ε 中,參數 β1 的幾何意義是什麼?
A
回歸線y 軸上的截距
B
回歸線斜率,表示 x 每增加一個單位,y平均變化量
C
xy 之間的相關係數
D
誤差項標準差
答案解析
簡單線性回歸模型 y = β0 + β1x + ε 中:
  • β0截距Intercept),表示當自變數 x 為 0 時,應變數 y 的期望值。在圖形上是回歸直線y 軸的交點。
  • β1斜率Slope),表示自變數 x 每變化一個單位時,應變數 y期望平均變化量。它衡量了 xy 的線性影響程度和方向。
  • ε誤差項Error Term),代表了模型未能解釋的隨機變動。
因此,β1 代表回歸線斜率
#25
★★
神經網路中的激活函數Activation Function)的作用主要是?
A
進行線性變換
B
引入非線性Non-linearity),使得網路能夠學習和表示複雜的非線性關係
C
減少模型參數的數量。
D
對輸入數據進行歸一化
答案解析
如果一個多層神經網路只包含線性層(如全連接層仿射變換),那麼無論網路有多少層,其整體效果仍然等價于一個單一的線性變換。這樣的網路只能學習線性關係,無法擬合現實世界中普遍存在的複雜非線性模式。激活函數(如 Sigmoid, Tanh, ReLU, Leaky ReLU 等)被應用於線性層的輸出之後,它們引入了非線性變換。正是這種非線性的引入,使得多層神經網路能夠學習和逼近任意複雜的函數,從而具備強大的表示能力。
#26
★★★
在基於物品的協同過濾Item-Based Collaborative Filtering推薦系統中,通常需要計算物品之間的相似度。如果物品被表示為用戶評分向量,可以使用哪種線性代數方法來計算相似度
A
計算向量行列式
B
計算物品向量之間的餘弦相似度調整後的餘弦相似度Adjusted Cosine Similarity)。
C
對評分矩陣進行特徵分解
D
求解線性方程組
答案解析
基於物品的協同過濾假設:如果用戶喜歡物品 A,那麼他們也可能喜歡與物品 A 相似的其他物品。為了找到相似物品,系統通常將每個物品表示為一個向量向量的每個維度對應一個用戶對該物品的評分(或者某種轉換後的評分)。然後,計算不同物品向量之間的相似度餘弦相似度是常用的方法,它衡量向量方向的一致性,可以捕捉評分模式的相似性調整後的餘弦相似度則通過減去每個用戶的平均評分來考慮不同用戶評分尺度的差異。計算出物品間的相似度後,就可以根據用戶過去喜歡的物品,推薦與之相似的其他物品。
#27
單位矩陣Identity MatrixI 是一個對角線上元素全為 1,其餘元素全為 0 的方陣。它在矩陣乘法中扮演什麼角色?
A
任何矩陣乘以單位矩陣都得到零矩陣
B
充當乘法單位元,即任何矩陣 A 乘以單位矩陣 I維度匹配時)都等於 A 本身(AI = A, IA = A)。
C
任何矩陣乘以單位矩陣結果都是轉置矩陣
D
任何矩陣乘以單位矩陣結果都是逆矩陣
答案解析
單位矩陣矩陣乘法中的作用類似于實數乘法中的數字 1。對於任何 m x n矩陣 A,如果 Inn x n單位矩陣Imm x m單位矩陣,則有 A * In = AIm * A = A。它是矩陣乘法單位元Identity Element)。
#28
★★
一個矩陣逆矩陣Inverse MatrixA-1 必須滿足什麼條件?
A
A + A-1 = 0 (零矩陣)
B
AA-1 = A-1A = I (單位矩陣)
C
A-1 = AT (轉置矩陣)
D
A-1 的所有元素都是 A 中元素的倒數。
答案解析
只有方陣才可能有逆矩陣。對於一個 n x n方陣 A,如果存在一個 n x n方陣 B,使得 AB = BA = In(其中 Inn x n單位矩陣),那麼矩陣 B 就被稱為 A逆矩陣,記作 A-1。一個方陣存在逆矩陣的充分必要條件是其行列式不為零(即矩陣非奇異)。逆矩陣在解線性方程組 Ax = b(解為 x = A-1b)等運算中非常重要。注意 A-1 = AT 僅對正交矩陣成立。
#29
★★★★
在通過 SVD (A = UΣVT) 進行降維時,通常如何構建降維後的矩陣 Ak
A
只保留 U 矩陣的前 k 行。
B
保留 U 的前 k 行,Σ 的左上角 k x k矩陣 Σk,以及 VT 的前 k 列(即 V 的前 k 行),計算 Ak = UkΣkVkT
C
只保留 Σ 矩陣的前 k 個對角元素。
D
只計算 UV點積
答案解析
SVD 提供了一種逼近原矩陣 A最佳低秩Low-Rank)近似方法(在弗羅貝尼烏斯範數或譜範數意義下)。奇異值 Σ 的對角元素 σi 通常按降序排列,代表了對應的奇異向量方向上的「能量」或重要性。為了得到 Ak 的最佳近似矩陣 Ak,我們保留 U 矩陣的前 k 行(記為 Uk,維度 m x k),Σ 矩陣左上角的 k x k 對角矩陣(包含前 k 個最大的奇異值,記為 Σk),以及 VT 矩陣的前 k 列(等價於 V 的前 k 行,記為 VkT,維度 k x n)。然後計算 Ak = UkΣkVkT。這個 Ak 就是原矩陣 A 在保留了 k 個最重要「模式」下的近似表示,常用於降維、去噪和數據壓縮。
#30
★★★★★
在訓練深度神經網路時,反向傳播Backpropagation算法的核心是利用哪個線性代數相關的數學概念來計算損失函數對各層權重的梯度
A
矩陣行列式
B
微積分中的鏈式法則Chain Rule),並結合向量矩陣的導數運算。
C
特徵值分解
D
線性方程組
答案解析
反向傳播算法是一種高效計算複雜函數(如深度神經網路損失函數梯度的方法。神經網路可以看作是多個函數(線性變換非線性激活)的複合。為了計算損失函數 L 對於網路中某一層權重 W梯度 ∂L/∂W反向傳播利用了微積分的鏈式法則。它從最後一層開始,計算損失對該層輸出的梯度,然後逐層向前傳播這個梯度,利用每一層函數的局部導數(雅可比矩陣 Jacobian梯度),計算出損失對該層參數和輸入的梯度。這個過程涉及到大量的向量矩陣的導數運算(例如,矩陣乘法的導數、激活函數的導數等),這些都屬於多元微積分與線性代數結合的範疇。鏈式法則是實現梯度逐層反向傳遞的核心數學原理。
#31
向量的加法運算遵循什麼法則?
A
只遵循結合律 (Associative Law)。
B
遵循交換律 (Commutative Law) 和結合律 (Associative Law)。
C
只遵循交換律 (Commutative Law)。
D
不遵循任何特定法則。
答案解析
向量加法是指將兩個相同維度向量對應位置的元素相加。它滿足以下運算律:
  • 交換律u + v = v + u
  • 結合律(u + v) + w = u + (v + w)
此外,還存在加法單位元零向量 0,使得 v + 0 = v)和加法反元素(對於每個向量 v,存在一個 -v,使得 v + (-v) = 0)。這些性質使得向量集合在加法和純量乘法下構成一個向量空間
#32
★★★
如果一組向量可以張成Span)整個向量空間 V,並且這組向量線性獨立的,那麼這組向量被稱為什麼?
A
子空間Subspace
B
向量空間 V 的一組基底Basis
C
特徵向量Eigenvectors
D
正交補餘Orthogonal Complement
答案解析
向量空間基底Basis)是一組向量,它同時滿足兩個條件:
  1. 線性獨立 (Linearly Independent)基底中的任何一個向量都不能表示為其他基底向量線性組合
  2. 張成空間 (Span the Space):空間中的任何一個向量都可以表示為基底向量線性組合
基底提供了一種描述向量空間中所有向量的最小座標系。一個向量空間可以有多組不同的基底,但所有基底包含的向量數量是相同的,這個數量就是空間的維度
#33
★★
特徵分解Eigen DecompositionA = PDP-1 只能應用於哪種類型的矩陣
A
任意 m x n 矩陣
B
可對角化的方陣Square Diagonalizable Matrix)。
C
正交矩陣Orthogonal Matrix)。
D
向量Vector)。
答案解析
特徵分解(或稱譜分解 Spectral Decomposition)試圖將一個方陣 A 分解為 A = PDP-1 的形式,其中:
  • P 是一個由 A線性獨立特徵向量作為列向量構成的可逆矩陣
  • D 是一個對角矩陣,其對角線元素是 A 對應於 P特徵向量特徵值
並非所有的方陣都可以進行特徵分解。一個 n x n方陣 A 可對角化Diagonalizable)的充分必要條件是它具有 n線性獨立特徵向量。如果矩陣 A對稱的,則它保證可以正交對角化(即 P 可以選擇為正交矩陣P-1 = PT)。特徵分解在理解線性變換、計算矩陣冪、解微分方程組等方面有應用。
#34
★★★
主成分分析PCA)與奇異值分解SVD)之間有何關係?
A
兩者完全無關。
B
PCA 可以通過對數據矩陣中心化後)進行 SVD 來實現,主成分方向與右奇異向量 V 有關。
C
SVDPCA 的一種簡化版本。
D
PCA 只能處理方陣SVD 只能處理非方陣
答案解析
PCASVD 在數學上密切相關。傳統上,PCA 是通過計算數據(中心化後)的共變異數矩陣,然後對共變異數矩陣進行特徵分解來找到主成分特徵向量)和解釋的變異量特徵值)。然而,另一種更常用且數值更穩定的實現 PCA 的方法是直接對中心化後的數據矩陣 Xm x n)進行 SVD 分解:X = UΣVT。在這種情況下:
  • 主成分方向(Principal Directions)由 V 的列向量右奇異向量)給出。
  • 數據投影到主成分上的座標(Principal Component Scores)可以通過 X V = UΣ 計算得到(U 的列向量乘以對應的奇異值)。
  • 每個主成分解釋的變異量與對應奇異值的平方 σi² 成正比。
因此,SVD 提供了一種無需顯式計算共變異數矩陣即可執行 PCA 的有效途徑。SVD 適用於任意矩陣,而傳統基於特徵分解PCA 需要計算方陣共變異數矩陣)。
#35
線性代數中,純量Scalar)通常指的是?
A
一個向量
B
一個單一的數值(例如,實數或複數)。
C
一個矩陣
D
一個函數。
答案解析
線性代數的上下文中,純量就是一個普通的數,它可以是一個實數(如 5, -3.14, sqrt(2))或複數。純量通常用來與向量矩陣進行乘法運算(純量乘法),作用是對向量矩陣進行縮放。例如,c * v 就是將向量 v 的每個元素都乘以純量 c。它區別於向量(表示大小和方向)和矩陣(表示線性變換或數據排列)。
#36
★★
Hadamard 積(Hadamard Product)或稱逐元素乘積Element-wise Product),對於兩個相同維度矩陣 AB,其結果 C = A ∘ B 如何計算?
A
執行標準的矩陣乘法 AB
B
結果矩陣 C 的每個元素 Cij 等於 Aij * Bij
C
計算 AB點積
D
計算 A逆矩陣乘以 B
答案解析
Hadamard 積是一種不同於標準矩陣乘法的運算。它要求兩個矩陣 AB 具有完全相同的維度(例如,都是 m x n)。結果矩陣 C 也具有相同的維度 m x n,並且其每個元素 Cij 是由 AB 對應位置的元素相乘得到的:Cij = Aij * BijHadamard 積在深度學習中經常出現,例如在應用門控機制(如 GRU, LSTM 中的門)或進行元素級別的操作時。
#37
Rn 空間指的是?
A
所有 n x n 矩陣的集合。
B
所有包含 n實數元素的有序元組(或列向量)的集合,即 n 維實數向量空間
C
所有 n 階多項式的集合。
D
n 個點的集合。
答案解析
Rnn 維歐幾里得空間Euclidean Space)的標準表示符號。它包含了所有形如 (x1, x2, ..., xn) 的有序元組,其中每個分量 xi 都是實數Real Number)。這些元組通常可以表示為 n 維的列向量或行向量Rn向量加法純量乘法下構成一個向量空間,是線性代數機器學習中最常處理的向量空間類型。例如,R2 是二維平面,R3 是三維空間。
#38
★★★
方陣 A 的所有特徵值之和等於該矩陣的什麼?
A
行列式Determinant
B
Trace
C
Rank
D
範數Norm
答案解析
對於一個 n x n方陣 A,其特徵值Eigenvaluesλ1, λ2, ..., λn(包含重複的特徵值)與矩陣Trace)和行列式Determinant)之間存在以下重要關係:
  • 特徵值之和 = 矩陣的跡Σ λi = tr(A) = Σ Aii
  • 特徵值之積 = 矩陣的行列式Π λi = det(A)
這些性質在理論分析和數值計算中都很有用。
#39
降維Dimensionality Reduction)技術的主要目的是什麼?
A
增加數據的維度以提高模型精度。
B
減少數據的特徵數量維度),同時盡量保留重要信息,以克服維度災難、降低計算複雜度、方便視覺化或去除冗餘。
C
將數據轉換為類別標籤
D
對數據進行加密
答案解析
高維度數據常常帶來一些問題,統稱為「維度災難」(Curse of Dimensionality),例如數據稀疏、計算量指數級增長、模型容易過擬合等。降維技術旨在將高維數據轉換為低維表示,同時保留數據中的關鍵結構或信息。這樣做的好處包括:(1) 降低存儲和計算成本。(2) 提高某些機器學習算法的性能(通過去除噪聲或冗餘特徵)。(3) 使得數據更容易視覺化(例如降到2維或3維)。(4) 緩解維度災難問題。常見的降維技術有 PCALDAt-SNEUMAP 等。
#40
歐幾里得距離Euclidean Distance)計算的是兩個向量在空間中的什麼?
A
夾角的餘弦值。
B
直線距離
C
元素絕對差之和(曼哈頓距離)。
D
點積
答案解析
歐幾里得距離是最常用的距離度量方式,它計算的是 n 維空間中兩個點(由向量表示)之間的最短直線距離。對於兩個向量 v = [v1, ..., vn]w = [w1, ..., wn],它們之間的歐幾里得距離 d(v, w) = ||v - w||2 = sqrt(Σ (vi - wi)²)。它滿足距離度量的所有性質(非負性、同一性、對稱性、三角不等式)。在機器學習中,常用於 K-近鄰KNN)、K-means 聚類算法中衡量樣本點之間的相似性(距離越小越相似)。
#41
★★★
正交矩陣Orthogonal MatrixQ 具有什麼重要性質?
A
Q行列式必定為 0。
B
轉置等於其逆矩陣QT = Q-1),且 QTQ = QQT = I。它的列向量(和行向量)構成一組標準正交基
C
Q 必定是對稱矩陣
D
Q 的所有元素都必須是正數。
答案解析
正交矩陣是一個實數方陣 Q,其列向量(以及行向量)構成一組標準正交基Orthonormal Basis),即這些向量兩兩正交點積為0)且每個向量的長度(L2範數)都為1。正交矩陣最重要的性質是它的轉置等於它的逆矩陣QT = Q-1。這也意味著 QTQ = IQQT = I。正交變換(由正交矩陣代表)保持向量的長度和向量之間的角度(以及點積)不變,相當於空間中的旋轉(Rotation)或鏡像(Reflection)。正交矩陣QR 分解、SVDPCA 等許多線性代數應用中扮演關鍵角色。其行列式的值必定為 +1 或 -1。
#42
★★★★
LU 分解是將一個方陣 A 分解為哪兩個矩陣的乘積?
A
一個正交矩陣和一個上三角矩陣
B
一個下三角矩陣Lower Triangular Matrix, L)和一個上三角矩陣Upper Triangular Matrix, U)。
C
兩個對稱矩陣
D
一個對角矩陣和一個可逆矩陣
答案解析
LU 分解(或稱 LU Factorization)試圖將一個方陣 A(通常要求可逆)分解為 A = LU 的形式,其中:
  • L 是一個下三角矩陣,其主對角線元素通常為 1(單位下三角矩陣)。
  • U 是一個上三角矩陣
LU 分解可以看作是高斯消元法矩陣形式。一旦得到了 ALU 分解,求解線性方程組 Ax = b 就變得相對容易:首先解 Ly = b前向替換 Forward Substitution),然後解 Ux = y後向替換 Backward Substitution)。LU 分解在數值計算中廣泛用於高效求解線性方程組和計算行列式。有時為了數值穩定性,會使用帶有部分主元選擇(Partial Pivoting)的 LU 分解,形式為 PA = LU,其中 P 是一個置換矩陣Permutation Matrix)。
#43
★★
一個矩陣零空間Null Space)或Kernel),記作 N(A),指的是滿足哪個條件的所有向量 x 的集合?
A
Ax = b,其中 b 是非零向量
B
Ax = 0,其中 0零向量
C
||Ax|| = 1
D
ATx = 0
答案解析
對於一個 m x n矩陣 A,其零空間 N(A) 是所有使得齊次線性方程組 Ax = 0 成立的 n向量 x 的集合。零空間是一個向量子空間,其維度稱為零度Nullity)。根據秩-零度定理Rank-Nullity Theorem),矩陣 A rank(A) 加上其零度 nullity(A) 等於矩陣的列數 nrank(A) + nullity(A) = n零空間包含了所有被矩陣 A 映射到零向量的輸入向量,它在理解線性變換的性質和解線性方程組中很重要。
#44
★★★
機器學習中,經常需要計算損失函數對模型參數的梯度Gradient)以進行優化(如梯度下降)。梯度本質上是一個什麼?
A
一個純量值,表示函數的曲率。
B
一個向量,其方向指向函數值增加最快的方向,其大小表示增加的速率。
C
一個矩陣,表示函數的二階導數(Hessian Matrix)。
D
一個隨機數。
答案解析
對於一個多元純量函數 f(w),其中 w 是一個包含多個參數的向量 w = [w1, w2, ..., wn],其梯度 ∇f(w) 是一個由函數對每個參數的偏導數構成的向量∇f(w) = [∂f/∂w1, ∂f/∂w2, ..., ∂f/∂wn]梯度的方向指向函數值上升最快的方向,梯度的負方向(-∇f(w))則指向函數值下降最快的方向。梯度的大小(範數 ||∇f(w)||)表示函數在該點變化的速率。梯度下降算法正是利用了梯度的這個性質,通過沿著負梯度方向迭代更新參數來尋找函數的最小值點。
#45
神經網路中,批次歸一化Batch Normalization)層的作用之一是對某一層的輸入進行歸一化處理,使其具有接近零均值和單位變異數。這有助於解決哪個訓練中的問題?
A
特徵過少。
B
內部協變量偏移Internal Covariate Shift),並有助於加速訓練收斂穩定訓練過程
C
模型參數過少。
D
數據標籤錯誤。
答案解析
深度神經網路訓練過程中,由於各層參數的不斷更新,後面層的輸入分佈會持續發生變化,這種現象被稱為內部協變量偏移。這會使得模型訓練更加困難,可能需要更小的學習率和更仔細的參數初始化。批次歸一化通過對每個小批次mini-batch)數據在進入激活函數之前進行歸一化(減去批次均值,除以批次標準差),並學習兩個可訓練參數(γβ)進行縮放和平移,來穩定各層輸入的分佈。這有助於:(1) 減輕內部協變量偏移問題。(2) 允許使用更高的學習率。(3) 降低對參數初始化的敏感度。(4) 可能起到一定的正規化作用。從而加速訓練收斂並提高模型性能。計算均值變異數統計概念,而歸一化操作本身涉及向量運算。
#46
★★★★
潛在語義分析Latent Semantic Analysis, LSA)是一種自然語言處理技術,常用於文本主題建模和降維。它通常應用哪種矩陣分解方法到詞語-文檔矩陣Term-Document Matrix)上?
A
LU 分解
B
奇異值分解SVD
C
QR 分解
D
喬萊斯基分解Cholesky Decomposition
答案解析
LSA(有時也稱 LSI, Latent Semantic Indexing)的基本思想是,通過分析大量文本中詞語的共現模式,來發現詞語和文檔之間潛在的語義關係(主題)。它首先構建一個大的詞語-文檔矩陣 A(行代表詞語,列代表文檔,元素通常是詞頻 TFTF-IDF 值)。然後,對這個矩陣 A 應用奇異值分解SVD):A = UΣVTSVD 可以將原始的高維稀疏矩陣分解為三個包含潛在語義信息的矩陣。通過保留 Σ 中最大的 k奇異值及其對應的 UV 中的向量(即進行低秩近似 Ak = UkΣkVkT),LSA 將原始的詞語和文檔投影到一個 k 維的「潛在語義空間」中。在這個低維空間中,語義相關的詞語或文檔即使在原文檔中沒有直接共現,也可能彼此靠近。這個 k 維空間可以用於資訊檢索、文本聚類、文檔相似度計算等任務。
#47
向量 u = [1, 0]向量 v = [0, 1],這兩個向量是否正交Orthogonal)?
A
是,因為它們的點積為 0。
B
否,因為它們的長度不相等。
C
否,因為它們不是線性獨立的。
D
無法判斷。
答案解析
兩個非零向量被稱為正交(或垂直),如果它們之間的點積內積)等於 0。計算 uv點積u · v = (1 * 0) + (0 * 1) = 0 + 0 = 0。由於點積為 0,所以向量 uv相互正交的。它們恰好是 R2 空間的標準正交基正交性向量長度是否相等無關,也與線性獨立性有關(非零正交向量組必定線性獨立)。
#48
★★
馬可夫鏈Markov Chain)的狀態轉移矩陣 P,其元素 Pij 代表什麼意義?
A
從狀態 i 轉移到狀態 j 所需的時間。
B
從狀態 i 一步轉移到狀態 j機率
C
狀態 i穩定機率
D
狀態 i 和狀態 j 之間的距離。
答案解析
馬可夫鏈描述了一個系統在一系列離散狀態之間隨機轉移的過程,其關鍵特性是「無記憶性」(未來狀態只依賴於當前狀態,與過去狀態無關)。狀態轉移矩陣 P 是一個方陣,其中元素 Pij 表示系統在當前處於狀態 i 的條件下,下一步轉移到狀態 j 的機率。這個矩陣的每一行的元素之和必須等於 1(因為從狀態 i 必須轉移到某個狀態)。轉移矩陣的冪 Pk 的元素 (Pk)ij 表示從狀態 i 經過 k 步轉移到狀態 j機率。分析轉移矩陣特徵值特徵向量(特別是與特徵值 1 對應的左特徵向量)可以得到馬可夫鏈穩態分佈Stationary Distribution)。
#49
★★
線性判別分析Linear Discriminant Analysis, LDA)也是一種降維技術,但與 PCA 不同,LDA 的目標是找到一個投影方向,使得什麼最大化?
A
類內變異Within-class variance)。
B
類間變異Between-class variance)與類內變異比率
C
投影後數據的總變異
D
數據的稀疏性。
答案解析
PCA 是一種無監督降維方法,它只關注數據本身的變異,不考慮類別標籤。而 LDA 是一種有監督降維方法,它利用了類別標籤信息LDA 的目標是找到一個低維子空間,使得原始數據投影到該子空間後,不同類別的樣本盡可能地分開,而同一類別的樣本盡可能地聚集。具體來說,它尋找的投影方向(或超平面)能夠最大化「類間散度矩陣」Between-class Scatter Matrix)與「類內散度矩陣」(Within-class Scatter Matrix)之比(或其行列式之比)。這意味著投影後,不同類別的中心點距離盡可能遠,而每個類別內部的樣本點盡可能靠近其中心點。因此,LDA 產生的低維表示通常更利於後續的分類任務。LDA 的求解涉及到廣義特徵值問題。
#50
★★★
自然語言處理中,詞嵌入Word Embeddings)如 Word2VecGloVe,將詞語表示為低維稠密向量。這些向量之間的線性代數運算(如加減法)可以捕捉到什麼樣的關係?例如 "king" - "man" + "woman" ≈ "queen"
A
詞語的字母順序。
B
詞語之間的語義和類比關係Semantic and Analogical Relationships)。
C
詞語的發音。
D
詞語的詞性。
答案解析
詞嵌入模型通過學習大量文本中詞語的上下文共現模式,將每個詞語映射到一個低維(通常幾十到幾百維)的實數向量空間中。一個重要的發現是,這些學習到的向量空間往往具有捕捉詞語語義關係的特性。相似語義的詞語在向量空間中距離較近(例如,通過餘弦相似度衡量)。更令人驚奇的是,向量之間的算術運算有時能對應到語義上的類比關係。著名的例子 "king" - "man" + "woman" ≈ "queen" 表明,從 "king" 向量減去代表「男性」概念的向量,再加上代表「女性」概念的向量,得到的結果向量在空間中非常接近 "queen" 向量。這種向量空間的結構使得詞嵌入成為許多 NLP 任務(如文本分類情感分析機器翻譯)的有效特徵表示。