• 沒有找到結果。

Linear Transformations of Rn

N/A
N/A
Protected

Academic year: 2022

Share "Linear Transformations of Rn"

Copied!
22
0
0

加載中.... (立即查看全文)

全文

(1)

Chapter 4

Linear Transformations of R n

在本章中我們介紹在 Rn 中重要的函數, 所謂的 linear transformation. 我們會介紹 linear transformation 相關的基本性質. 然後引進其矩陣表示法, 將 linear transformation 與矩陣相連結.

4.1. Basic Properties

在數學中, 函數是我們常常利用來了解所要探討的結構的重要工具. 在線性代數中, 我們 要探討的結構就是像 Rn 這樣所謂的 vector space, 而 linear transformation 就是幫助我們 探討及理解 vector spaces 相互之間的關係的重要函數與工具.

4.1.1. Function. 給定Rn,Rm. 若有一個從Rn 的向量對應到 Rm 的向量的對應關係, 即 對任意 v∈ Rn, 此對應會將 v 對應到Rm 中一個向量 w. 若對每一個 v∈ Rn, 所對應到的 w 我們用 T (v) 來表示, 我們就用 T :Rn→ Rm, T (v) = w∈ Rm, ∀v ∈ Rn 來表示這一個對應關 係, 而稱 T 是一個從 Rn 到 Rm 的 function (函數). 這裡 Rn 稱為 T 的 domain (定義域), 而Rm 就稱為 T 的 codomain (對應域). 注意依函數的定義, 若 T :Rn→ Rm 是一個函數, 則 對任意 v∈ Rn, T (v) 一定要是Rm 中的一個確定的向量. 也就是說 T (v)∈ Rm, 而且不能一 下子令 T (v) = w, 一下子又改變成 T (v) = w, 但 w̸= w, 造成不一致的情形發生. 所以當 我們在建構一個新的函數時, 一定要確認這一點. 也就是說, 我們必須說明定出來的函數是 well-defined.

另外要注意, 函數的定義中並沒有要求定義域中每一個元素都要對應到不同的元素去.

也就是說若 T :Rn→ Rm 是一個函數, 是容許在 Rn 中有兩個向量 v̸= v, 但 T (v) = T (v).

若我們多要求定義域中每一個元素都要對應到不同的元素, 即Rn 中任意兩相異向量 v̸= v, 所對應的 T (v) 和 T (v) 要相異 (即 T (v)̸= T(v)), 則我們給這樣的函數一個特殊的名稱, 稱 這樣的函數為 one-to-one (一對一), 有時也稱為 injective. 另外, 函數的定義中也沒有要求 對應域中每一個元素都要被對應到. 也就是說若 T :Rn→ Rm 是一個函數, 是容許在 Rm 中 75

(2)

有向量 w, 沒有任何Rn 的向量會對應到 w (即不存在 v∈ Rn 使得 T (v) = w). 若我們多要求 對應域中每一個元素都要被對應到, 即Rm 中任意向量 w, 皆可找到 v∈ Rn 使得 T (v) = w, 則我們給這樣的函數一個特殊的名稱, 稱這樣的函數為 onto (映成), 有時也稱為 surjective.

當一個函數是 one-to-one 且 onto (此時一般稱為 bijective), 那就更特別了. 這時候一定 可以找到一個從原來函數的對應域送到原來函數的定義域的反向函數 (我們稱為原函數的 inverse (反函數)), 使其合成後會是將每一個元素自己映射到自己的函數 (即所謂的 identity function). 所以此時我們也稱這樣的函數為 invertible (可逆函數).

4.1.2. Linear Transformation. 要了解 Rn 中的向量, 若僅是考慮一般的函數, 並無法利 用向量之間的運算, 幫助我們了解 Rn 中向量的結構. 我們需要的函數是能保持向量運算的, 所以有以下之定義.

Definition 4.1.1. 假設 T :Rn→ Rm 為一個函數, 若 T 滿足對任意 v1, . . . , vk ∈ Rn 以及 c1, . . . , ck∈ R 皆有

T (c1v1+··· + ckvk) = c1T (v1) +··· + ckT (vk).

則稱 T 為一個 linear transformation. 有時我們簡稱 T 為 linear.

要注意這裡 c1v1+··· + cnv1 是 Rn 中向量的線性組合, 而 c1T (v1) +··· + ckT (vk) 是 Rm 中向量的線性組合, 要區分清楚. 尤其在 n̸= m 時要特別注意. 特別是當 O ∈ Rn時, 依 linear transformation 的定義, 我們有 T (O) = T (O + O) = T (O) + T (O). 此時兩邊加上 T (O) 的加 法反元素, 得 T (O) 應為Rm中的零向量. 也就是說一個 linear transformation T :Rn→ Rm, 會將 Rn 中的零向量映射到 Rm 中的零向量. 雖然當 n̸= m 時, Rn 和 Rm 的零向量是不 同的, 不過一般我們都用 O 來表示, 而不區分它. 所以我們仍用 T (O) = O 來表示 linear transformation 會將 Rn 中的零向量映射到 Rm 中的零向量. 這個性質雖然簡單, 但相當有 用, 我們特別將此性質敘述如下.

Lemma 4.1.2. 假設 T :Rn→ Rm為一個 linear transformation. 則 T 會將 Rn 中的零向量 映射到 Rm 中的零向量, 亦即 T (O) = O.

再次提醒, 這裡兩個 O 哪一個是Rn 的零向量, 哪一個是 Rm 的零向量, 一定要區分清 楚.

依定義要檢查 T :Rn→ Rm 是否為 linear transformation, 我們必須考慮 Rn 中任意有限 多個向量的線性組合代入 T 中是否符合 linear transformation 的要求, 感覺起來很麻煩. 事 實上, 如同檢查 subspace 的方法 (參見 Proposition 5.1.2), 下一個定理告訴我們, 只要檢查 任兩個向量的線性組合即可.

Proposition 4.1.3. 假設 T :Rn→ Rm 為一個函數, 則 T 為 linear transformation 若且唯 若對任意 u, v∈ Rn, r∈ R 皆有 T(u + rv) = T(u) + rT(v).

Proof. (⇒) : 依 T 為 linear 的定義, 對任意 u,v ∈ V, r ∈ R 皆有 T(u + rv) = T(u) + rT(v).

(3)

4.1. Basic Properties 77

(⇐) : 我們要利用對任意 u,v ∈ Rn, r∈ R 皆有 T(u +rv) = T(u)+ rT(v) 這個性質來證明 對任意 v1, . . . , vk∈ Rn 以及 c1, . . . , ck ∈ R 皆有 T(c1v1+··· + ckvk) = c1T (v1) +··· + ckT (vk).

我們對向量的個數 k 作數學歸納法. 首先考慮只有一個向量的情形 (即 k = 1), 我們要 證明若 v1∈ Rn, c1∈ R 則 T(c1v1) = c1T (v1). 此時考慮 u = O, v = v1, r = c1, 依 Lemma 4.1.2, 我們有 T (c1v1) = T (u + rv) = T (u) + rT (v) = O + rT (v) = c1T (v1). 得證 k = 1 的情 形成立. 現假設有 k 個向量時成立, 亦即對任意 v1, . . . , vk ∈ Rn 以及 c1, . . . , ck ∈ R 皆有 T (c1v1+··· + ckvk) = c1T (v1) +··· + ckT (vk). 我們要證明對任意 v1, . . . , vk, vk+1∈ Rn 以及 c1, . . . , ck, ck+1∈ R 皆有 T(c1v1+···+ckvk+ ck+1vk+1) = c1T (v1) +···+ckT (vk) + ck+1T (vk+1).

然而對此時令 u = c1v1+··· + ckvk, v = vk+1 以及 r = ck+1. 依歸納假設我們有 T (u) = c1T (v1) +··· + ckT (vk),故

T (c1v1+··· + ckvk+ ck+1vk+1) =

T (u + rv) = T (u) + rT (v) = c1T (v1) +··· + ckT (vk) + ck+1T (vk+1).

故由數學歸納法知 T 為 linear transformation. 

Example 4.1.4. (1) 考慮 T :R3→ R2 定義為 T (

x1

x2

x3

) =[

x1+ x2

x1− x3

]

. 我們驗證 T 是一個

linear transformation. 任取 u =

a1

a2 a3

,v =

b1

b2 b3

 ∈ R3, 以及 r∈ R. 我們有 u+rv =

a1+ rb1

a2+ rb2 a3+ rb3

.

故依 T 的定義, 我們有

T (u + rv) = T (

a1+ rb1

a2+ rb2

a3+ rb3

) =[

(a1+ rb1) + (a2+ rb2) (a1+ rb1)− (a3+ rb3) ]

=

[a1+ a2+ rb1+ rb2

a1− a3+ rb1− rb3

] .

另一方面我們有 T (u) = T (

a1 a2

a3

) =[ a1+ a2 a1− a3

]

, T (v) = T (

b1 b2

b3

) =[ b1+ b2 b1− b3

] , 故

T (u) + rT (v) =

[a1+ a2 a1− a3

] + r

[b1+ b2 b1− b3

]

=

[a1+ a2+ rb1+ rb2 a1− a3+ rb1− rb3

] .

得證 T (u + rv) = T (u) + rT (v), 故 T 為 linear transformation.

(2) 考慮 T :R3→ R2 定義為 T (

x1

x2 x3

) =[

x1+ x2+ 1 x1− x3

]

. 我們說明 T 不是 linear

transformation. 依 T 的定義, 我們有 T (O) = [1

0 ]

̸= O, 故由 Lemma 4.1.2 知, T 不是 linear transformation.

(4)

(3) 考慮 T :R3→ R2 定義為 T (

x1 x2

x3

) =[

x21+ x2 x1− x3

]

. 我們說明 T 不是 linear transfor-

mation. 雖然此時 T (O) = O, 但 T (

1 0 0

) =[ 1 1 ]

, 而 T (

2 0 0

) =[ 4 2 ]

T (

2 0 0

) = T(2

1 0 0

) ̸= 2T(

1 0 0

).

此與 linear transformation 的條件不符, 故 T 不是 linear transformation.

接下來我們來看一個最常見的 linear transformation, 事實上以後我們會知道所有Rn 到 Rm的 linear transformation 都是這樣的形式.

Lemma 4.1.5. 令 A 為一個 m× n matrix. 考慮 T : Rn→ Rm 定義為: T (v) = Av, ∀v ∈ Rn. 則 T 為一個 linear transformation.

Proof. 首先我們先檢查 T 是 well-defined, 也就是說 T 確實是一個從 Rn 映到Rm 的函數.

任取 v∈ Rn, 依定義 T (v) = Av. 然而 A 為 m× n matrix, 依矩陣乘法定義 Av 是一個 m × 1 matrix (注意這裡向量都視為 column vector, 所以 v∈ Rn 為 n× 1 matrix), 故 Av ∈ Rm. 得 T 確實是一個從Rn 到 Rm 的 function.

現 要 證 明 T 為 linear, 亦 即 對 任 意 u, v∈ Rn 以 及 r∈ R, 我們要證明 T(u + rv) = T (u) + rT (v). 不過依 T 的定義 T (u) = Au, T (v) = Av, 而 T (u + rv) = A(u + rv). 故依矩陣乘 法加法的分配律 (Proposition 3.1.8 和 Proposition 3.1.9) 我們得

T (u + rv) = A(u + rv) = Au + A(rv) = Au + rAv = T (u) + rT (v).

 從 Lemma 4.1.5 我們知道可以造出許多的 linear transformations. 事實上, 我們可以利 用現有的 linear transformations 造出更多的 linear transformations. 首先若 T1, T2 皆為Rn 到Rm的 linear transformation, 我們可以利用 T1, T2造出新的 linear transformation, T1+ T2. 前面已說過, 要造出新的函數需先說明定義域和對應域是甚麼. 這裡我們定義 T1+ T2 仍 為 Rn 到 Rm 的函數. 對於任意 v∈ Rn, 我們定義 (T1+ T2)(v) = T1(v) + T2(v). 依此定義, T1+ T2 確實將Rn 的向量映射到Rm中. 這是因為依假設, 對任意 v∈ Rn, 我們有 T1(v)∈ Rm 以及 T2(v)∈ Rm, 所以自然有 (T1+ T2)(v) = T1(v) + T2(v)∈ Rm. 所以 T1+ T2:Rn→ Rm實是 well-defined function. 接下來我們要說明若 T1:Rn→ Rm, T2:Rn→ Rm 皆為 linear transformation, 則 T1+ T2:Rn→ Rm亦為 linear transformation. 也就是說對於任意 u, v∈ Rn 以及 r∈ R, 我們要證明 (T1+ T2)(u + rv) = (T1+ T2)(u) + r(T1+ T2)(v). 首先依定義我們有

(T1+ T2)(u + rv) = T1(u + rv) + T2(u + rv).

接著利用 T1, T2 為 linear 我們得

T1(u + rv) + T2(u + rv) = T1(u) + rT1(v) + T2(u) + rT2(v).

(5)

4.1. Basic Properties 79

另外, 依定義

(T1+ T2)(u) + r(T1+ T2)(v) = T1(u) + T2(u) + r(T1(v) + T2(v)),

故由向量運算性質, 得證 (T1+ T2)(u + rv) = (T1+ T2)(u) + r(T1+ T2)(v), 亦即 T1+ T2 為 Rn 到 Rm 的 linear transformation.

Question 4.1. 若 A1, A2 皆為 m× n matrix. 考慮 T1:Rn→ Rm, T2:Rn→ Rm, 分別定義為 T1(v) = A1v, T2(v) = A2v, ∀v ∈ Rn. 則 T1+ T2 是怎樣的函數?

給定一個 linear transformation T :Rn→ Rm, 以及 c∈ R, 我們也可定義函數 cT : Rn Rm, 其 定 義 為 (cT )(v) = c(T (v)), ∀v ∈ Rn (也 就 是 說 它 把 每 一 個 Rn 的 向 量 v 對 應 到 c 倍 的 T (v)). 很 容 易 看 出 cT :Rn → Rm 確實是一個 function. 事實上, 它也是 linear transformation. 這是因為對於任意 u, v∈ Rn 以及 r∈ R, 我們有

(cT )(u + rv) = c(T (u + rv)) = cT (u) + rcT (v).

而 (cT )(u) + r(cT )(v) = c(T (u)) + rc(T (v)), 故 知 (cT )(u + rv) = (cT )(u) + r(cT )(v), 得 證 cT :Rn→ Rm 為 linear transformation.

Question 4.2. 設 A 為 m× n matrix. 考慮 T : Rn→ Rm 定義為 T (v) = Av, ∀v ∈ Rn. 則對 於 c∈ R, cT 是怎樣的函數?

設 T1,··· ,Tk 為Rn 到Rm的 linear transformations. c1, . . . , ck∈ R, 則由前知 c1T1, . . . , ckTk 皆為 Rn 到 Rm 的 linear transformations. 所以 c1T2+ c2T2 為 linear transformation. 再利 用數學歸納法, 得 c1T1+··· + ckTk 為 linear transformation. 因此我們有下面之結果.

Proposition 4.1.6. 設 T1,··· ,Tk 為 Rn 到 Rm 的 linear transformations, c1, . . . , ck∈ R 則 c1T1+··· + ckTk 為 Rn 到 Rm 的 linear transformation.

另一個產生 linear transformation 的方法就是利用 “合成函數”. 若 T :Rn→ RmT:Rm→ Rk 為函數, 由於對任意 v∈ Rn, 依定義 T (v)∈ Rm, 也就是說 T (v) 會落在 T 的定 義域中. 所以我們可以將 T (v) 代入 T 中, 亦即得 T(T (v))∈ Rk. 這樣的方法幫我們定義出 一個從Rn到 Rk 的函數, 稱之為 T, T 的 composite function (合成函數), 我們用 T◦T 來表 示. 也就是說 T◦ T : Rn→ Rk 的定義為 T◦ T(v) = T(T (v)),∀v ∈ Rn. 我們有下面之結果.

Proposition 4.1.7. 假設 T :Rn→ Rm和 T:Rm→ Rk 為 linear transformation, 則 T◦T : Rn→ Rk 亦為 linear transformation.

Proof. 已知 T◦ T 為 function, 我們僅要證明 T◦ T 為 linear, 亦即對於任意 u,v ∈ Rn 以及 r∈ R, 我們有 (T◦ T)(u + rv) = (T◦ T)(u) + r(T◦ T)(v). 依定義 (T◦ T)(u + rv) = T(T (u + rv)). 然而因為 T , T 為 linear, 故有

T(T (u + rv)) = T(T (u) + rT (v)) = T(T (u)) + rT(T (v)).

再由 T(T (u)) = (T◦T)(u) 以及 T(T (v)) = (T◦T)(v) 得證 T◦T 為 linear transformation.



(6)

Question 4.3. 設 A 為 m× n matrix, B 為 k × m matrix. 考慮 T : Rn→ Rm, T:Rm→ Rk, 分別定義為 T (v) = Av, ∀v ∈ Rn 且 T(w) = Bw, ∀w ∈ Rm. 則 T◦ T 是怎樣的函數?

回 顧 在 Rn 中, 我 們 有 一 組 所 謂 的 standard basis {e1, . . . , en}. 對於任意 Rn 上 的

向量 v =



 c1 c2 ... cn



, 我們有 v = c1e1+··· + cnen. 因此若 T :Rn → Rm 為 linear, 則 T (v) =

T (c1e1+···+cnen) = c1T (e1) +···+cnT (en). 也就是說, 只要我們知道 T (e1), . . . , T (en)是 Rm 中的哪些向量, 則對於任意 v∈ Rn, 我們都可以知道 T (v) 為何. 因此我們有以下的定理.

Theorem 4.1.8. 任意給定 w1, . . . , wn∈ Rm, 則存在唯一的 linear transformation T :Rn Rm, 滿足 T (e1) = w1, . . . , T (ei) = wi, . . . , T (en) = wn.

Proof. 首 先 證 明 存 在 性. 定 義 T :Rn→ Rm 為 T (c1e1+··· + cnen) = c1w1+··· + cnwn,

∀c1, . . . , cn∈ R. 我們需說明這是 well-defined function. 也就是說對任意 v ∈ Rn, T (v) 皆 有 定 義 且 T (v)∈ Rm. 然 而 因 對 任 意 v∈ Rn 皆 存 在 唯 一 的 一 組 c1, . . . , cn∈ R, 使得 v = c1e1+··· + cnen. 故此時得 T (v) = T (c1e1+··· + cnen) = c1w1+··· + cnwn∈ Rm. 接著我 們要說明 T 為 linear transformation, 也就是說對任意 u, v∈ Rn 以及 r∈ R, 我們要證明 T (u + rv) = T (u) + rT (v). 由於存在 c1, . . . , cn以及 d1, . . . , dn∈ R 使得 u = c1e1+···+cnenv = d1e1+··· + dnen. 故此時 u + rv = (c1+ rd1)e1+··· + (cn+ rdn)en. 依 T 的定義得

T (u + rv) = (c1+ rd1)T (e1) +··· + (cn+ rdn)T (en) = (c1+ rd1)w1+··· + (cn+ rdn)wn. 另一方面

T (u) + rT (v) = T (c1e1+··· + cnen) + rT (d1e1+··· + dnen) =

(c1w1+··· + cnwn) + r(d1w1+··· + dnwn) = (c1+ rd1)w1+··· + (cn+ rdn)wn. 得證 T (u + rv) = T (u) + rT (v).

接著證明唯一性, 我們用反證法. 也就是說若 T:Rn→ Rm 是另一個 linear transforma- tion 滿足 T(e1) = w1, . . . , T(en) = wn, 且 T̸= T, 則會造成矛盾. 依定義, T̸= T 表示存在 v∈ Rn 使得 T(v)̸= T(v). 此時因存在 c1, . . . , cn, 使得 v = c1e1+··· + cnen, 故依 T, T 皆為 linear 的假設, 我們有

T(v) = T(c1e1+··· + cnen) = c1T(e1) +··· + cnT(en) = c1w1+··· + cnwn= T (v).

此與 T(v)̸= T(v) 相矛盾, 證得唯一性. 

要注意 Theorem 4.1.8 中的 w1, . . . , wn∈ Rm 是可以任意選取的 (甚至不需相異). 這個 定理告訴我們可以將 Rn 的 standard basis 裡的向量對應到 Rm 中任意的向量, 就會得到 一個 Rn 到 Rm 的 linear transformation. 更重要的是, 一般來講兩個函數要說明它們是 相等的, 我們必須檢查定義域裡的每個元素是否被這兩個函數對應到對應域裡相同的元 素. 這個過程是很複雜的, 因為一般來說定義域裡的元素有無窮多個, 我們無法一個一個檢 查. 但是 linear transformation 就有這個好處, Theorem 4.1.8 告訴我們僅要檢查兩個 linear

(7)

4.2. Matrix Representation 81

transformations 在 e1, . . . , en 皆是一致的, 那麼這兩個 linear transformation 事實上就會是 相同的函數.

4.2. Matrix Representation

給定一個 m×n matrix A, 前面我們已知可以定義出一個 linear transformation T : Rn Rm, 其定義為 T (v) = Av, ∀v ∈ Rn. 在這一節中, 我們要說明所有的 Rn 到 Rm 的 linear transformations 都可以寫成這樣的形式. 並利用此將 linear transformation 和 matrix 相連 結, 來推得一些重要的性質.

前面 Theorem 4.1.8 告訴我們若 T :Rn→ Rm 是一個 linear transformation, 我們僅 要知道 T (e1), . . . , T (en) 是哪些 Rm 的 vectors, 就可以知道對於任意 v∈ Rn, T (v) 為何

了. 事實上對於每一個 v =



 c1 c2 ... cn



∈ Rn 由於 v = c1e1+··· + cnen. 因此由 T 為 linear, 得

T (v) = T (c1e1+···+cnen) = c1T (e1) +···+cnT (en). 現若考慮 m×n matrix A, 其中 A 的 i-th column 為 T (ei),則

Av =

T (e1) T (e2) ··· T(en)



 c1 c2

... cn



= c1T (e1) +··· + cnT (en) = T (v).

也就是說對任意 v∈ Rn, 皆有 T (v) = Av. 因此 T 就等同於將 v 左邊乘上 A 這一個矩陣這 樣的 linear transformation. 我們有以下這一個重要的定理.

Theorem 4.2.1. 給定一個 Rn 到 Rm 的 function T . 則 T 為 linear transformation 若且 唯若存在一個 m× n matrix A 使得 T(v) = Av, ∀v ∈ Rn. 此 m× n matrix A 是唯一的, 事實 上對任意 i = 1, . . . , n, A 的 i-th column 為 T (ei), 其中{e1, . . . , en} 為 Rn 的 standard basis.

Proof. 由 Lemma 4.1.5 我們知道, 若 T (v) = Av, ∀v ∈ Rn, 則 T 為 linear transformation.

反之, 若 T :Rn→ Rm 為 linear transformation, 如前面所討論的, 我們可以考慮 A 為 i-th column 為 T (ei) 的 m× n matrix, 則由矩陣乘法性質知 T(v) = Av, ∀v ∈ Rn.

現若 B 為 m× n matrix 亦滿足 T(v) = Bv, 依矩陣乘法定義知對任意 i = 1,...,n, BeiB 的 i-th column. 但由假設 Bei = T (ei), 亦即 B 的 i-th column 為 T (ei). 因此 B 的所有

column 皆與前述 A 的 column 相一致, 證得唯一性. 

簡 單 來 說 Theorem 4.2.1 告 訴 我 們 從 Rn 到 Rm 的 linear transformations 和 m× n matrices 之間有一個一對一的對應關係 (注意矩陣階數與定義域, 對應域之間的關係). 由於 一個 linear transformation 和其對應的 m× n matrix 關係特別密切, 我們有以下的定義.

Definition 4.2.2. 假 設 T :Rn → Rm 為 linear transformation 且 {e1, . . . , en} 為 Rnstandard basis. 則對於 i = 1, . . . , n, 其 i-th column 為 T (ei) 的 m× n matrix 稱為 T 的 standard matrix representation.

(8)

由於 T 的 standard matrix representation 是唯一的且和 T 有關, 以後我們都用 [T ] 來 表示 T 的 standard matrix representation. 也就是說對任意 v∈ Rn, 我們有 T (v) = [T ]v.

Example 4.2.3. 我們探討幾個 linear transformations 其 standard matrix representation.

(1) 考慮 T :R3→ R2 定義為 T (

x1

x2

x3

) =[

x1+ x2

x1− x3

] . 由於

T (e1) = T (

1 0 0

) =[ 1 1 ]

, T (e2) = T (

0 1 0

) =[ 1 0 ]

, T (e3) = T (

0 0 1

) =[ 0

−1 ]

,

故得

[T ] =

T (e1) T (e2) T (e3)

 =[

1 1 0 1 0 −1

] .

事實上我們有 [T ]

x1

x2 x3

 =[

1 1 0 1 0 −1

]x1

x2 x3

 =[

x1+ x2 x1− x3

]

= T (

x1

x2 x3

).

(2) 考慮 T :R2→ R3 定義為 T ( [ x1

x2 ]

) =

x1 x1+ x2 x1− x2

. 由於

T (e1) = T ( [1

0 ]

) =

1 1 1

,T(e2) = T ( [0

1 ]

) =

 0 1

−1

,

故得

[T ] =

T (e1) T (e2)

 =

 1 0 1 1 1 −1

.

事實上我們有

[T ] [x1

x2

]

=

 1 0 1 1 1 −1

[ x1 x2

]

=

x1 x1+ x2 x1− x2

 = T([ x1 x2

] ).

當 T1, T2 皆為Rn 到 Rm 的 linear transformation 時, 對任意 c1, c2∈ R, 我們可以利用它 們得到一個新的Rn 到 Rm 的 linear transformation c1T1+ c2T2 (參見 Proposition 4.1.6). 我 們自然會想知道 c1T1+ c2T2 的 standard matrix representation 和 T1, T2的 standard matrix representation 是否有關. 另外, 若 T 為 Rm 到 Rk 的 linear transformation, 我們可得合成 函數 T◦ T1 為 Rn 到 Rk 的 linear transformation (參見 Proposition 4.1.7). 同樣的, 我們要 探討 T◦ T1 的 standard matrix representation 和 T1, T 的 standard matrix representation 是否有關.

Lemma 4.2.4. 設 T1, T2為 Rn 到Rm的 linear transformations, 而 T 為Rm到Rk 的 linear transformation. 令 [T1], [T2]以及 [T ] 分別為 T1, T2 和 T 的 standard matrix representation.

(9)

4.2. Matrix Representation 83

(1) 對任意 c1, c2∈ R, 皆有 c1T1+ c2T2:Rn→ Rm 的 standard matrix representation 為 c1[T1] + c2[T2], 亦即

[c1T1+ c2T2] = c1[T1] + c2[T2].

(2) T◦ T1:Rn→ Rk 的 standard matrix representation 為 [T ][T1], 亦即 [T◦ T1] = [T ][T1].

Proof. (1) 依定義對任意 v∈ Rn, 我們有 (c1T1+ c2T2)(v) = c1T1(v) + c2T2(v). 又依 standard matrix representation 的定義 T1(v) = [T1]v, T2(v) = [T2]v, 故依矩陣乘法的分配律得

(c1T1+ c2T2)(v) = c1[T1]v + c2[T2]v = (c1[T1] + c2[T2])v.

換言之, c1[T1] + c2[T2]是一個 m×n matrix 且滿足 c1T1+ c2T2:Rn→ Rm的 standard matrix representation 之要求, 故由 standard matrix representation 的唯一性 (Theorem 4.2.1) 知 [c1T1+ c2T2] = c1[T1] + c2[T2].

(2) 依定義對任意 v∈ Rn, 我們有 (T◦ T1)(v) = T (T1(v)). 又依 standard matrix rep- resentation 的定義 T1(v) = [T1]v, 故得 (T◦ T1)(v) = T ([T1]v). 又依定義, 對任意 w∈ Rm 皆 有 T (w) = [T ]w, 故 得 (T◦ T1)(v) = T ([T1]v) = [T ]([T1]v). 再 依 矩 陣 乘 法 的 結 合 律 得 [T ]([T1]v) = ([T ][T1])v. 換 言 之, [T ][T1] 是 一 個 k× n matrix 且滿足 T ◦ T1 :Rn→ Rkstandard matrix representation 之要求 (T◦T1)(v) = ([T ][T1])v, 故由 standard matrix repre- sentation 的唯一性 (Theorem 4.2.1) 知 [T◦ T1] = [T ][T1].  Example 4.2.5. 我們利用 Example 4.2.3 中的 linear transformations 及其 standard matrix representations 探討它們的合成函數.

考慮 T :R3→ R2 定義為 T (

x1 x2

x3

) =[

x1+ x2 x1− x3

]

. 我們知 T 的 standard matrix repre-

sentation 為 [T ] =

[ 1 1 0 1 0 −1

]

.另外考慮 T:R2→ R3 定義為 T( [ x1

x2

] ) =

x1 x1+ x2 x1− x2

.

我 們 知 T 的 standard matrix representation 為 [T] =

 1 0 1 1 1 −1

. 依 合 成 函 數 定 義

T◦ T : R3→ R3 滿足 (T◦ T)(

x1

x2

x3

) = T(

[ x1+ x2

x1− x3

] ) =

x1+ x2 (x1+ x2) + (x1− x3) (x1+ x2)− (x1− x3)

 =

x1+ x2 2x1+ x2− x3

x2+ x3

.

依此結果, 我們得 T◦ T 的 standard matrix representation 為 [T◦ T] =

 1 1 0 2 1 −1 0 1 1

. 另

一方面, 考慮矩陣乘法, 我們有 [T][T ] =

 1 0 1 1 1 −1

[

1 1 0 1 0 −1

]

=

 1 1 0 2 1 −1 0 1 1

. 的確 得到 [T◦ T] = [T][T ].

(10)

我們可以利用 standard matrix representation 來幫助我們了解 linear transformation.

假設 T :Rn→ Rm 為 linear transformation, 則 T 的 standard matrix representation [T ] 為 m× n matrix. 由於對任意 v ∈ Rn, T (v) = [T ]v, 因此當 T 為 onto, 表示對任意 w∈ Rm, 存在 v∈ Rn 使得 T (v) = [T ]v = w. 亦即對於任意 w∈ Rm, 聯立方程組 [T ]x = w 一定有解. 因此 由 Theorem 3.4.2 知 rank([T ]) = m. 另一方面由於 T (O) = O, 因此若 T 為 one-to-one, 表示 x = O 是在Rn 中唯一的向量滿足 T (x) = [T ]x = O. 換言之, 這表示聯立方程組 [T ]x = O 沒 有 non-trivial solution. 因此由 Theorem 3.4.6 知 rank([T ]) = n. 我們將這些結果歸納如下.

Proposition 4.2.6. 假設 T :Rn → Rm 為 linear transformation 且令 [T ]∈ Mm×n 為其 standard matrix representation.

(1) T 為 onto 若且唯若 rank([T ]) = m.

(2) T 為 one-to-one 若且唯若 rank([T ]) = n.

一般來說, 當一個函數是 invertible (即 one-to-one 且 onto) 時, 並不容易將其 inverse (反函數) 具體的寫下來. 不過對於 invertible linear transformation, 利用 standard matrix representation 我們可以很容易的將其 inverse 寫下. 首先我們來探討何時一個 linear transformation 會是 invertible. 假設 T :Rn→ Rm 為 invertible linear transformation. 由 於 T 為 onto, 利用 Proposition 4.2.6(1) 知 rank([T ]) = m≤ n. 然而 T 為 one-to-one, 同樣 由 Proposition 4.2.6(2) 知 rank([T ]) = n≤ m. 這告訴我們只有在 m = n 時, T 才有可能為 invertible. 現假設 T :Rn→ Rn 為 one-to-one, 由 rank([T ]) = n, 我們得 T 為 onto. 同理, 若 T 為 onto, 則 T 為 one-to-one. 這告訴我們當 T 是 Rn 到 Rn 的 linear transformation 時, T 為 one-to-one 和 T 為 onto 是等價的. 因而只要其中一個是對的, 就可以得到 T 為 invertible.

Lemma 4.2.7. 假設 T :Rn→ Rm 為 linear transformation. 則僅有當 m = n 時, T 才有可 能是 invertible. 又當 m = n 時, T 為 invertible 和 T 為 onto 是等價的也和 T 為 one-to-one 等價.

由 Lemma 4.2.7 我們知道一個 linear transformation T 的 standard matrix representa- tion [T ] 必須是 square matrix, T 才有可能是 invertible. 而且此時, 若 [T ] 為 n× n matrix (即 T 為 Rn 到 Rn), 則 T 是 invertible 若且唯若 rank([T ]) = n. 然而這也等價於 [T ] 為 invertible matrix (參見 Theorem 3.5.2), 因此我們知 T 為 invertible 若且唯若 [T ] 為 in- vertible. 現若 T 為 invertible, 則因 [T ] 為 invertible matrix, 我們知 [T ] 的反矩陣 [T ]−1在. 現考慮 T:Rn→ Rn 其定義為 T(v) = [T ]−1v, ∀v ∈ Rn. 則我們有 T◦ T : Rn→ Rnstandard matrix representation 為 [T◦ T] = [T][T ] = [T ]−1[T ] = In. 同理 T◦ T:Rn→ Rn 的 standard matrix representation 為 [T◦ T] = [T ][T] = [T ][T ]−1= In. T◦ T 和 T ◦ Tstandard matrix representation 皆等於 In 表示 T◦ T = T ◦ T 而且對任意 v∈ Rn 皆有 (T◦ T)(v) = (T ◦ T)(v) = Inv = v, 得知 T 為 T 的 inverse (反函數). 因此我們證得了以下 之定理.

(11)

4.3. Linear transformations ofR2 85

Theorem 4.2.8. 假設 T :Rn→ Rm為 linear transformation 且令 [T ]∈ Mn×n 為其 standard matrix representation. 則 T 為 invertible function 若且唯若 [T ] 為 invertible matrix. 又 若 T 為 invertible, 則 T 的 inverse, 亦 為 linear transformation 且 其 standard matrix representation 為 [T ]−1.

一般來講, 我們會將 invertible function f 的 inverse 用 f−1 來表示. 所以當 T :Rn→ Rn 為 invertible linear transformation, 我們也用 T−1 來表示其 inverse. Theorem 4.2.8 告訴 我們, 當 T :Rn→ Rn 為 invertible linear transformation 時, T−1:Rn→ Rn 亦為 invertible linear transformation, 而且其 standard matrix representation 會是 [T−1] = [T ]−1.

Example 4.2.9. 考慮 T :R3 → R3 定義為 T (

x1 x2 x3

) =

2x2 x1− x2

2x2+ x3

. 我們可得 T 的

standard matrix representation 為 [T ] =

 0 2 0 1 −1 0 0 2 1

. 在 Example 3.5.8 中我們算出

[T ]−1=

1

2 1 0

1

2 0 0

−1 0 1

. 故得 T−1:R3→ R3 的定義為 T−1(

x1 x2

x3

) =

1 2x1+ x2

1 2x1

−x1+ x3

. 我們驗 證

(T−1◦ T)(

x1 x2 x3

) = T(

2x2 x1− x2

2x2+ x3

) =

1

2(2x2) + (x1− x2)

1 2(2x2)

−(2x2) + (2x2+ x3)

 =

x1 x2 x3

,

(T◦ T−1)(

x1

x2 x3

) = T(

1 2x1+ x2

1 2x1

−x1+ x3

) =

 2(12x1) (12x1+ x2)− (12x1) 2(12x1) + (−x1+ x3)

 =

x1

x2 x3

,

得知 T−1 確為 T 的 inverse.

4.3. Linear transformations of R2

在這節中我們將專注於探討 R2 到 R2 的 linear transformations. 我們介紹三種特別的 linear transformations: projection (投影), reflection (鏡射) 以及 rotation (旋轉).

所有 R2 到 R2 的 linear transformations 的 standard matrix representation 都是 2× 2 matrix. 所以我們要探討這樣的 linear transformations 自然是由 2×2 matrices 的分類開始.

我們利用 rank 來分類. 首先最簡單的就是 rank 0 的情形. 此時表示 linear transformation 的 range 就是 {O}, 也就是說此 linear transformation 就是將所有 R2 的 vectors 送至 O 的 zero mapping. 簡單來說若 T :R2→ R2 為 linear transformation 則其 standard matrix representation [T ] 的 rank 為 0 若且唯若 T (v) = O,∀v ∈ R2. 接下來我們要探討 rank 大於 0 的情形.

4.3.1. Rank 1. 當一個 linear transformation 是 rank 1, 表示此 linear transformation 將 Rn 的向量皆送到與某個特定非零向量平行的向量. 大家應該會想到投影就有這個特點, 因 為對某個非零向量的投影就是將所有的向量投射到與此向量平行的向量. 我們將簡單的回

(12)

顧一下投影的性質, 然後說明投影確實是 linear transformation. 再進一步談論所有 rank 1 的 linear transformation.

回顧在 Proposition 1.4.9, 我們證明了給定Rn 中的非零向量 w, 對任意 v∈ Rn, 我們都 可以將 v 拆寫成兩個向量之和, 其中一個和 w 平行, 另一個和 w 垂直. 亦即 v = w+ v, 其 中 w= rw, 且 v· w = 0. 重要的是這個寫法是唯一的, 也就是說此時

w= v· w

w· ww and v= v− w.

我們稱此 w 為 v 在 w 的 projection (投影). 因此我們可以定義所謂的 projection function projw:Rn→ Rn, 其定義為對所有 v∈ Rn, projw(v) 為 v 在 w 的 projection, 亦即

projw(v) = v· w

w· ww, ∀v ∈ Rn. (4.1)

利用 inner product 的性質, 我們很容易證明 projw:Rn→ Rn 為 linear transformation. 事實 上對任意 u, v∈ Rn 以及 r∈ R, 我們有

projw(u + rv) = (u + rv)· w

w· w w = u· w

w· ww + rv· w

w· ww =projw(u) + rprojw(v).

Question 4.4. 設 w 為Rn 中的非零向量. 試利用 “對任意 v∈ Rn, 存在唯一的 w, v∈ Rn 滿足 v = w+ v, w= rw 且 v· w = 0” 這個事實證明 projw 是 linear transformation.

現在我們回到R2 的情況. 設 w∈ R2 且 w̸= O, 既然 projw:R2→ R2 為 linear transfor- mation, 我們自然想知道其 standard matrix representation. 依定義 [projw] 會是一個 2× 2 matrix, 其 1-st column 為 projw(e1), 2-nd column 為 projw(e2). 所以設 w =

[a b ]

, 則由於 e1· w = a, e2· w = b 得 projw(e1) =a2+ba 2w =a2+ba 2

[a b ]

, projw(e2) = a2+bb 2w = a2+bb 2 [a

b ]

. 故知

[projw] = [ a2

a2+b2 ab a2+b2 ab

a2+b2 b2 a2+b2

]

= 1 a2+ b2

[ a2 ab ab b2

]

. (4.2)

Example 4.3.1. 考慮 w = [1

2 ]

, 我們要求出 projw 的 standard matrix representation.

方法一: 利用式子 (4.1) 我們有 projw(e1) =e1· w

w· ww = 1 5

[1 2 ]

and projw(e2) =e2· w w· ww =2

5 [1

2 ]

.

故得

[projw] = [ 1

5 2 2 5 5

4 5

]

=1 5

[ 1 2 2 4

] .

方法二: 考慮 u = [−2

1 ]

, 我們有 u· w = 0, 亦即 u 和 w 為垂直. 由於是投影, 我們有 projw(w) = w 以及 projw(u) = O. 現由 Proposition 1.4.9, 我們知道所有 v∈ R2 皆可寫成 w, u 的 linear combination. 特別的我們可找到 c1, c2∈ R 使得

[1 0 ]

= c1 [1

2 ]

+ c2 [−2

1 ]

, 同理

參考文獻

相關文件

Theorem 1.5.9 finite dimensional vector space linearly independent set 大 basis; spanning

vector space subspaces internal direct sum, 再 external direct. sum, 再 internal

( diagonalizable), linear operator rational form Jordan form. cyclic subspace

elementary row operations reduced echelon form,.. echelon form Gauss

大 finite generated vector space subspace finitely

利用 determinant 我 們可以判斷一個 square matrix 是否為 invertible, 也可幫助我們找到一個 invertible matrix 的 inverse, 甚至將聯立方成組的解寫下.

化成 reduced echelon form 後由於每一個 row 除了該 row 的 pivot 外, 只剩 free variables (其他的 pivot variable 所在的 entry 皆為 0), 所以可以很快地看出解的形式..

在這一節中, 我們介紹 change of basis 的概念, 了解到一個 linear operator 換了 ordered basis