• 沒有找到結果。

3.1 Off-line 訓練

3.1.2 主成份的選取

使用主成份分析的方法,事實上就是在利用奇異值分解法(Singular Value Decomposition) 解出資料的相關變異矩陣(Covariance Matrix) 的特徵值與特 徵向量。參考資料[20]介紹基本的數學概念。假設有一個一維的矩陣X,計算它

資訊。假設一個資料集最初為 n 維,於是可以計算出 n 個特徵值與特徵向量。若

特徵值由大到小排列。 使用歐基里德距離(Euclidean Distance)或是 Mahalanobis 距離。如果給予一 個不知名的影像Γ,第一步我們計算Φ=Γ-Ψ,然後計算 Φ = wiui (wi = uiTΦ)

相去不遠,而且人在靠近或是遠離攝影機移動的大小變動的很劇烈。再者,畫面 中可能含有的移動物體不單單只有人,其他如狗、車輛、飛舞的碎屑或是搖晃的 樹枝等等,都可能充斥在畫面當中,如果對每一個移動的物體都要做出一個特徵 子空間的話,並不是一個聰明的做法。於是,我們利用 PCA,但採取不同的方 式選取其主成份。

首先,我們將前一節所提到的 2000 張人和 800 張非人的影像按照前述的方 式重新排列。按照步驟計算其平均向量,之後求出變異矩陣的特爭執與特徵向量。

得到特徵向量之後,我們必須選出足以代表影像大部分資訊的主成份。理 論上來說,越多的特徵向量包含了越多資訊,判斷會越準確,但同樣的,會造成 計算上的負擔。於是,主成份個數的選取變得必須仔細挑選。

圖 3-8 表示了特徵向量所包含的圖形資訊,由圖上可以看出,60 個特徵向 量可以表示圖形 80%的資訊,89 個可以表示 85%,111 可表示 87.5%,而 143 個 可以表現 90%的資訊。因為通常說來,人和非人的圖像相當不同,而且,經過我 們試驗的結果(表 5-1、表 5-2),89 個主成份和 111 個主成份所得出的效果幾 乎相同,而 60 個主成份就相對較差,所以我們選取 89 個特徵向量作為我們表示 的主成份,同樣也可以降低計算上的負擔。

圖. 3-8 : 特徵向量所包含的圖形資訊

當主成份確定之後,每一張經過正規化的影像,都可以表示為這些主成份 有所提高。在此,我們採用了倒傳遞類神經網路(Back-propagation Neural Network, BP)作為分類器。這種分類器可決定高維度的判定邊界(decision boundary),以及,相較於其他類神經分類器而言,用較少的訓練資料就能進行

(2) Hidden Nodes = Input Nodes× Output Nodes

這兩種建議方式適用於不同的情況。若是問題雜訊高,則隱藏層單元數目 宜少。若是問題複雜性高,則隱藏層數目宜多。在我們的資料中,大抵來說只有

「人」以及「非人」兩種情況,所以問題的複雜性並不高,於是我們選取(2)的 方式。隱藏層的節點數於是為 89× 2 =13.34,我們選取 14 作為節點數。

為了增加輸出判斷的精準,輸出層選擇兩個,分別為[0 1]表示人,[1 0]

相關文件