Subject : 主成分分析(principal component analysis)
カテゴリー : 技術 >
主成分分析(principal component analysis)
-
パターンが高次元特徴ベクトルで表されている場合、特徴間に相関があり、冗長な表現になっていることが多い。また、特徴空間の次元が高ければ、パターンの識別・分類処理の計算時間も増してくる。このため、必要な情報を失わずに特徴空間の次元を減らす特徴選択の問題が重要である。
多変量解析の一分野で、多数の変量の変動を少数の指標を用いて表す問題があり、この問題を扱う一手法が主成分分析である。いま、p個のn次元データ(縦ベクトル)からなるn×p行列をXで表すことにしよう。 Xの1次変換(線形変換)
Y=AX
を考える。ただし、変換行列Aはr×n(r<n)行列で、Yはr×p行列である。ここで、Xの横ベクトルのYの横ベクトルに対する相関係数の2乗和を最大にするように変換行列Aを定めたとき、 YをXの主成分(principal component)という。すなわち、Xの相関行列の大きいほうからr個の固有値に対応する固有ベクトル(横ベクトル)の作るr×n行列をAとする。これは相関による主成分の特徴づけであるが、相関行列の代わりに共分散行列を用いて、その固有ベクトルを求めることもある。
上記の線形変換は、p個のn次元ベクトルをp個のr次元ベクトルに変換している。すなわち、n次元パターンの標本相関行列の固有ベクトルのうち、対応する固有値の大きい順にr(<n)個選び、新たな特徴軸とすることによって特徴空間の次元数を減らしていると考えることができる。実はこの変換はK−L変換にほかならない。
統計的なパターン識別では、識別アルゴリズムを適用する前に、パターン集合のもつ本質的な情報を取り出すために、主成分分析を行うことが多い。特にバンド数の多いマルチスペクトル画像などでは、第1主成分と第2主成分ぐらいに特徴空間の次元数を減らしても実用上は分類精度にほとんど影響を与えないことが多く、処理時間の短縮に有効である。
- ●
-
⇒
[メニューへ戻る]
[HOMEへ戻る]
[前のページに戻る]