特徴選択
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/10/01 09:16 UTC 版)
特徴選択(とくちょうせんたく、英: feature selection)とは、機械学習と統計学の用語であり、頑健な学習モデルの構築のため、特徴集合のうち意味のある部分集合だけを選択する手法のことを指す。特徴量選択、変数選択、特徴削減、属性選択、素性選択、変数部分集合選択などとも呼ばれる。生物学の文脈では、DNAマイクロアレイの実験に基づいて影響力のある遺伝子を検出する手法を指す場合もある。不要で冗長な特徴量をデータから除去することによって、特徴選択は学習モデルを次の点で改善する:
特徴選択
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/05/16 21:08 UTC 版)
詳細は「特徴選択」を参照 特徴選択とは、入力変数(特徴量、属性と呼ばれることもある)から有用な部分集合を見つけようとする手法のことである。フィルタ(英: filter strategy、例としては決定木の情報利得(英語版)等。)法、ラッパー法(英: wrapper strategy、例としては精度を最大化するような探索等。)、埋め込み法(英: embedded strategy、モデル学習の過程で予測に対する誤差を基に特徴を追加、あるいは除去するような方法)等、大きく3つの戦略に分けられる。 回帰や分類といったデータ解析においては、元の空間よりも次元を削減した空間で行う方がより精度が高まるとされている。
※この「特徴選択」の解説は、「次元削減」の解説の一部です。
「特徴選択」を含む「次元削減」の記事については、「次元削減」の概要を参照ください。
- 特徴選択のページへのリンク