Radiomics: Feature selection 2 기본 콘텐츠로 건너뛰기

Radiomics: Feature selection 2

 앞서 Radiomics에서 많이 사용되고 있는 Feature selection 방법에 대해서 이야기 하였다. 이번에는 조금 더 세분화하여 설명해보도록 하겠다.

14 feature selection methods & 12 classification methods in terms of predictive performance and stability.


Methods

❗ Radiomic Features

A total of 440 radiomic features were used and divided into 4 feature groups.

1) tumor intensity

    - intensity of histogram

2) shape

    - 3D geometric properties of the tumor

3) texture

    - GLCM: gray level co-occurrence matrices

    - GLRLM: gray level run length matrices

     ⇨ quantified the intra-tumor heterogeneity

4) wavelet features

    - transformed domain representations of the intensity and textural features.


❗ Datasets

    • survival time > 2 years ⇨ 1

    • survival time < 2 years ⇨ 0

   - 310 lung cancer patients in training cohort, and 154 patients in validation cohort.

   - All features were normalised using Z-score normalisation.


❗ Feature Selection Methods

 - 14 feature selection methods based on filter approaches were used.

 - 선정기준: simplicity, computational efficiency, popularity in literature

  • Fisher score
  • Relief
  • T-score
  • Chi-square
  • Wilcoxon
  • Gini index
  • Mutual information maximisation
  • Mutual information feature selection
  • Minimum redundancy maximum relevance
  • Conditional informax feature extraction
  • Joint mutual information
  • Conditional mutual information maximisation
  • Interaction capping
  • Double input symmetric relevance


❗ Classifiers

 - 12 machine learning based classification methods were considered.

 - supervised learning task로 training set, validation set으로 나눔

 - 10 fold cross validation was used

 - predictive performance evaluation: AUC

  • Bagging
  • Bayesian
  • Boosting
  • Decision trees
  • Discriminant analysis
  • Generalised linear models
  • Multiple adaptive regression splines
  • Nearest neighbours
  • Neural networks
  • Partial least square and principle component regression
  • Random forests
  • Support vector machines




Analysis

Predictive Performance of Feature Selection Methods

    - feature의 개수를 (n = 5, 10, 15, 20, ..., 50) 점차 늘려가며 AUC 값들의 중앙값 계산


Results

  a total of 440 radiomic features were extracted from the segmented tumor regions

Predictive performance of feature selection and classification methods

• AUC was used for assessing predictive performance of different feature selection and classification methods.

Classification

   👍 Random Forest showed the highest predictive performance as a classifier.

      (AUC = 0.66 ± 0.03)

   👎 Decision Tree had the lowest predictive performance.

      (AUC = 0.54 ± 0.04)

Feature selection

   👍 Wilcoxon test based methods showed the highest predictive performance

      (AUC = 0.65 ± 0.02)

   👎 Chi-square & Conditional informax feature extraction displayed the lowest predictive performance. (AUC = 0.60 ± 0.03)

Stability of the feature selection and classification methods

✅ Feature selection

   👍 Mutual Information Maximisation was the most stable (stability = 0.94 ± 0.02)

   👍 Relief was the second best (stability = 0.91 ± 0.05)

   👎 GINI(GINI index), JMI(Joint mutual information), CHSQ(Chi-square), DISR(Double input symmetric relevance), CIFE(Conditional informax feature extraction) showed relatively low stability.

✅ Classification

    - RSD(Relative standard deviation) were used for measuring empirical stability.

   👍 Bayesian classifier was the best (RSD = 0.86%)

   👍 Generalised linear models was the second best (RSD = 2.19%)

   👍 Partial least square and principle component regression was the third best (RSD = 2.24%)

   👎 Boosting had the lowest stability among the classification methods.


Stability and Predictive Performance



✅ 👍 Feature selection methods

 Wilcoxon (stability = 0.84 ± 0.05, AUC = 0.65 ± 0.02)

 Mutual information feature selection (stability = 0.8 ± 0.03, AUC = 0.63 ± 0.03)

 Minimum redundancy maximum relevance (stability = 0.74 ± 0.03, AUC = 0.63 ± 0.03)

 Fisher score (stability = 0.78 ± 0.08, AUC = 0.62 ± 0.04)

are preferred as their stability and predictive performance was higher than corresponding median values(stability=0.735, AUC=0.615) across all feature selection methods.

✅ 👍 Classification methods

 RF (RSD = 3.52%, AUC = 0.66 ± 0.03)

 BY (RSD = 0.86%, AUC = 0.64 ± 0.05)

 BAG (RSD = 5.56%, AUC = 0.64 ± 0.03)

 GLM (RSD = 2.19%, AUC = 0.63 ± 0.02)

 PLSR (RSD = 2.24%, AUC = 0.63 ± 0.02)

showed that the stability and predictive performance was higher than the corresponding median values(RSD = 5.93%, AUC = 0.61).


Experimental Factors Affecting the Radiomics Based Survival Prediction

 - 3 experimental factors (feature selection methods, classification methods, and the number of selected features) 의 effect를 quantify하기 위해 AUC score에 대한 ANOVA 실시

 - ANOVA result: all 3 factors and their interactions are significant.

 - Classification method was the most dominant source of variability (34.21%)

 - Feature selection accounted for 6.25%

 - Classification X Feature selection interaction explained 23.03%

 - Size of the selected feature subset only shared 1.65% of the total variance



Discussion

 Feature selection methods는 크게 3 카테고리로 나눌 수 있음

(1) filter methods 

     - This paper only investigated filter methods as these are classifier independent.

    • simple feature ranking methods based on some heuristic scoring criterion

    • computationally efficient

    • high generalisability and scalability

(2) wrapper methods

    • classifier dependent

    ⇨ may produce feature subsets that are overly specific to the classifiers, hence low            generalisability

    • search through the whole feature space and identify a relevant and non-redundant          feature subset.

     computationally expensive 

(3) embedded methods

    • classifier dependent

    ⇨ lacks in the generalisability

    • incorporate feature selection as a part of training process 

     computationally efficient as compared to the wrappers. 


Filter Methods

 - J : scoring criterion (relevance index)

 - Y : class labels

 - X : set of all features

 - Xk : the feature to be evaluated

 - S : the set of already selected features


위 내용을 작성할 때 Parmar, C., Grossmann, P., Bussink, J. et al. Machine Learning methods for Quantitative Radiomic Biomarkers. Sci Rep 5, 13087 (2015). 해당 논문을 참고하였음.


댓글

이 블로그의 인기 게시물

통계 기초 : 확률 분포 - (1) 이항분포

Binomial distribution 이항분포에 앞서 베르누이분포가 있다. 모든 가능한 결과가 두 가지인 실험(표본공간이 {불량품, 양호품},{찬성, 반대} 등)을 베르누이 시행(Bernoulli trial)이라 한다. 성공확률을 p 라고 할 때, '성공'이면 1, '실패'면 0으로 대응시키는 확률변수를 베르누이 확률변수라 한다. 베르누이 확률변수 X의 확률분포는 다음과 같이 정의할 수 있다. $$ P(X=x) = p^{x}(1-p)^{1-x}, x=0,1 $$ 따라서, X=0인 경우에는 P(X=0) = (1-p)이고, X=1인 경우에는 P(X=1) = p가 된다. 베르누이분포의 평균은 E(X)=p, Var(X)=p(1-p) 이다. 이처럼 동일한 성공확률을 가진 베르누이 시행 을 독립적 으로 반복 하여 시행할 때, 'X=성공횟수'의 분포를 이항분포(binomial distribution)이라 한다. 성공확률이 p인 베르누이 시행을 n번 독립적으로 반복 시행할 때, '성공횟수(=X)'가 x일 확률은 다음과 같이 표시할 수 있다. $$ P(X=x) = (\frac{n}{x})p^{x}(1-p)^{n-x}, x=0,1,2, ..., n $$ 이항분포의 평균은 E(X)=np, 분산은 Var(X)=np(1-p) 이다. 증명은  https://proofwiki.org/wiki/Variance_of_Binomial_Distribution  참고하면 된다. 여기에서 n , p 를 이항분포의 모수(parameter)라 한다. 만약 n=1이라면, 이항분포 B ( n , p )는 '1(성공)'의 확률이 p 인 베르누이분포이다. 참고로 모수는 모집단의 특성값으로, 평균, 분산, 성공확률 등을 예시로 들 수 있다.

Odds Ratio and Relative Risk ; 오즈비와 상대위험도

  Odds Ratio 는 임상에서 매우 많이 사용되는 개념이다. 그러나 'Odds' 라는 개념이 직관적으로 잘 와닿지 않기 때문에 흔히 오용되기도 하는 개념이라 가장 먼저 잡고가야 할 주제로 삼았다.   오즈비는 범주형 자료에서 사용되는데, 오즈비를 보면서 가장 많이 접하게 될  2X2 분할표는 다음과 같이 생겼다.   Event Normal Total Exposed A B A + B Non-exposed C D C + D 흔히 하는 실수가 오즈비(Odds Ratio)를 해석할 때, 상대위험도(Relative risk)를 해석하듯이 한다는 점이다. 따라서 오즈비와 상대위험도의 각 개념에 대해서 살펴보고 넘어가도록 하자.   ❗Odds Ratio와 Relative Risk의 공통점 : 상대적인 비율 을 나타낸다. Public health / Medical 에서 Odds Ratio or Relative Risk를 사용하는 이유 - 어떤 조건에서 더 위험한지를 수치적으로 나타내기 위해서 사용 한다. 예를 들면, "흡연(조건)"을 하는 사람은 비흡연자에 비해 "폐암(Event)" 발생에 있어서 몇 배가 더 위험한가? 와 같은 질문에 대한 해답으로 많이 사용된다.   ✅위와 같은 2X2 이차원 분할표에서 Odds Ratio (오즈비) 의 수식적 정의 는 다음과 같다. P1 = A/(A+B) ; P2 = C/(C+D) Odds1 = P1/(1-P1) ; Odds2 = P2/(1-P2) Odds Ratio = Odds1/Odds2 = A*D/B*C ✅ 한편 2X2 분할표에서 Relative Risk (상대위험도) 의 수식적 정의 는 ...

Odds Ratio and Relative Risk ; 오즈비와 상대위험도 part. 2

 지난 글에서 2X2 분할표에서 많이 사용되는 오즈비와 상대위험도의 개념에 대해서 살펴보았다. 그 중에서도 지난 글에서는 오즈비를 사용할 수밖에 없는 경우에 대해 살펴보았다.  상대위험도가 직관적으로 이해하기 쉽고 위험비에 대한 쉬운 해석을 가능하게 하지만, 그럼에도 불구하고 보건 or 의학 계열에서 오즈비를 많이 사용 할 수밖에 없는 이유에 대해 살펴보았다. 또한 오즈비와 상대위험도는 가끔 동일하게 해석되기도 한다. (자세한 내용은 이전 글로..) 그럼 이번 글에서는 오즈비와 상대위험도를 동일하게 해석할 수 있는 경우 에 대해 살펴보도록 하겠다. 먼저 다음과 같은 오즈비의 특성을 이해해야 한다. 오즈비의 중요 특성: 상대적인 위험도를 과장하는 측면 이 있다. 이는 굉장히 중요한 오즈비의 특성인데, Relative Risk 값보다 항상 큰 값을 가진다. 그리고 이는 해당 Event가 흔하게 일어날 수록 더욱 더 과장 된다. 📋예를 들어 보자. 따듯한 차를 마셨을 때와 방안 온도의 차를 마셨을 때 체온이 상승하는지 아니면 그대로 유지되는지에 대해 조사하고 다음과 같은 분할표를 얻었다.   체온 상승 유지 Total Warm tea 90 10 100 Normal temp 20 180 200 먼저 Relative Risk 상대위험도 를 구해보자. $$ \frac{90/100}{20/200} = 9 $$ 이번엔 Odds Ratio 오즈비 를 구해보자. (유도과정은 이전 글 참고) $$ \frac{90 * 180}{20 * 10} = 81 $$ 이번엔 방금 구한 상대위험도와 오즈비를 해석해보자. 📉 RR : 상대위험도는 9로, 이는 따듯한 차를 마신다면 체온이 상승할 확률이 방안 온도의 차를 마셨을 때보다 체온이 상승할 확률...