왜 차이값을 (deviation score) 제곱하여 더한 값의 평균 (즉, 분산 Variance) 을 사용하나요? 차이값의 절대값을 더한 값의 평균을 사용하는 것이 더 직관적이지 않나요?

$ \text{absolute value of deviation score} = \displaystyle \frac {\sum |(X_i-\mu)| }{N} $

  1. 우선, raw data에서 분산값을 계산하기가 쉽다.
    \begin{eqnarray*}
\text{SS} & = & \small{\sum} \normal (X_i-\overline{X})^2 \\
& = & \text{. . . .} \\
& = & {\sum} \normal X_i^2 - \frac{(\small{\sum}\normal{X_i)^2}}{n} 
\end{eqnarray*}
See http://wiki.commres.org/ANOVA#s-2.2

  2. 실제로 Mean absolute deviation (MAD) 으로 사용되고 있기도 하다. see WikiPedia:Average Absolute Deviation
  3. See [http]Cross Validated에서 나온 질문과 답
Valid XHTML 1.0! Valid CSS! powered by MoniWiki
last modified 2012-05-08 14:46:08
Processing time 0.0039 sec