FrontPage t-test

1. t-test 비교

@T-testData.sav (45.12 KB) 이 파일은 t-test 혹은 그룹 간 비교에 필요한 데이터가 포함된 SPSS data file이다.


1.1. 모집단의 평균과 표준편차를 알고 있을 때

모집단을 $p$ , 모집단의 평균을 $\mu$ 모집단의 표준편차를 $\sigma$ 라고 하고, 이 둘을 알고 있을 때 sample을 추출해서 모집단의 $\mu$$\sigma$ 를 확인하는 방법이 있다. 흔히 Quality control에 많이 사용된다.

감자의 단위당 무게가 평균 200g이고 표준편차가 20이라고 주장하는 납품업자로부터 감자의 quality가 보고와 일치하는 지 궁금하여 샘플 (n=400)을 뽑아 확인한다.
  • $\mu = 200$ , $\sigma = 20$
위의 정보를 통해서 standard error (표준오차)를 구하면, $\sigma{\small\overline{X}} = \text{se} = \frac{\sigma}{\sqrt{n}} = \frac{20}{\sqrt{400}} = \frac{20}{20} = 1$
  • 위의 정보(se)는
    • 샘플의 숫자(n)가 400인 샘플을 뽑았을 때,
    • 그 샘플의 평균값이 나타날 수 있는 범위를 정해주는 단위
    • se = 1 이므로
  • 400개의 샘플을 뽑았을 때, 그 샘플의 평균은 평균 200g을 기준으로 좌우로 2단위의 se만큼 떨어진 범위에서 발견될 것이다.
  • se의 두 단위를 사용하였으므로, 좌우 범위는 각각 2이다.
  • 즉, 198g - 202g에서 샘플의 평균이 나올 것이다.
  • 마지막으로 이 범위에서 샘플의 평균이 발견될 확률은 95% 이다. 이유는 stadnard deviation of sample means = standard error = se 를 2 단위 썻기 때문이다.
  • 즉, 우리는 400개의 샘플을 뽑았을 때, 그 샘플의 평균이 198에서 202일 거라는 확신을 95%하게됨.
  • 마지막으로 샘플을 뽑아서 예상대로 보면 됨. 샘플의 평균이 196이라고 한다면, 이 샘플의 평균이 198-202 범위에서 발견되지 않았으므로, 우리는 첫째
    • 이 샘플이 우리가 포기하기로 한 5%의 범위안에 드는 샘플일 수 있다 (가능성은 5%이기는 하지만)
    • 만약에 위의 가정을 무시할 수 있다면 (5%의 가정이므로), 감자의 납품자가 않좋은 감자를 납품하고 있다.
의 두 가지 가정을 해 볼 수 있다. 첫 번째는 가능성이 적으므로, 우리는 두 번째 가정을 지지하게 되고 감자의 quality를 높일 것을 요구할 수 있다.

1.2. 모집단의 평균만을 알고 있을 경우

새들이 눈을 무서워할까? 만약에 무서워한다면, 여름에 농작물에서 새를 쫒는데 사용할 수 있을것이다. 연구자 B는 이를 가설로 세우고 테스트해보기로 하였다. B는 이를 위해서 실험환경을 우선 만들었다. 커다란 직사각형의 방의 한 면에는 사람의 눈을 그려 두고 이 주변에 새들이 쉴곳을 마련해 두었다. 반대편은 아무 표시가 없으며 주변에 쉴 곳을 마련해 두었다. B는 이제 16마리의 참새들을 구하여 각각의 새가 한 시간 동안 표시없는 벽에 얼마나 머물렀는가를 측정하였다.

측정한 결과, B는 다음과 같은 statistics를 얻었다.

  • $\overline{X} = 35 \text{ minutes}$
  • $\text{Sum of Squares} = SS = 1215$
  • $n = 16, df = 15$

이를 바탕으로 아래의 연구가설을 세웠다.

  • $H1\;:\;\;\;\; \mu_{\text{plain}} \; \not= \; 30 \;\text{minutes}$

위에서 30 분이 아니라고 생각한 것은 눈이 새들에게 아무 영향을 미치지 않는다면 한 시간의 반인 30분을 머문다고 가정할 수 있기 때문이다. 그러나, B는 이외에 population(모집단)standard deviation 값을 모른다. B는 confidence interval을 95% (alpha level = .05)로 하기로 하고, 현재 샘플의 degrees of freedom은 n-1인 15이라고 기록해둔다. 이를 토대로 B는 T-distribution Table을 살펴본다 (T-distribution Table을 사용하는 이유는 아래에서 언급한다).

  • T distribution을 살펴본 결과, $T_{\text{crit}} = 2.131\;,\;\; (df = 15, \alpha = .05) $ 이라는 것을 알아내었다. 이 숫자를 기록해 둔다.

다음으로, B는 위의 가설이 참이 아니라면, 즉 $\mu_{\text{plain}} = 30 \text{min}$ 이라고 가정한다 (null hypothesis).

  • $H0\;: \;\;\;\; \mu_{\text{plain}} \; = \; 30 \text{minutes}$

이제 $t$ 값을 구하여, $t_{\text{crit}}$ 값과 비교하여 본다.

\begin{eqnarray}
t & = & \frac{\overline{X}-\mu}{s_X} = \frac{35-30}{s_X} \nonumber 
\end{eqnarray}
\begin{eqnarray}
s^2 & = & \frac{SS}{df} = \frac{1215}{16-1} = 81 \nonumber 
\end{eqnarray}
\begin{eqnarray}
s_{\overline{X}} & = & \sqrt{\frac{s^2}{n}} = \sqrt{\frac{81}{16}} = \frac{9}{4} \nonumber 
\end{eqnarray}

따라서, $t = \frac{5}{\frac{9}{4}} = \frac{20}{9} = 2.22$ 이다. z-test에서 언급한 것처럼, t 점수를 적용한다고 하면, 2보다 크므로, 영가설을 부정할 수 있다. 그러나, B는 z-test에서와 같이 population의 $\mu$ 를 사용하지 않았으므로, t값으로 얻은 결과를 z값처럼 사용할 수 없다. T distribtuion table은 이렇게 불완전한 $s_{\overline{x}}$ 의 값을 염두에 두고 만들어진 것이다. 따라서 위에서 구한 $t_{\text{crit}}=2.131$ 의 값은 z-test에서의 2 처럼 사용될 수 있다. 이 둘을 비교하면, 계산된 t 값이 더 크므로, 영가설을 부정하고, 따라서 연구가설을 채택한다. 단, B의 이 채택이 100% 옳은 결정이 아니라, 5%의 오류 가능성을 포함하고 있는 것이다.

B는 이와 같은 실험결과를 보고서의 형태로 기술한다.


참새들이 민짜 벽에 머문 평균시간은 35분이었다 (SD = $9$ ). 실험 결과에서 얻어진 이 값은 눈의 영향력이 없다고 가정했을 때, 새들이 머물것으로 추정되는 30분과 통계적으로 유의미하게 다르다는 것이 밝혀졌다. 즉, 눈은 새들에게 영향력을 미친다고 판단되었다 (t(15) = 2.22, p < .05).

1.3. 두 집단 간의 평균과 표준편차만으로 판단하는 경우

Independent t-test 문서는 미국의 대학생을 위해서 쓰여진 것이다. 우선 이것을 읽어 볼 것.

이 문서에서는 $\sigma_{\text{diff}}$ 에 대해서는 언급을 하지 않았다. 약간 복잡하기 때문이었는데, 이전의 standard error 개념을 잘 이해했다면 실제로 계산법을 익혀볼 필요는 없다고 하겠다. 그러나, 실제로 구해보면 아래와 같이 구할 수 있다.

우선 $\sigma_{\text{diff}}$standard error of the sample means differences 라고 이야기 할 수 있다. Standard deviation of sampling distribution (즉, standard error) 은 하나의 집단만을 가지고 가상으로 여러 번 샘플을 뽑는 것을 가정하지만, 여기서는 두 집단 간의 평균차이로 만들어진 데이터의 분포곡선을 가정한다. 즉, 집단과 집단의 평균을 구한뒤 그 차이를 계속 기록함으로써 구하는 distribution 곡선을 상상한다.

Data Table
Data Table
$\overline{X}$ $\overline{Y}$ $\overline{X}-\overline{Y}$
$\overline{X_1}$ $\overline{Y_1}$ $\overline{X_1}-\overline{Y_1}$
$\overline{X_2}$ $\overline{Y_2}$ $\overline{X_2}-\overline{Y_2}$
$\overline{X_3}$ $\overline{Y_3}$ $\overline{X_3}-\overline{Y_3}$
. . . . . . . . .
$\overline{X_i}$ $\overline{Y_i}$ $\overline{X_i}-\overline{Y_i}$

위의 예에서 만약에 X집단과 Y집단의 평균이 같다고 가정한다면, 어떤 종류의 $\overline{X_i}-\overline{Y_i}$ distribution 곡선이 나올까? 평균을 0으로 하며, 두 집단의 Variance를 더한 값 만큼의 Variance값을 갖는 곡선이 나올 것이라는 예상을 할 수 있다.

과연, 이와 같은 상황에서의 t값은 아래와 같이 구한다.

$t = \displaystyle \frac{(\overline{X_a}-\overline{X_b})-(\mu_a-\mu_b)}{\sigma_{diff}}$
참조: One sample일때의 t 계산법: $t = \displaystyle \frac{(\overline{X}-\mu)}{\sigma_{\overline{X}}}$

만약에 A그룹과 B그룹 간의 전체 모집단의 평균이 같다고 가정한다면 $\mu_a-\mu_b = 0$ 이 될것이다. 그리고 , $\sigma_{diff}$ 라는 기호는 두 집단의 모집단 표준편차를 안다고 가정할 때만 사용할 수 있으므로, $s_{\tiny\overline{X_a}-\overline{X_b}}$ 라고 표현할 수 있다.

$t = \displaystyle \frac{(\overline{X_a}-\overline{X_b})}{s_{\tiny\overline{X_a}-\overline{X_b}}}$

$se = \displaystyle s_{\tiny\overline{X_a}-\overline{X_b}} = \sqrt{\frac{S_p^2}{n_a} + \frac{S_p^2}{n_b}}$

이때 $S_p^2$ 는 두 집단의 분산을 묶어서 구한 전체 분산값이다. 이 묶은 분산값은 아래와 같이 구한다.

$s_p^2 = \frac{SS_a+SS_b}{df_a+df_b}$

위의 식은 보기에는 복잡해 보이지만, 이전에 분산값과 standard error값을 구하는 공식을 떠 올리면 두 계산이 크게 다르지 않음을 알 수 있다.

참고: $s^2=\frac{SS}{df}$ , $se=\sqrt{\frac{\sigma^2}{n}}$


다른 예,
$\text{ser}$ $group$ $D$
1111.4
2111
315.5
419.4
5113.6
61-2.9
71-0.1
817.4
9121.5
101-5.3
111-3.8
12113.4
13113.1
1419
1513.9
1615.7
17110.7
182-0.5
192-0.93
202-5.4
21212.3
2222
232-10.2
242-12.2
25211.6
262-7.1
2726.2
282-0.2
292-9.2
3028.3
3123.3
32211.3
3320
342-1
352-10.6
362-4.6
372-6.7
3822.8
3920.3
4021.8
4123.7
42215.9
432-10.2

1.3.1.

예를 들어보자.

C는 이미지를 연상하는 기억방법이 단순한 기억방법보다 효과가 크다고 생각한다. 이를 검증하기 위해서 C는 두 집단(각각의 n=10)을 샘플로 선정하여 아래의 Sample Statistics 를 얻었다.

Group a Group b
$n_a = 10$ $n_b = 10$
$\overline{X_a} = 19$ $\overline{X_b} = 25$
$SS_a = 160$ $SS_b = 200$

우선 연구가설과 영가설은:

  • $H1\;: \;\;\;\; \mu_a \; \not= \; \mu_b $
  • $H0\;: \;\;\;\; \mu_a \; = \; \mu_b $

  • $ df_a = 9,\;\; df_b = 9,\;\; df = 18 $
  • $t_{crit} (\alpha=.05, df=18) = \pm 2.101 $

  • $t= \frac{\overline{X_a} - \overline{X_b}}{s_{\overline{X_a}-\overline{X_b}}} $
  • $\text{Pooled variance} = s_p^2 = \frac{SS_a+SS_b}{df_a+df_b} = \frac{360}{18} = 20 $
  • $se = \sqrt{\frac{s_p^2}{n_a}+\frac{s_p^2}{n_b}}= \sqrt{\frac{20}{10}+\frac{20}{10}} = 2 $

따라서
  • $t = \frac{\overline{X_a} - \overline{X_b}}{s_{\overline{X_a}-\overline{X_b}}} = \frac{19-25}{2} = -3 $
  • $t_{calculated} > t_{crit}$ 이므로, 영가설을 부정한다. 즉, 이 두 집단의 평균차이는 (-6)은 두 집단이 대동소이한 집단이라고 가정할 때, 즉 동일한 population을 가진 집단이라고 가정했을때에 나올 수 있는 차이를 훨씬 넘어선다.

따라서, C는 다음과 같이 보고한다.

정신적인 이미지를 사용하여 기억을 한 그룹 (treatment group) 과 일반 그룹 (control group) 간의 기억력은 차이가 있는 것으로 나타났다 $(t(18)= -3, \; p < .05)$ .


1.4. 동일집단 간의 차이에 대해서 알아볼 때

Eating disorder treatment. Was the treatment effective?
1787.39810.7

in Chapter 13.2 Table 13.1
$\text{ser}$ $X_1$ $X_2$ $D$
183.895.211.4
283.394.311
38691.55.5
482.591.99.4
586.7100.313.6
679.676.7-2.9
776.976.8-0.1
894.2101.67.4
973.494.921.5
1080.575.2-5.3
1181.677.8-3.8
1282.195.513.4
1377.690.713.1
1483.592.59
1589.993.83.9
168691.75.7
mean83.2294117690.494117657.264705882
std5.0166927248.4750715777.157421077

\begin{eqnarray}
t  = \frac{\overline{D}-0}{s_{ \overline{D} }} 
   = \frac{\overline{D}}{ \frac{s_D} {\sqrt{N}} } . . . . . . 
\end{eqnarray}

According to (1), $t=4.18$ . Then what is the value of $df$ (case number-1)? = (16-1) = 15.
When critical value = .05, $ t_{crit} = \pm{2.12} $

1.5. 가설테스트, 예

위의 감자의 QC의 예를 연구가설을 테스트하는 형식으로 익혀 두는 방법.
위에서 살펴본 것과 같이, 감자의 단위당 무게가 평균 200g이고 표준편차가 20이라고 주장하는 납품업자로부터 감자의 quality가 보고와 일치하는 지 궁금하여 샘플 (n=400)을 뽑아 확인하는 경우를 예로 들어 가설검증의 순서를 이야기 해 보겠다.

  • $$ \mu = 200 $$ , $$ \sigma = 20 $$

위의 정보에 대해서 매니저 A는 의구심이 들게 된다. 따라서, 그의 연구가설은 아래와 같다.

  • $H1: \;\;\;\; \overline{X}_{potatoes} \;\; \not= \;\; \mu (200g); $

A는 위의 가설 검증을 위해서 $n=400$ 의 샘플을 뽑기로 하고, 이 샘플에 근거한 판단의 기준으로 .05 을 설정한다 (Type I error 참조). 이는 A가 자신의 가설검증 판단을 위해서 95%의 confidence interval 을 갖는다고 결정한다는 것을 의미한다.

  • 이에 따라서 A는 Sampling을 통해서 sample을 뽑는다. 이렇게 뽑은 샘플의 평균이 396g 이었다. 즉, $\overline{X} = 396$ .

A는 위의 정보 즉, 샘플에서 취한 $\overline{X}$ 값 (396)이 C사가 주장하는 400g과 일치하는지에 관심을 갖는 것이다 (위의 H1 참조). 이를 좀 더 설명하자면, A는 400개의 샘플을 뽑을 때 C사의 주장이 진실이라고 할지라도,그 평균이 정확히 C사가 주장하는 400g이 나오지는 않을 것이라는 것을 알고 있다. A는 자신이 막 뽑은 샘플의 평균이 전체 평균 400g의 모집단에서 n=400의 샘플을 뽑을 때 자연스럽게 나올 수 있는 평균인지를 알고 싶은 것이다. A는 이 시점에서 자신이 뽑은 샘플을 직접 다루는 것 보다는 $\mu = 400 g$ 인 모집단을 가정한다면 (즉, C사의 주장이 진실이라면), n=400의 샘플의 평균이 개략적으로 어떤 범위에서 나와야 하는가를 알아보는 것이 더 좋은 방법이라고 생각한다. 이를 다시 이야기하면,

  • $H\not{0}: \;\;\;\; \overline{X} (396g) \;\; = \;\; \mu_{potatoes} (400g) $

라고 가정하는 것이다. 이를 null hypothesis 라고 한다.

일단 null hypothesis가 세워지고 나면, 모집단에 대한 sampling distribution 에 대해서 이야기해 볼 수 있다. 즉,



\begin{eqnarray}
\text{The distribution of sample means (n=400) should have normal curve} \\
\mu_{\overline{X}} = \mu \\
\sigma_{\overline{X}} \normalsize = \frac{\sigma}{\sqrt{n}}, \;\; n=400 
\end{eqnarray}

위의 정리는 central limit theorem 이라고 언급하였다. 이를 바탕으로 해서 n=400인 sampling distribution 의 성질을 정리하면 $\sigma_{\overline{X}}=\frac{\sigma}{\sqrt{n}}=\frac{20}{\sqrt{400}}=1$ 이다. 우리는 이를 standard error라고 부른다고 하였다.

  • 위의 정보(se)는
    • 샘플의 숫자(n)가 400인 샘플을 뽑았을 때,
    • 그 샘플의 평균값이 나타날 수 있는 범위를 정해주는 단위
    • se = 1 이므로
  • 400개의 샘플을 뽑았을 때, 그 샘플의 평균은 100이면 95번은 평균 200g을 기준으로 좌우로 2단위의 se만큼 떨어진 범위에서 발견될 것이다.
  • se의 두 단위를 사용하였으므로, 좌우 범위는 각각 2이다.
  • 즉, 398g - 402g에서 샘플의 평균이 나올 것이다.
  • 마지막으로 이 범위에서 샘플의 평균이 발견될 확률은 95% 이다. 이유는 stadnard deviation of sample means = standard error = se 를 2 단위 썻기 때문이다.
  • 즉, 우리는 400개의 샘플을 뽑았을 때, 그 샘플의 평균이 398에서 402일 거라는 확신을 95%하게됨.

라는 판단을 가능하게 해준다. 그런데, A가 구한 샘플의 평균은 396이고, 이는 위에서 언급한 398-402에 포함하지 않으므로, 아래의 판단을 하게 된다.

  • 이 샘플이 우리가 포기하기로 한 5%의 범위안에 드는 샘플일 수 있다 (가능성은 5%이기는 하지만)
  • 만약에 위의 가정을 무시할 수 있다면 (5%의 가정이므로), C사가 좋지 않은 감자를 납품하고 있다.

두 번째의 판단을 채택하게 되면, A는 위에서의 NullHypothesis를 부정하는 것이 된다. 이를 다시 이야기 하면 research hypothesis를 채택하는 것이고, 이는 C사는 평균이 400g인 감자를 납품하고 있지 않다는 판단이다.

1.6. 가설테스트 요약

1. 연구가설을 세운다
2. 샘플을 취한다. 이 때 샘플의 규모, n과 허용오차 (.05)를 정한다.
3. 연구가설을 뒤집어 영가설을 만든다.
4. 이를 근거로 검증절차를 따른다.
5. 절차의 결과를 가지고 영가설을 부정할지, 채택할지 결정한다.
6. 위에 따라, 연구가설에 대한 판단을 한다.

1.7. Example

Use the file (the above)
gender: gender
TmobConv: time spent in mobile conversation
mobout: number of mobile out-calls
mobin: number of mobile in-calls
mobpeople: number of people, communicating with via mobile phone

Make three hypotheses:

1.8. T-TEST in English

Included section (from Independent t-test)

T-TEST

About T-test:
Professor Belkin in SCILS: Picture taken at the Concert, the Professor, at Highland Park, 2000, summer

I have thought a proper way to make the t-test accessible; but, I figured out that it is not helpful to skip z-score and z-test. Before I tell any further, I'd like to mention that the t-test and z-test are virtually the same. Some differences are discussed later.

I will talk about z-test first.

I am repeating things because statistics tend to confuse us. So, let's start with standard error.

Do you remember the concept of the standard error of the mean? I have told several times that it is important -- it pops out here. The standard error of the mean refers to the standard deviation of the means of (many imaginary) samples from a particular population you are interested in.

The concept, the standard error of the mean gives the "possible range of mean scores" of samples (given a size of N) from a population. After you figure out the range of possible mean scores, you can estimate the mean score of the population. For example, in the IQ score test, suppose it is known that the national IQ score average is 100 (from the reliable statistical source) and the standard deviation is 10. With this information, you can calculate the standard error of the means with the formula (see the figure for the formula). Since the formula wants you to provide the number of the sample (sample size), you decided that you will take 25 individuals for a sample. Then, the standard error of the means of IQ score test, with the sample size 25, would be 2.

$\sigma_{\overline{X}} = \frac{\sigma}{\sqrt{N}} = 2; $
Also we know that the mean of (the samples means) is the same as the population mean. That is, $\mu_{\overline{X}} = \mu$ .

Because the standard error is actually the standard deviation of sample means, we can use the 68-95-99 rule here to estimate the range of the possible population mean.

1 standard error unit: 1*se = 2
2 standard error units: 2*se = 4
3 standard error units: 3*se = 6

Mean +- 1*se = 100 +- 1(2) = 98 - 102 with 68% confidence;
Mean +- 2*se = 100 +- 2(2) = 96 - 104 with 95% confidence;
Mean +- 3*se = 100 +- 3(2) = 94 - 106 with 99% confidence

What it tells is that if we take a random sample (not imaginary, n=25), the mean should be found in the above ranges. With 68% sure, the mean of the sample would lie between 98 to 102. With 95% sure, the mean of the sample would lie between 96-104. With 99% sure, the mean of the sample would be found between 94-106.

Now, suppose that you took a sample (n=25) and found that the mean score for this sample was 105. From this number, you can immediately assume that there is something wrong. That is, with 95% confidence, the means of samples (n=25) should fall between the 96 and 104. But, the mean of this particular sample is 105. So, we may think that this particular sample is unusual in comparison to the characteristic of the population. Or, we can think another way around -- what we were told as national average IQ score (=100) may be wrong.

Stop here. This is a recap for the concept of the standard error of the means.

Professor Belkin in SCILS: Picture taken at the Concert, the Professor, at Highland Park, 2000, summer

In the above, we figured out the ranges first, got the mean of a sample; and compare it to the ranges. We can simplify these by using z-score. In other words, we can regard the numerical value of one standard error as one unit. In this case, because the standard error is 2, one unit of standard error is 2. How far the mean of the particular sample (mean = 105) was off from the mean of the population in the above example? -- 5 (105 (mean of the sample) - 100 (mean of the population)). Numerically it is off by 5. Now, how many standard error units is this mean (105) off from the mean of the population? Since we regard numerical value 2 as one unit of standard error, it is 2.5 units off from the population (5 divided by the unit of standard error, 2). This sounds complex. But, if we see the mathematical form below:

$Z = \frac{\overline{X} - \mu}{\sigma_{\overline{X}}} = \frac{(105-100)}{2}$ .

As we figured out the result is 2.5. This value is called z-value (usually z means standardized). If you take a look at the below:
1 standard error unit: 1*se = 2 -- 68% -- z-score = 1
2 standard error units: 2*se = 4 -- 95% -- z-score = 2
3 standard error units: 3*se = 6 -- 99% -- z-score = 3
In stead of dealing with 2, 4, and 6 which are numerical, now we can use 1, 2, and 3 to compare. In the example, we got 2.5 (z-score) which is bigger than the underlined 2. Therefore, we can see that the mean of the sample (105) falls out of the range provided with 95% certainty (2 standard error unit). Therefore, we can reach the same conclusion as we did. That is, we may say that, with 95% certainty, this particular sample seems an unusual case considering the given characteristic of the population. Or, we can think another way around -- what we were told as national average IQ score (=100) may be wrong with 95% certainty.

The benefit of using z-score is that now we can compare the obtained value for our sample to the number 2 (if you are required to employ 95% certainty. If you are required to employ 68% certainty, you can use the number 1, right?). This is because we "unit-ized" or "standardized" the score. This was obtained through just dividing the difference (between mean of the sample and the mean of the population) with the standard error of the means.

There is another application of this kind of test. In the above example, we just had one sample and were given the parameters for the population (do you remember the terms, parameter and population?). Suppose that we have two samples, instead of one. And we want to see whether two samples are the same kinds. For example, one sample is students who do not use the class web site. And the other is those who use the class site as a study resource. We got the exam result and want to compare them to see (judge, or decide) whether they are different. This is called two-sample z-test.

For this particular test, we use the standard error of the differences of the means. This is a different kind of standard error. Do you remember that I told you that there are many kinds of standard errors? -- the standard error of the probabilities, the standard error of the means, standard error of the differences of the means, etc. There are many others. All stem from the same idea, though. For this term, the standard error of the differences of the means, we do the same imaginary experiment. We take a sample from each group (or population); get the mean of the each sample; compare them (by subtracting one mean from the other); record the difference (compared result); take another sample from each group (or population); get the sample means; compare them; record the difference; ..... You keep doing it and get the statistics out of the record. The standard deviation obtained from this record has the exact same characteristics as the standard error of the means. And this is called the standard error of the differences of the means.

Let's go back to the example. We have 89.5 and 85 as the mean of the each sample -- those who use the class web site and those who do not. Suppose that we got the standard error of the differences of the means (1.5). We can use the same procedure as the above (with some modification: we now subtract one mean from the other)

$Z = \frac{\overline{X_1} - \overline{X_2}}{\sigma_{diff}} = \frac{(89.5-85)}{1.5} = 3 $ .

Professor Kubey in SCILS: Picture taken at the Concert, the Professor, at Highland Park, 2000, summer

Here, since we have the z-value, 3, which is bigger than 2 (assumed that 95% certainty was employed), we can argue that with 95% certainty, the two sample are different from each other in terms of the performance on the exam.

What can we say about this? We can say that those who use the class web site regularly tends to have higher exam scores in comparison to those not. The difference found in the above samples turned out to be statistically significant. That is, the differences was not due to a mere chance.

Now, about t-test (you have been waiting too long).

But, there is nothing much to say about because it is the almost same thing as the Z-test. Some points that I want to make though are

  1. that you need to refer to t-distribution table to make the statistical decision (rejecting the null hypothesis, p. 399 in the textbook.); As we discussed, the t-test (z-test) score uses the concept of standard error of mean differences (between two groups). So, our common sense (if it works ok) tells us, "Hey, if the mean difference between two groups are relatively small, the test score will be small. In fact, if they are identical, the test score should be 0 (zero)." So, when you look up the t-test table with your "calculated t-test score (value)", your calculated score should be bigger than the critical score (value) in order to say that there IS difference between the two groups.
  2. that the T-test is used with small sample sizes;
  3. the T-test is mostly used with two-sample problems (two-sample t-test; same thing as two-sample z-test).

I will give you an example. Suppose that you are interested in two groups. One is those who attend the review session for the COMM research class. The sample size for this group is 12. The other is those who do not. the sample size for this group is 12. The mean score of the example for each group is 90 and 82 respectively. And the standard error of the differences of the means is given and it is 3. We can use the formula for the T-test, below.

$\text{t} = \frac{\overline{X_1} - \overline{X_2}}{\sigma_{diff}} = \frac{(90 - 82)}{3} = 2.67 $ .

You also need to figure out what is the degree of the freedom. The formula for this is:

$\text{df} = (n_1 - 1) + (n_2 - 1) = (12 - 1) + (12 - 1) = 22$ .

If we take a look at the t-distribution table:
the critical value: 2.074 at 0.05 probability level (p = 0.05).
the critical value: 2.819 at 0.01 probability level (p = 0.001).

Now you need to compare the calculated t-test value (2.67) and the critical value found in the table (2.074 at p = 0.05 level and 2.819 at p = 0.001 level). You figure out that the t-test value is bigger than the critical value at 0.05 level. You know that the t-test value depends upon the value of the difference between bar(X_1) text(and) bar(X_2) (see the above formula) -- if the difference is big the t-test value gets big. If there were no difference between the two groups in the first place, the t-test value is going to be zero (0). So, if obtained t-test value is larger than the critical value, you can say that there seems real difference in exam score between the two groups with 95% confidence. But, it is not the case at the 0.01 level. The obtained t-test value is smaller than the critical value at 0.01 level. Therefore, you cannot say that there seems real difference in the exam score between the two groups with 99% confidence.



2. External Links


Valid XHTML 1.0! Valid CSS! powered by MoniWiki
last modified 2015-09-22 10:26:25
Processing time 0.0254 sec