Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Web Analytics
Cookie Policy Terms and Conditions Test dla wariancji - Wikipedia, wolna encyklopedia

Test dla wariancji

Z Wikipedii

Testy dla wariancji - są to testy parametryczne służące do weryfikacji hipotez statystycznych dotyczących wartości wariancji w populacji generalnej lub też do porównania wartości wariancji w dwóch lub kilku populacjach – na podstawie znajomości wartości badanej cechy w losowej próbie (lub w kilku próbach). Rozstrzygnięcie pytań dotyczących wariancji jest ważne m. in. dlatego, że wiele testów służących do porównania wartości średnich w dwóch lub kilku populacjach wymaga przyjęcia założenia o równości wariancji w tych populacjach (tak zwane założenie o jednorodności wariancji). Ponadto wariancja może być miernikiem dokładności w procesie pomiarowym lub produkcyjnym (zbyt duża wariancja wyników pomiaru może na przykład świadczyć o uszkodzeniu lub rozregulowaniu aparatury lub urządzeń).

Spis treści

[edytuj] Struktura i podział testów

Hipotezy dotyczące wariancji testuje się zgodnie z ogólnymi zasadami testowania hipotez statystycznych: formułujemy hipotezy, zakładamy poziom istotności \alpha\, – dopuszczalną wartość błędu pierwszego rodzaju (tj. prawdopodobieństwo odrzucenia prawdziwej hipotezy H0) i na podstawie danych z próby wyznaczamy wartość statystyki testowej, po czym porównujemy ją z wartościami krytycznymi odczytanymi z tablic odpowiedniego rozkładu teoretycznego. Przy konstrukcji wszystkich omawianych niżej testów przyjmowane jest założenie, że badane cechy maja w populacjach generalnych rozkład normalny.

  • Postać stosowanej statystyki testowej zależy od kilku czynników:
    • czy badamy hipotezę dotyczącą jednej, dwóch czy wielu wariancji?
    • czy porównujemy próby niezależne, czy zależne ( skorelowane, powiązane)?
    • jaka jest liczebność próby (prób)?. Przyjmuje się na ogół (dość arbitralnie), że próba jest duża, gdy jej liczebność n>30 (można wtedy zakładać, że statystyki mają rozkład normalny - patrz centralne twierdzenie graniczne). W przypadku przeciwnym - mamy do czynienia z próbami małymi.

Poniżej przedstawiono w skrócie kilka testów najczęściej stosowanych w poszczególnych sytuacjach.


[edytuj] Testy dla jednej wariancji

Porównujemy wariancję w populacji z „wzorcową” wartością \sigma_{0}^{2}.

Hipotezy mają postać: H0: \sigma^{2}=\sigma_{0}^{2},

H1: postać hipotezy alternatywnej zależy od sformułowania zagadnienia: (a)\sigma^{2}>\sigma_{0}^{2} albo (b) \sigma^{2}<\sigma_{0}^{2} albo też (c) \sigma^{2}\not=\sigma_{0}^{2}.


Postać statystyki i dalszy przebieg testu zależy od rozmiaru próby.

[edytuj] Próby małe

Wyznaczamy wartość statystyki

\chi^{2}=\frac{n\cdot s^{2}}{\sigma_{0}^{2}}
- s2 jest tutaj wariancją z próby a n – liczebnością próby. Statystyka ta ma rozkład chi-kwadrat - zatem wartość krytyczną \chi^{2}_{kryt} odczytujemy z tablic rozkładu chi-kwadrat dla v = n − 1 stopni swobody i dla poziomu istotności alpha\, – gdy hipoteza alternatywna H1 ma postać (a), w przypadku (b) – odczytujemy z tablic wartość \chi^{2}_{kryt}=\chi^{2}(1-\alpha,v), a w przypadku (c)- odczytujemy dwie wartości: \chi^{2}_{kryt1}=\chi^{2}(1-\frac{\alpha}{2},v) oraz \chi^{2}_{kryt2}=\chi^{2}(\frac{\alpha}{2},v).

Przedział krytyczny – w przypadku (a) jest prawostronny, czyli gdy \chi^{2}>\chi^{2}_{kryt} – odrzucamy H0, w przypadku przeciwnym – nie ma podstaw do jej odrzucenia. W przypadku (b) – przedział krytyczny jest lewostronny (dla \chi^{2}<\chi^{2}_{kryt} odrzucamy H0), a w przypadku (c) – przedział krytyczny jest obustronny.

[edytuj] Próby duże

Dla liczebności próby n > 30 możemy przekształcić wyznaczoną w poprzednim punkcie statystykę chi-kwadrat w statystykę z o rozkładzie normalnym obliczając:

z=\sqrt{2\chi^{2}}-\sqrt{2v-1}

W powyższym wzorze χ2 oraz v = n − 1 oznaczają statystykę chi-kwadrat i jej liczbę stopni swobody wyznaczone tak, jak w poprzednim paragrafie (dla prób małych).

Wartości krytyczne znajdujemy z tablic dystrybuanty rozkładu normalnego.Jeżeli Fn(z) jest dystrybuantą standardowego rozkładu normalnego, a F_{n}^{-1}(\alpha) - funkcją odwrotną do dystrybuanty, natomiast α - założonym poziomem istotności – to odczytujemy: dla przypadku (a) z_{kryt}=F_{n}^{-1}(1-\alpha), w przypadku (b) z_{kryt}=F_{n}^{-1}(\frac{\alpha}{2})=- F_{n}^{-1}(1-\alpha), zaś w przypadku (c) mamy 2 wartości graniczne: z_{kryt1}=F_{n}^{-1}(1-\frac{\alpha}{2}) oraz zkryt2 = − zkryt1.Dalszy przebieg testu i wnioski – jak poprzednio.

[edytuj] Testy dla dwóch wariancji

Mamy tu do czynienia z dwiema próbami o liczebnościach n1 i n2,znamy też „wariancje z próby” (estymatory wariancji) s_{1}^{2} i s_{2}^{2} - testujemy hipotezę, że próby te pochodzą z populacji o jednakowych wariancjach. Postać hipotez:

H0: \sigma_{1}^{2}=\sigma_{2}^{2},

H1: postać hipotezy alternatywnej zależy od sformułowania zagadnienia:

(a)\sigma_{1}^{2}>\sigma_{2}^{2} albo (b) \sigma_{1}^{2}<\sigma_{2}^{2} albo też (c) \sigma_{1}^{2}\not=\sigma_{2}^{2}.

[edytuj] Testy dla dwóch prób niezależnych

[edytuj] Próby małe

–można tu wykorzystać kilka testów:

[edytuj] Test Fishera

Przyjmujemy \sigma_{1}^{2}>\sigma_{2}^{2} i wyznaczamy statystykę z próby o postaci:

F=\frac{n_{1}(n_{2}-1)s_{1}^{2}}{n_{2}(n_{1}-1)s_{2}^{2}}

Statystyka ta ma rozkład Fishera –Snedeccora o liczbie stopni swobody v1 = n1 − 1 i v2 = n2 − 1. Z tablic tego rozkładu – dla testu prawostronnego - odczytujemy wartość krytyczną Fkryt1 = F(α,v1,v2). Jeżeli mamy stosować test lewostronny – najprościej jest zamienić miejscami próby 1 i 2, zaś w przypadku testu obustronnego wyznaczamy F_{kryt1}=F(\frac{\alpha}{2},v_{1},v_{2}) oraz drugą wartość graniczną ze wzoru:F_{kryt2}=\frac{1}{F_{kryt1}}.

[edytuj] Test t-Studenta

(dwie małe próby o równych liczebnościach)

Stosujemy statystykę

t=\frac{s_{1}^{2}-s_{2}^{2}}{2\sqrt{ s_{1}^{2}\cdot{ s_{2}^{2}}}}\cdot\sqrt{n-1}

(n jest tutaj wspólną liczebnością obu prób). Statystyka ta ma rozkład Studenta o v = n − 1 stopniach swobody.

[edytuj] Test Linka

Gdy znane są jedynie rozstępy R1 i R2 obu prób, wtedy wyznaczamy statystykę

F^{*}=\frac{R_{1}}{R_{2}}

przy czym w liczniku powinna być większa wartość (hipoteza H1 ma postać (a)). Statystykę tę porównujemy z wartością krytyczną odczytaną ze specjalnych tablic dla testu Linka - patrz np.(Zieliński, 1972).

[edytuj] Próby duże

(n1 > 30 i n2 > 30) W tym przypadku można wykorzystać statystykę z o rozkładzie normalnym:

z=\frac{s_{1}^{2}-s_{2}^{2}}{\sqrt{\frac{s_{1}^{2}}{2n_{1}}+\frac{s_{2}^{2}}{2n_{2}}}}

i porównać jej wartość z wartościami granicznymi wyznaczonymi z tablicy standaryzowanego rozkładu normalnego w dokładnie taki sam sposób, jak opisano to dla testu dla jednej wariancji i dużej próby.

[edytuj] Testy dla dwóch prób zależnych

Przypadek taki zachodzi np. gdy badamy ten sam zbiór obiektów w dwóch różnych sytuacjach ( w różnych warunkach) - wtedy na ogół liczebności prób są jednakowe (n1=n2=n).

[edytuj] Test Morgana dla prób małych

Wyznaczamy statystykę o rozkładzie t-Studenta:

t=\frac{s_{1}^{2}-s_{2}^{2}}{2\sqrt{{s_{1}^{2}}\cdot{s_{2}^{2}}\cdot(1-r^{2})}}{\cdot\sqrt{n-2}}

gdzie n jest wspólną liczebnością prób, a r – współczynnikiem korelacji Pearsona, który jest miarą korelacji pomiędzy wynikami w próbie 1 i próbie 2. Tę wartość statystyki t porównujemy z wartością krytyczną ( lub 2 wartościami krytycznymi) odczytanymi z tablic rozkładu t-Studenta dla v = n − 2 stopni swobody.

[edytuj] Test Morgana dla prób dużych

- test przebiega podobnie, z tą różnicą, że wartości graniczne można odczytać z tablicy rozkładu normalnego ( bo dla dużych wartości stopni swobody rozkład t-Studenta zmierza asymptotycznie do rozkładu normalnego).

[edytuj] Testy dla wielu wariancji:

Mamy k prób. Hipotezy mają postać: H0:\sigma_{1}^{2}=\sigma_{2}^{2}=\dots=\sigma_{k}^{2}

H1: „nie H0” ( nie wszystkie wariancje są równe)

[edytuj] Próby niezależne

[edytuj] Test Bartletta
Gdy liczebności prób są różne – stosujemy test Bartletta, oparty na statystyce chi-kwadrat:

\chi^{2}=\frac{v\cdot\ln \overline s^{2}-\sum_{j=1}^{k}(v_{j}\cdot\ln s_{j}^{2})}{c}

przy czym we wzorze tym ni są liczebnościami poszczególnych prób,

s_{i}^{2} – wariancjami z próby,

vi = ni − 1

natomiast wielkości v, s i c wyznaczamy ze wzorów:

v=\sum_{i=1}^{k}n_{i}-k - wielkość ta jest liczbą stopni swobody testu,
\overline{s}^{2}=\frac{\sum_{i=1}^{k}(n_{i}-1)s_{i}^{2}}{n-k}
c=1+{\frac{1}{3(k-1)}}\cdot\left({\sum_{i=1}^{k}{\frac{1}{v_{i}}}-\frac{1}{v}}\right)

Ta wartość χ2 jest porównywana z wartością krytyczną wyznaczoną z tablic rozkładu chi-kwadrat dla v stopni swobody. Obszar krytyczny jest zawsze prawostronny (zbyt duże wartości statystyki świadczą o niejednorodności wariancji).

Aby można było stosować test Bartletta – musi być spełnione założenie, że liczebności prób nie są skrajnie małe, tzn. że n_{i}\geq5 dla każdego i.

Gdy mamy k prób równolicznych, każda o liczebności k – możemy stosować też inne testy (prostsze rachunkowo):

[edytuj] Test Hartleya

Wyznaczamy statystykę Fh:

F_{h}=\frac{\hat{s}_{max}^{2}}{\hat{s}_{min}^{2}}

gdzie \hat{s}_{i}^{2}=s_{i}^{2}\cdot\frac{n_{i}}{n_{i}-1} - nieobciążone estymatory wariancji dla każdej z prób (i=1,2,\dots,k) a \hat{s}_{max}^{2} oraz \hat{s}_{min}^{2} są największą i najmniejszą spośród wariancji \hat{s}_{i}^{2}. Wartość statystyki Fh musi być porównywana z wartościami krytycznymi odczytywanymi z tablic specjalnie skonstruowanych dla tego testu (p.np. Zieliński 1972).Test Hartleya ma zawsze prawostronny obszar krytyczny.

[edytuj] Test Cadwella

Jest to test do badania hipotezy o jednorodności wariancji dla k prób niezależnych i równolicznych ( o liczebności n każda). Test ten jest oparty na wartości rozstępów, wyznaczamy mianowicie wartość statystyki:

C^{*}=\frac{R_{max}}{R_{min}}

(stosunek największego do najmniejszego rozstępu w badanych próbach) i porównujemy tę wartość z wartością krytyczną odczytaną z tablic specjalnie dostosowanych do tego testu, która zależy od poziomu istotności \alpha\,, liczby prób k i ich liczebności n. Test ten, tak jak poprzednie, jest zawsze prawostronny.

[edytuj] Próby zależne

[edytuj] Test Patnaika

Mamy k prób zależnych o liczebności n każda. Liczebności powinny spełniać warunek n\cdot{k}>10. Test oparty jest na wartościach rozstępów poszczególnych prób. Wyznaczamy dwie wartości:

- średni rozstęp \overline{R}=\frac{1}{k}\sum_{i=1}^{k}R_{i} oraz
- „rozstęp rozstępów” R_{R}=R_{max}-R_{min}\,

po czym porównujemy wartość stosunku q_{s}=\frac{cR_{R}}{\overline{R}} z odpowiednią wartością krytyczną q_{kryt}\,. Zarówno ta wartość krytyczna jak i stała c\, musi być odczytana z tablic specjalnie przygotowanych dla tego testu . Obszar krytyczny testu jest prawostronny, tj. gdy q_{s}>q_{kryt}\, - wnioskujemy, że wariancje w porównywanych populacjach nie są jednorodne. W takim przypadku – można stosować ten test sekwencyjnie ( w kolejnych podgrupach).

[edytuj] Bibliografia

Tablice statystyczne

  • Zieliński R.,’’Tablice statystyczne’’, PWN, Warszawa 1972
  • Barańska Z.,’’Podstawy metod statystycznych dla psychologów’’, Wyd. Uniw. Gdańskiego, Gdańsk 2000, ISBN 83-7017-839-1 (m.in. cytowane są tablice dla testów Patnaika i Cadwella’’)

Linki zewnętrzne

  • Distribution Calculator Kalkulator obliczający prawdopodobieństwa i wartości krytyczne dla rozkładów: normalnego, Studenta, chi-kwadrat oraz F (Fishera-Snedeccora)
Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu