Słownik

START | EDUKACJA | SŁOWNIK | Testy parametryczne

Testy parametryczne

Testy parametryczne to rodzaj testów statystycznych służących do weryfikacji hipotez, które zakładają określone założenia dotyczące rozkładu populacji. Oznacza to, że testy te są bardziej skoncentrowane na parametrach populacji, takich jak średnia, odchylenie standardowe lub innych statystykach opisowych.

Wykorzystanie testów parametrycznych wymaga spełnienia pewnych założeń (zostaną one opisane poniżej). Kiedy nie są one spełnione, stosuje się testy nieparametryczne, które są mniej restrykcyjne w tym zakresie. Jednocześnie, testy nieparametryczne nie polegają na szacowaniu parametrów populacji (średnia, odchylenie standardowe itp.) tylko bazują na innych wartościach, np. w przypadku testu Manna-Whiteya (nieparametryczny odpowiednik testu t Studenta dla prób niezależnych) lub Kruskala-Wallisa (nieparametryczny odpowiednik ANOVA dla prób niezależnych) są to rangi.

Oto najbardziej popularne założenia dotyczące testów parametrycznych:

1. Pomiar na skali ilościowej – testy parametryczne wymagają przede wszystkim skali o charakterze ilościowym dla pomiaru zmiennej zależnej, która pozwala na obliczanie średniej oraz wariancji (które są punktem wyjścia do kolejnych założeń)

2. Rozkład normalny – założenie normalnego rozkładu zmiennej zależnej jest wymagane niemal w każdym teście parametrycznym, choć w niektórych przypadkach ma ono mniejsze znaczenie.

3. Jednorodność wariancji – założenie homogeniczności wariancji jest specyficzne dla testów różnic i zakłada ono, że porównywane grupy (zmienna niezależna) mają podobne rozproszenie wyników na mierzonej skali.

4. Brak wartości odstających – pojawienie się tzw. outlier’ów wiąże się z ryzykiem niespełnienia założenia o rozkładzie normalnym, co w efekcie prowadzić może do błędnego wnioskowania.

5. Równoliczność grup – założenie to wymaga, aby porównywane grupy były względnie równoliczne, choć nie ma ścisłych wytycznych co owa „równoliczność” oznacza i gdzie jest granica nierównolicznych prób. Niekiedy można usłyszeć nawet o proporcji 1:5 czyli na jedną osobę w grupie A może przypadać pięć osób z grupy B.

6. Założenie sferyczności – oznacza równość wariancji w poszczególnych pomiarach powtórzonych (nie grupach), co jest założeniem specyficznym dla ANOVA z pomiarem powtórzonym.

7. Autokorelacja – to założenie związane ze skorelowaniem wyników poszczególnych obserwacji w różnych momentach czasu. Ważne założenie szeregach czasowych, nieco mniej w regresji liniowej.

8. Homoskedastyczność – odwołuje się do równości rozproszenia błędów reszt, które są obliczane w analizach korzystających z mechaniki regresji liniowej.

9. Liniowość związku – założenie ściśle związane z korelacją Pearsona i regresją liniową, w których zakłada się, że związek między dwiema zmiennymi ma charakter liniowy.

10. Brak współliniowości – w bardziej złożonych modelach statystycznych (np. analizie regresji liniowej) wymagane jest także aby zmienne niezależne lub predyktory nie wykazywały współliniowości.

 Jak widać założeń dla testów parametrycznych jest sporo, ale nie wszystkie one muszą być spełnione dla każdego testu. Poniżej prezentujemy zestawienie dla częściej wykorzystywanych analiz parametrycznych.

Tabela 1
Założenia parametrycznych metod statystycznych

Test statystyczny Założenie
1 2 3 4 5 6 7 8 9 10
Test t Studenta dla jednej próby X X X
Test t Studenta dla prób niezależnych X X X X X
Test t Studenta dla prób zależnych X X X X
Analiza wariancji X X X X X
Analiza wariancji z pomiarem powtórzonym X X X X
Korelacja Pearsona X X X X X
Analiza regresji liniowej X X X X X X
Analiza mediacji X X X X X X
Analiza równań strukturalnych X X X X X X
Szeregi czasowe X X X

Oczywiście założenia przedstawione w tabeli 1, są pewnym uogólnieniem i nie wyczerpują wszystkich specyficznych założeń dla poszczególnych metod (np. analiza równań strukturalnych ma specyficzne założenie o równoważności struktur w różnych próbkach). Warto jednak zauważyć, że niemal każda z tych metod wymaga skali ilościowej, rozkładu normalnego i braku obserwacji odstających.

Zaletą testów parametrycznych jest ich większa precyzja (czułość na subtelne różnice) w porównaniu do testów nieparametrycznych, gdy spełnione są ich założenia. Wynika to z występowania w takiej sytuacji w ich większej mocy statystycznej testu (czyli wystąpienia mniejszego prawdopodobieństwa błędu II rodzaju). Oczywiście moc testu można odpowiednio zwiększać, nie jest ona przypisana w sposób stały do danego testu – więcej na ten temat można poczytać tutaj.

Wadą testów parametrycznych jest duża liczba założeń, które trzeba spełnić aby je wykorzystywać. W przypadku ich niespełnienia estymatory punktowe i przedziałowe mogą być niedoszacowane lub przeszacowane, co finalnie kończyć się może większym prawdopodobieństwem błędu I rodzaju i wyciąganiem błędnych wniosków. Warto pamięta też, że testy parametryczne są odporne na złamanie założeń, jeśli odstępstwa te nie są znaczne.

Co w sytuacji, w której założenia dla testów parametrycznych nie są spełnione? Czy automatycznie przechodzimy do testów nieparametrycznych? Odpowiedź brzmi: to zależy. Od tego, jak prezentują się nasze dane i jakie ewentualne braki w założeniach mamy, stąd bardzo ważna jest wstępna statystyka opisowa dla naszej próbki danych. Poniżej prezentujemy „najczęstsze” możliwe rozwiązania dla najważniejszych założeń:

  • Brak pomiaru ilościowego – tutaj raczej pola do manewru nie mamy, choć kiedy posiadamy wiele zmiennych testujących hipotezę, możemy spróbować utworzyć czynnik ogólny na podstawie analizy czynnikowej metodą głównych składowych, która pozwoli nam otrzymać wskaźnik ilościowy (tylko gdy korzystamy ze skali rangowej typu skala Likerta).
  • Brak normalnego rozkładu – możemy zastosować szereg zabiegów związanych z transformacją danych np. dokonać pierwiastkowania (rozkład lewoskośny) lub potęgowania (rozkład prawoskośny), co szerzej opisanej jest .
  • Obserwacje odstające – często są one usuwane, będąc traktowane jako anomalie w danych, choć i to podejście jest krytykowane jako manipulacja danymi. W niektórych przypadkach można zastosować przekształcenie zmiennej. Jeszcze inna opcja to zastosowanie metody bootstrap, zwłaszcza gdy obserwacji odstających jest niewiele a liczebność próbki jest duża (choć ocena obu tych rzeczy jest raczej subiektywna).
  • Heterogeniczne wariancje – problem nierównych wariancji został już w zasadzie rozwiązany w wielu pakietach statystycznych poprzez dodanie korekty Welscha, która jest zwykle dostępna dla testu t Studenta i analizy wariancji.
  • Heteroskedastyczność – brak założenia o równości wariancji błędów, również w pakietach statystycznych uzyskuje coraz częstsze wsparcie poprzez dodanie tzw. korekcji odpornych błędów standardowych (robust standard errors). W przypadku braku takiej opcji, można wykonać logarytmowanie zmiennej zależnej.

Podsumowując, testy parametryczne są podstawowymi testami statystycznymi stosowanymi w różnych dziedzinach do weryfikacji hipotez. Odczytywanie ich wyników jest dla nas intuicyjne, gdyż zwykle bazują na średniej i odchyleniu standardowym lub miarach powszechnie znanych jak siła efektu różnic, czy siła korelacji. Jednocześnie ich zastosowanie wymaga spełnienia określonych założeń, choć są one odporne na niewielkie odstępstwa w tym zakresie. Często brak spełnienie założeń wymaga zastosowania pewnej korekty w danych lub wykorzystania testów nieparametrycznych.

COFNIJ

wróć do spisu wszystkich pojęć

Podziel się wiedzą

z innymi

Opinie Klientów

Co o nas sądzą?

Współpracowaliśmy

między innymi z:

Nasi partnerzy