Testy parametryczne to rodzaj testów statystycznych służących do weryfikacji hipotez, które zakładają określone założenia dotyczące rozkładu populacji. Oznacza to, że testy te są bardziej skoncentrowane na parametrach populacji, takich jak średnia, odchylenie standardowe lub innych statystykach opisowych.
Wykorzystanie testów parametrycznych wymaga spełnienia pewnych założeń (zostaną one opisane poniżej). Kiedy nie są one spełnione, stosuje się testy nieparametryczne, które są mniej restrykcyjne w tym zakresie. Jednocześnie, testy nieparametryczne nie polegają na szacowaniu parametrów populacji (średnia, odchylenie standardowe itp.) tylko bazują na innych wartościach, np. w przypadku testu Manna-Whiteya (nieparametryczny odpowiednik testu t Studenta dla prób niezależnych) lub Kruskala-Wallisa (nieparametryczny odpowiednik ANOVA dla prób niezależnych) są to rangi.
Oto najbardziej popularne założenia dotyczące testów parametrycznych:
1. Pomiar na skali ilościowej – testy parametryczne wymagają przede wszystkim skali o charakterze ilościowym dla pomiaru zmiennej zależnej, która pozwala na obliczanie średniej oraz wariancji (które są punktem wyjścia do kolejnych założeń)
2. Rozkład normalny – założenie normalnego rozkładu zmiennej zależnej jest wymagane niemal w każdym teście parametrycznym, choć w niektórych przypadkach ma ono mniejsze znaczenie.
3. Jednorodność wariancji – założenie homogeniczności wariancji jest specyficzne dla testów różnic i zakłada ono, że porównywane grupy (zmienna niezależna) mają podobne rozproszenie wyników na mierzonej skali.
4. Brak wartości odstających – pojawienie się tzw. outlier’ów wiąże się z ryzykiem niespełnienia założenia o rozkładzie normalnym, co w efekcie prowadzić może do błędnego wnioskowania.
5. Równoliczność grup – założenie to wymaga, aby porównywane grupy były względnie równoliczne, choć nie ma ścisłych wytycznych co owa „równoliczność” oznacza i gdzie jest granica nierównolicznych prób. Niekiedy można usłyszeć nawet o proporcji 1:5 czyli na jedną osobę w grupie A może przypadać pięć osób z grupy B.
6. Założenie sferyczności – oznacza równość wariancji w poszczególnych pomiarach powtórzonych (nie grupach), co jest założeniem specyficznym dla ANOVA z pomiarem powtórzonym.
7. Autokorelacja – to założenie związane ze skorelowaniem wyników poszczególnych obserwacji w różnych momentach czasu. Ważne założenie szeregach czasowych, nieco mniej w regresji liniowej.
8. Homoskedastyczność – odwołuje się do równości rozproszenia błędów reszt, które są obliczane w analizach korzystających z mechaniki regresji liniowej.
9. Liniowość związku – założenie ściśle związane z korelacją Pearsona i regresją liniową, w których zakłada się, że związek między dwiema zmiennymi ma charakter liniowy.
10. Brak współliniowości – w bardziej złożonych modelach statystycznych (np. analizie regresji liniowej) wymagane jest także aby zmienne niezależne lub predyktory nie wykazywały współliniowości.
Jak widać założeń dla testów parametrycznych jest sporo, ale nie wszystkie one muszą być spełnione dla każdego testu. Poniżej prezentujemy zestawienie dla częściej wykorzystywanych analiz parametrycznych.
Tabela 1
Założenia parametrycznych metod statystycznych
Test statystyczny | Założenie | |||||||||
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | |
Test t Studenta dla jednej próby | X | X | X | |||||||
Test t Studenta dla prób niezależnych | X | X | X | X | X | |||||
Test t Studenta dla prób zależnych | X | X | X | X | ||||||
Analiza wariancji | X | X | X | X | X | |||||
Analiza wariancji z pomiarem powtórzonym | X | X | X | X | ||||||
Korelacja Pearsona | X | X | X | X | X | |||||
Analiza regresji liniowej | X | X | X | X | X | X | ||||
Analiza mediacji | X | X | X | X | X | X | ||||
Analiza równań strukturalnych | X | X | X | X | X | X | ||||
Szeregi czasowe | X | X | X |
Oczywiście założenia przedstawione w tabeli 1, są pewnym uogólnieniem i nie wyczerpują wszystkich specyficznych założeń dla poszczególnych metod (np. analiza równań strukturalnych ma specyficzne założenie o równoważności struktur w różnych próbkach). Warto jednak zauważyć, że niemal każda z tych metod wymaga skali ilościowej, rozkładu normalnego i braku obserwacji odstających.
Zaletą testów parametrycznych jest ich większa precyzja (czułość na subtelne różnice) w porównaniu do testów nieparametrycznych, gdy spełnione są ich założenia. Wynika to z występowania w takiej sytuacji w ich większej mocy statystycznej testu (czyli wystąpienia mniejszego prawdopodobieństwa błędu II rodzaju). Oczywiście moc testu można odpowiednio zwiększać, nie jest ona przypisana w sposób stały do danego testu – więcej na ten temat można poczytać tutaj.
Wadą testów parametrycznych jest duża liczba założeń, które trzeba spełnić aby je wykorzystywać. W przypadku ich niespełnienia estymatory punktowe i przedziałowe mogą być niedoszacowane lub przeszacowane, co finalnie kończyć się może większym prawdopodobieństwem błędu I rodzaju i wyciąganiem błędnych wniosków. Warto pamięta też, że testy parametryczne są odporne na złamanie założeń, jeśli odstępstwa te nie są znaczne.
Co w sytuacji, w której założenia dla testów parametrycznych nie są spełnione? Czy automatycznie przechodzimy do testów nieparametrycznych? Odpowiedź brzmi: to zależy. Od tego, jak prezentują się nasze dane i jakie ewentualne braki w założeniach mamy, stąd bardzo ważna jest wstępna statystyka opisowa dla naszej próbki danych. Poniżej prezentujemy „najczęstsze” możliwe rozwiązania dla najważniejszych założeń:
Podsumowując, testy parametryczne są podstawowymi testami statystycznymi stosowanymi w różnych dziedzinach do weryfikacji hipotez. Odczytywanie ich wyników jest dla nas intuicyjne, gdyż zwykle bazują na średniej i odchyleniu standardowym lub miarach powszechnie znanych jak siła efektu różnic, czy siła korelacji. Jednocześnie ich zastosowanie wymaga spełnienia określonych założeń, choć są one odporne na niewielkie odstępstwa w tym zakresie. Często brak spełnienie założeń wymaga zastosowania pewnej korekty w danych lub wykorzystania testów nieparametrycznych.