fbpx

Słownik

START | EDUKACJA | SŁOWNIK | NHST (podejście częstościowe)

NHST (podejście częstościowe)

Podejścia częstościowe lub też paradygmat frekwencyjny (ang. NHST – null hypothesis significance testing) – jedno z głównych i najbardziej popularnych podejść w statystyce do weryfikacji hipotez statystycznych. Opiera się ono na analizie prawdopodobieństwa związanego z uzyskaniem wyników o określonym charakterze w odniesieniu do założonej hipotezy zerowej. Jest to związane z pojęciem wartości p, której techniczna definicja brzmi: prawdopodobieństwo wystąpienia wyników co najmniej tak ekstremalnych jak te zaobserwowane, zakładając, że hipoteza zerowa jest prawdziwa.

Podejście częstościowe może wydawać się nieintuicyjne, ponieważ zakłada, że pojedyncze badanie, które przeprowadzamy, jest jednym z wielu hipotetycznych badań, które moglibyśmy wykonać (pojedynczą obserwacją z nieskończonej populacji potencjalnych badań). Na podstawie wyników uzyskanych w pojedynczym badaniu (rozkładu w próbie), przy pomocy rachunku prawdopodobieństwa, można oszacować rozkład wyników dla całej populacji (rozkład próbkowania) i na tej podstawie formułować wnioski dotyczące testowanych efektów. Na tych założeniach bazuje cały proces NHST, wraz z jego kluczowymi elementami, takimi jak konieczność kontroli błędów I rodzaju oraz II rodzaju, a także szacowanie estymacji przedziałowej, która wiąże się z przedziałem ufności danych. Innymi słowy, NHST  polega na porównaniu uzyskanych wyników z pewnym teoretycznym rozkładem prawdopodobieństwa, czego wynikiem jest obliczenie konkretnej wartości p. Jeśli jest ona mniejsza od ustalonego poziomu istotności alfa (który przeważnie przyjmuje się jako 0,05), hipoteza zerowa jest odrzucana.

Pełna procedura testowania hipotez w NHST została opisana w naszym wpisie słowniczkowym dotyczącym pojęcia testu statystycznego.

Historycznie, rozwój paradygmatu NHST miał miejsce w pierwszej połowie XX w. i był rezultatem polemiki między Jerzym Neymanem i Egonem Pearsonem, a Ronaldem Fisherem. Więcej informacji w tym zakresie, a także szczegółowy opis całej procedury wraz z kontrowersjami z nim związanymi znajdziecie w ciekawym artykule Lilianny Jarmakowskiej-Kostrzanowskiej.

Paradygmat częstościowy ma szerokie zastosowanie w różnych dyscyplinach:

  • Psychologia

Testy psychometryczne: W psychologii, testy psychometryczne, takie jak testy IQ lub testy osobowości, często opierają się na paradygmacie frekwencyjnym. Wyniki testów są analizowane statystycznie (np. za pomocą analizy czynnikowej), aby określić normy i standaryzacje na podstawie dużych próbek populacji. Przykładowo, aby określić czy nowy test IQ jest wiarygodny psychologowie zbierają dane od tysięcy uczestników, a następnie analizują wyniki aby obliczyć średnią, odchylenie standardowe i inne miary statystyk opisowych.

Eksperymenty: W eksperymentach np. takich jak badania nad warunkowaniem klasycznym, wyniki są często analizowane przy użyciu testów statystycznych, aby ocenić, czy obserwowane różnice między grupami są statystycznie istotne.

  • Medycyna

Badania kliniczne: W medycynie paradygmat frekwencyjny jest podstawą projektowania i analizy badań klinicznych. Przykładowo w randomizowanych kontrolowanych badaniach (RCT), naukowcy testują skuteczność nowego leku poprzez porównanie wyników u pacjentów przyjmujących lek i placebo. Testy statystyczne, takie jak test t-studenta lub analiza wariancji (ANOVA), są używane do określenia czy obserwowane różnice są statystycznie istotne.

Metaanalizy: Równie często przeprowadza się metaanalizy, które polegają na łączeniu wyników wielu badań, aby uzyskać bardziej precyzyjne oszacowanie efektów leczenia. Statystyczne podejście frekwencyjne jest używane do analizy skumulowanych danych i oceny ogólnej skuteczności interwencji medycznych.

  • Marketing

Analizy rynku: W marketingu paradygmat frekwencyjny jest stosowany do analizy danych rynkowych, takich jak badania preferencji konsumenckich. Na przykład, firmy mogą przeprowadzać ankiety, aby zbadać preferencje konsumentów dotyczące nowych produktów, a następnie analizować wyniki statystycznie, w próbie wyodrębnienia specyficznych segmentów konsumentów w ramach np. analizy skupień.

Testowanie kampanii marketingowych: Firmy często przeprowadzają testy A/B, aby ocenić skuteczność różnych kampanii marketingowych. W takich testach dwie wersje kampanii są losowo prezentowane różnym grupom konsumentów, a następnie analizuje się wyniki, aby określić, która kampania przyniosła lepsze rezultaty.

Alternatywy dla paradygmatu frekwencyjnego obejmują:

  • Paradygmat bayesowski: Opiera się na twierdzeniu Bayesa, które pozwala na aktualizowanie prawdopodobieństw zdarzeń w miarę uzyskiwania nowych danych. Kluczowym elementem jest tu prawdopodobieństwo subiektywne, które odzwierciedla stopień wiary w daną hipotezę przed i po uwzględnieniu nowych informacji. Jest to podejście bardziej elastyczne i często stosowane w sytuacjach, gdzie dane są ograniczone lub gdzie wymagana jest ciągła aktualizacja informacji.
  • Paradygmat wiarygodnościowy: Koncentruje się na maksymalizacji funkcji wiarygodności, która mierzy jak dobrze dane obserwacje pasują do różnych wartości parametrów modelu. Pionierem tego podejścia był Ronald Fisher, który wprowadził metodę maksymalnej wiarygodności jako narzędzie do szacowania parametrów statystycznych.
  • Paradygmat Akaike: Nawiązuje do kryterium informacyjnego Akaike (AIC), które służy do wyboru modeli statystycznych. AIC ocenia modele na podstawie ich zdolności do przewidywania nowych danych, uwzględniając jednocześnie złożoność modelu, co zapobiega nadmiernemu dopasowaniu.

Każdy z paradygmatów ma swoje unikalne aksjomaty i metodologie. Paradygmaty te różnią się nie tylko w zakresie technik które stosują, ale także w podstawowych założeniach filozoficznych dotyczących natury prawdopodobieństwa i wnioskowania statystycznego.

  • Paradygmat frekwencyjny: Przewaga w dużych próbach, obiektywność i powtarzalność wyników.
  • Paradygmat bayesowski: Elastyczność, integracja wcześniejszych informacji, lepsze dopasowanie do małych prób.
  • Paradygmat wiarygodnościowy: Proste założenia, efektywność w szacowaniu parametrów, pragmatyczne podejście do danych.
  • Paradygmat Akaike: Balans między złożonością a dokładnością, skupienie na przewidywalności, unikanie nadmiernego dopasowania.

Podsumowując paradygmat frekwencyjny jest wciąż kluczowym podejściem w statystyce, które znajduje szerokie zastosowanie w różnych dziedzinach nauki. Jego główne zalety to obiektywność i replikowalność, co czyni go niezastąpionym narzędziem w analizie danych i testowaniu hipotez. Pomimo istnienia alternatywnych podejść, takich jak paradygmat bayesowski czy wiarygodnościowy, paradygmat frekwencyjny pozostaje fundamentem wielu badań naukowych i aplikacji praktycznych.

 

Zalecana literatura
Szymczak, W. (2018). Praktyka wnioskowania statystycznego. Wydawnictwo Uniwersytetu Łódzkiego.

COFNIJ

wróć do spisu wszystkich pojęć

Podziel się wiedzą

z innymi

Opinie Klientów

Co o nas sądzą?

Współpracowaliśmy

między innymi z:

Nasi partnerzy