Analiza regresji

Analiza regresji liniowej – analiza, która pozwala przetestować związek między zmiennymi ilościowymi (choć możemy też jako predyktory wprowadzać zmienne nominalne dwukategorialne). Można traktować ją, jako rozszerzenie analizy korelacji. O ile analiza korelacji dotyczy zawsze związku między parą zmiennych, tak w analizie regresji możemy wprowadzać wiele zmiennych, jako zmienne wyjaśniające (regresja wielozmiennowa) i w ten sposób możemy przewidywać wartości zmiennej zależnej na podstawie większej ilości zmiennych.

Analiza regresji pozwala z jednej na sprawdzenie czy zbudowany model pozwala istotnie przewidzieć wartość zmiennej wyjaśnianej, a z drugiej strony określić, które predyktory pozwalają istotnie ją przewidywać. W pierwszej kolejności należy zatem sprawdzić dopasowanie modelu za pomocą analizy wariancji, a jeśli okazuje się ono istotne statystycznie, przechodzimy do odczytania współczynników standaryzowanych beta oraz ich poziomu istotności. Następnie, należy określić procent wyjaśnianej wariancji poprzez odczytanie statystyki (najlepiej skorygowanego) R2.

W analizie regresji wielozmiennowej możemy zastosować kilka metod selekcji predyktorów do modelu. Predyktory można wprowadzić jednocześnie (metoda wprowadzenia) bądź w kilku krokach – w tym wypadku samodzielnie włączając predyktory do modelu (metoda hierarchiczna) bądź pozwalając, aby program zrobił to automatycznie na bazie statystyki modeli (metoda krokowa, selekcji postępującej, usuwania).