Regresja hierarchiczna – bądź też hierarchiczna analiza regresji – to technika w analizie regresji, w której zmienne niezależne są wprowadzane do modelu regresji w określonej, z góry ustalonej kolejności. Ta metoda pozwala badaczom na kontrolowanie kolejności, w jakiej zmienne są dodawane do modelu. Jest szczególnie przydatne w sytuacjach, gdy badacz chce testować teorie lub hipotezy dotyczące związków przyczynowych między zmiennymi.
W regresji hierarchicznej kolejność wprowadzania zmiennych jest zwykle oparta na teoretycznych przesłankach lub wcześniejszych badaniach. Np. w pierwszym kroku mogą być wprowadzone zmienne demograficzne, w drugim kroku te zmienne dotyczące zachowań, a w trzecim kroku zmienne dotyczące postaw. Ta metoda pozwala na ocenę, jak dodanie nowych grup zmiennych wpływa na zmienną zależną i na wcześniej wprowadzone zmienne.
Regresja hierarchiczna jest szczególnie użyteczna również wtedy, gdy badacz chce zrozumieć, jak dodanie dodatkowych zmiennych wpływa na związek między zmiennymi już uwzględnionymi w modelu. Pozwala to na bardziej szczegółowe badanie złożonych zależności i interakcji między zmiennymi. W przeciwieństwie do metod automatycznej selekcji zmiennych, takich jak metoda krokowa czy metoda eliminacji wstecznej, regresja hierarchiczna daje badaczowi pełną kontrolę nad strukturą modelu.