Author Archives: Pogotowie Statystyczne


Charakterystyka próby badawczej – jak ją napisać?

Czym jest charakterystyka próby?

Badania naukowe najczęściej przeprowadzane są na ludziach, choć oczywiście mogą dotyczyć też zwierząt (nie raz liczyliśmy wyniki dotyczące myszy, gęsi, a nawet… kleszczy!) czy innych zjawisk, np. samochodów (jakie są koszty naprawy klimatyzacji autobusów marki Solaris?) czy zjawisk naturalnych (czy wielkość wzrostu groszku pachnącego zależy od nasłonecznienia terenu?). Kogokolwiek lub cokolwiek badasz, musisz o tym jasno napisać w metodologii badania, w podrozdziale pt. charakterystyka próby badawczej. Jeśli badasz ludzi – napisz konkretnie czy to było 200 osób -w wieku 70-80 lat chorujących na padaczkę czy może 20 chłopców w wieku 12-13 lat uczących się w klasie sportowej w Warszawie. To ma znaczenie! Przede wszystkim, na podstawie tych informacji określić można na ile uzyskane wyniki są możliwe do zgeneralizowania (na inne populacje), a także odtworzyć badania przez innych naukowców.

W przypadku prac dyplomowych (głównie licencjackiej i magisterskiej, ale także doktorskiej) tworzenie charakterystyki próby to formalność – element procesu edukacji, w którym student udowadnia swoją znajomość struktury raportu z badania. Jest to rodzaj treningu przed późniejszym, ewentualnym zanurzeniem się w prawdziwą pracę naukową. Jednak w przypadku badań publikowanych, charakterystyka próby ma dużo większe znaczenie – umożliwia dokonywanie porównań między replikacjami badania (może wyniki w naszym badaniu są inne niż w tym, na które się powołujemy w teorii, bo badanie na studentach psychologii przynosi inne rezultaty niż na osobach ze wsi w wieku 40-50 lat?), a także może stanowić ważne źródło informacji w przypadku opracowywania metaanalizy (zbiorczej analizy wyników wielu badań z danego zakresu).

Po co zbierać dane socjodemograficzne?

Dane socjodemograficzne można wykorzystać w analizie statystycznej. Albo w prostych analizach korelacji (np. testując związek między wiekiem i wykształceniem a zmiennymi głównymi) lub porównań średnich (porównując kobiety i mężczyzn lub osoby ze wsi i z miast) albo w analizach bardziej zaawansowanych, kontrolując wpływ zmiennych socjodemograficznych na testowane efekty za pomocą analizy regresji, kowariancji czy modelowania równań strukturalnych.

Niezależnie od tego czy dane socjodemograficzne zostaną uwzględnione w analizie, mogą stanowić ważny materiał przydatny przy dokładniejszej interpretacji – wyników. Przykładowo, jeśli porównujesz dziewczyny i chłopców klasy 6B szkoły podstawowej w Starogardzie Gdańskim pod względem sprawności, warto zebrać też dane m.in. dotyczące uprawianych przez nich sportów. Może moje badania wykażą, że dziewczyny były sprawniejsze od chłopców nie dlatego, że takie zjawisko występuje w populacji, tylko dlatego że akurat w tej klasie były dwie dziewczyny trenujące na ogólnopolskim poziomie?  Albo załóżmy, że porównujesz schizofreników i osoby zdrowe psychicznie pod względem poziomu depresji i okazuje się, że Twoje są inne niż te uzyskane przez innych autorów. Posiadając dane demograficzne, takie jak długość chorowania, ilość hospitalizacji, rodzaj stosowanego leczenia, możesz porównać badane próby między sobą, aby określić czy rzeczywiście pochodzą z jednej populacji. Może okazać się, że Twoja próba różniła się od innych, ponieważ objęła osoby o krótkiej historii choroby (średnio kilka lat), podczas gdy inne badania były robione na osobach chorujących w okresie kilkunastu lub kilkudziesięciu lat. Dzięki tym informacjom możesz domniemać, że różnice między badania mogą być (choć oczywiście nie muszą) efektem tych różnic (czyli realnie badałeś inną populację niż pozostali autorzy). Oczywiście wnioski z tych refleksji należy przedstawić w rozdziale z dyskusją wyników. Dzięki temu kolejne badania, Twoja lub innych autorów, będą mogły uwzględnić te różnice, co długofalowo sprzyja gromadzeniu ogólnej wiedzy dotyczącej danego zjawiska, czy całej dziedziny jaką jest psychologia kliniczna. Nawet, jeśli badasz populacje niekliniczne, np. pielęgniarki pracujące w szpitalu, warto zebrać dane dotyczące tego w jakim trybie pracują (nocnym czy dziennym), na jakim oddziale i jaki mają ogólny staż pracy.

Co uwzględnić w charakterystyce próby?

Jaki zakres informacji powinna obejmować charakterystyka próby? Według najnowszej, siódmej edycji podręcznika przedstawiającego zasady raportowania w standardzie APA (American Psychological Association, 2019), powinny być to podstawowe dane demograficzne, takie jak: wiek, płeć, wykształcenie czy status socjoekonomiczny. Dodatkowo, należy uwzględnić inne, ważne dane specyficzne dla danej próby, jeśli takie są. Które dane tego rodzaju są istotne? Czy wystarczą dwie czy trzy takie informacje czy może trzeba zebrać ich jak najwięcej? W tym względzie nie ma jasnych wytycznych, wszystko zależy od badanej populacji i przedmiotu badania. Również promotorzy mają w tym względzie zróżnicowane wymagania – niektórzy oczekują krótkiego opisu na kilka linijek, a inni obszernego opisu wraz z tabelami lub wykresami, zajmującego kilka stron. W artykułach naukowych korzysta się raczej z krótkiego opisu, można też spotkać zbiorcze zestawienia danych zawarte w tabeli.

Również w samym podręczniku dotyczącym standardu APA znajdziemy dwa, różniące się od siebie przykłady charakterystyki próby. Z jednej strony znajduje się w nim krótki przykład opisu próby w tekście:

 

Druga grupa obejmowała 40 kobiet w wieku pomiędzy 20, a 30 lat (M = 24,2; SD = 2,1; Mdn = 25,1), emigrantek z Salwadoru, posiadających przynajmniej 12 lat edukacji i będących stałymi rezydentami Stanów Zjednoczonych, mieszkających przynajmniej 10 lat w Waszyngtonie.

Źródło: Podręcznik APA 7th, s. 83
(podrozdział 3.6: Quantitive Method Standards)

 

A z drugiej strony bardziej rozległa charakterystyka próby, przedstawiona w formie tabeli
Źródło: https://apastyle.apa.org/style-grammar-guidelines/tables-figures/sample-tables#demographic

Mimo dużych różnic w objętości przedstawionych danych, obie charakterystyki, zgodnie z założeniem, przedstawiają podstawowe dane. Przydałoby się jednak więcej konkretnych informacji, umożliwiających dokonanie wyboru podczas projektowania badania lub raportowaniu wyników analizy.

Rekomendacje Pogotowia Statystycznego

Z racji tego, że wykonaliśmy tysiące analiz statystycznych, mamy duże doświadczenie zarówno w przygotowywaniu analizy danych socjodemograficznych, jak i wykorzystywaniu ich przy interpretacji wyników dotyczących weryfikacji hipotez. Jeśli Twoje badanie dotyczy popularnych konstruktów (takich jak poziom jakości życia czy radzenie sobie ze stresem), a próbą są osoby zdrowe z populacji ogólnej, zalecamy przede wszystkim zbieranie czterech podstawowych danych: płci, wieku, wykształcenia i miejsca zamieszkania. Opcjonalnie jako piątą zmienną, można włączyć stan cywilny, choć polecamy odejście od klasycznego, nieaktualnego w dzisiejszych czasach podziału, w którym to osoby w związku małżeńskim traktowane są jako realnie będące w związku, a te będące nawet w wieloletnim konkubinacie traktowane są jako “kawaler/panna” (czyli faktycznie poza trwałym związkiem). Polecamy przydzielić badanych do jednej z dwóch grup – będących w stałym związku (niezależnie jakiego charakteru) oraz niebędących w stałym związku.

Jeśli jednak badasz próbkę z jakiejś specyficznej populacji, z podstawowych danych socjodemograficznych możesz zebrać tylko płeć i wiek, a więcej uwagi poświęcić tym charakterystycznym dla danej populacji. Nie jest to jednak żelazna zasada, wszystko zależy od specyfiki populacji, ale nie tylko – istotny jest też przedmiot badania. Przykładowo, jeśli analizie poddajesz osoby z depresją, dane dotyczące ich specyfiki leczenia (np. stażu chorowania, obecnego nasilenia objawów, ilość i długości przyjmowania leków) będą istotne, jeśli porównujesz osoby z depresją leczone vs nieleczone psychoterapeutycznie, ponieważ mogą wchodzić one w interakcje ze zmiennymi głównymi. Jednak informacje te będą mniej przydatne, jeśli porównujesz osoby z depresją i osoby zdrowe psychicznie pod względem jakości życia. Analogicznie, szczegółowe dane socjodemograficzne przy grupach klinicznych zwykle nie są najważniejsze, jednak mogą być istotne, jeśli badanie dotyczy poziomu wiedzy dotyczącej doświadczanej choroby, ponieważ ta we wszystkich populacjach (osób zdrowych i różnych grup chorych) zależy od statusu socjodemograficznego. Dlatego pamiętaj, żeby zbierane dane były ważne z punktu widzenia zarówno charakteru badanej populacji jak i tego co konkretnie jest badane.

Warto zadbać o to, aby charakterystyka próby nie była nadmiernie rozbudowana – w raportowaniu wyników analiz statystycznych nie obowiązuje zasada pt. “im więcej tym lepiej” (zwięzłość i przejrzystość przedstawienia wyników to podstawowe wymaganie w standardzie APA). Z naszego doświadczenia wynika, że jeśli analiza zmiennych socjodemograficznych jest zbyt rozbudowana – albo objętościowo (zawiera się na czterech stronach) albo pod względem gęstości danych (zostaje ona przedstawiona w 40 wierszach w tabeli, a na dodatek w podziale na 5 podgrup) to staje się nieczytelna, a co za tym idzie trudna w interpretacji. Dlatego też, zalecamy trzymać się zasady  raportowania wszystkiego tego co konieczne, ale im mniej, tym lepiej.

Sztuką w statystyce jest nie tyle samo wykonanie obliczeń, co umiejętne pokazanie uzyskanych wyników, aby możliwa była ich względnie szybka interpretacja. Jeśli ktoś kiedykolwiek zajmował się analizą wielu tekstów naukowych w krótkim czasie (jest to potrzebne już przy pisaniu dobrego licencjatu) ten wie, że artykuły często czyta się pięcioma rzutami okiem – abstrakt, tabele, pojedyncze akapity podsumowania, i przechodzimy do kolejnego artykuł. Dlatego też mniejszy zbiór danych, np. dotyczący tylko czterech wyżej wymienionych zmiennych, można zaraportować w tekście. Jednak każdą większą ich ilość, lepiej umieścić w tabeli, tym bardziej jeśli w badaniu są wyróżnione grupy, dla których dane te można porównywać. Zamieszczenie danych w tabeli umożliwia szybką ich interpretację – najpierw ogarniamy wzrokiem całą tabelę, szybko orientujemy się jakie dane są w nich zawarte, wyciągamy wszystkie niezbędne dla nas informacje, porównujemy wartości w poszczególnych komórkach i w ciągu kilkunastu sekund uzyskujemy potrzebną orientacją. Interpretacja taka nie jest możliwa w przypadku dużej liczby danych przedstawionych w tekście. Z tego miejsca pozdrawiamy całe zastępy naszych klientów, których promotorzy zmuszali ich do raportowania charakterystyki próby w smutnej, rozwlekłej na kilka stron formie. Klienci – łączymy się z Wami w bólu. Promotorzy – wiedzcie, że w każdej takiej sytuacji ginie mały króliczek [*].

Raportowanie dużej liczby wyników w tabeli, a małej w tekście to nie nasz wynalazek, a wytyczna APA, opisana w podręczniku. Co więcej, zgodnie ze standardem APA 7th prezentacja tabelaryczna i tekstowa są równorzędne. Danych przedstawionych w tabeli nie należy powielać w tekście, choć dozwolone jest, aby wymienić te szczególnie ważne. Zatem, jeśli w swojej pracy wkleisz tabelę z 30 podanymi wartościami, nie musisz ich wszystkich przepisywać jeszcze raz w tekście (jeśli Twój promotor uważa inaczej – nie daj się “zrobić się w balona”), możesz co najwyżej podać kilka najważniejszych wartości (poniżej znajdują się przykłady). Po to umieszczasz dane w tabeli, aby każdy potencjalny czytelnik mógł je odczytać, w całości lub zwracając uwagę na interesujący go zakres. Powielenie wszystkiego w tekście utrudni jedynie ich interpretację. Mimo tego w tekście można nawiązać do najważniejszych danych w tabeli, jeśli ułatwi to jego odbiór.

Przykłady tworzenia charakterystyki próby

Przykład 1 – krótka charakterystyka próby w całości w tekście

W badaniu wzięło udział 77 osób, z czego 42 kobiet i 35 mężczyzn z diagnozą depresji, w wieku między 26, a 48 lat (M = 35,85; SD = 9,83). Każdy z badanych był w trakcie leczenia farmakologicznego, a dodatkowo 37 osób (48,05%) leczyła się obecnie lub w przeszłości psychoterapeutycznie.

Przykład 2 – krótki opis w tekście + tabela ze statystykami opisowymi

W badaniu wzięło udział 61 osób, z czego 22 kobiet i 39 mężczyzn, chorujących na stwardnienie rozsiane w postach rzutowo-remisyjnej. Wiek badanych mieścił się w przedziale 33, a 58 lat (M = 37,43; SD = 12,21). Wszyscy badani byli poddawani leczeniu farmakologicznemu. Dodatkowe dane dotyczące leczenia przedstawiono w tabeli 1.

Przykład 3 – krótki opis w tekście uzupełniony pełną charakterystyką w tabeli

W badaniu wzięło udział 98 osób, z czego 56 kobiet (57,1%) i 42 mężczyzn (42,9%) w wieku od 33 do 57 lat (M = 42; SD = 7,42) Największy ich odsetek stanowiły osoby mieszkające w dużych miastach, powyżej 500 tysięcy mieszkańców (45,9%) oraz legitymujące się wykształceniem średnim (35,7%) lub wyższym (32,7%).  Niewiele ponad połowa z nich była w związku (54,1%), a pozostałe 45,9% poza związkiem. Szczegółowe dane przedstawione są w tabeli 2.

Przykład 4 – rozbudowana charakterystyka próby w tabeli + krótki opis

W badaniu wzięło udział 101 osób, z czego 80 kobiet i 21 mężczyzn. Ich średni wiek wynosił 38,5 lat (SD = 11,05; Mdn = 37). Większość badanych stanowiły pielęgniarki (63,4%), najwięcej osób pracowało na Szpitalnym Oddziale Ratunkowym (56,4%). Największy odsetek badanych posiadał staż pracy powyżej 20 lat (31,7%) oraz charakteryzowało wykształcenie wyższe magisterskie (46,5%) oraz licencjackie (40,6%). Szczegółowa charakterystyka próby przedstawiono została w tabeli 3.

Pamiętaj o ważnych zasadach dotyczących raportowania wyników!

Na koniec przypominamy kilka istotnych zasad raportowania w standardzie APA. Część z nich będzie podsumowaniem informacji przedstawionych do tej pory, a część pojawi się po raz pierwszy.

  • Dla zmiennych nominalnych raportuj częstość i procent, z czego procent jest ważniejszy (i go lepiej pokazać na wykresie, zamiast częstości)
  • W przypadku zmiennych ilościowych raportujemy statystyki opisowe, z czego dwie najczęściej pokazywane to średnia i odchylenie standardowe. Czasami warto przedstawić też wartość minimalną i maksymalną (np. oprócz tego, że badani byli w wieku średnio M = 20,15; SD = 10,15 warto wiedzieć czy jego zakres to od 18 do 47 lat czy od 10 do 32). W sporadycznych przypadkach raportuje się też medianę.
  • Przy tworzeniu tabel lub opisu pamiętaj, że N to oznaczenie liczebności całej próby, natomiast właściwym oznaczeniem dla liczebności wyróżnionej podgrupy jest małe n (np. próba składała się z = 100 osób z czego n = 42 stanowiły kobiety a n = 58 mężczyźni).
  • Zapisuj symbole wszystkich statystyk (takich jak MSDMdnN) kursywą.
  • Przy zapisie wartości liczbowych, między znakami matematycznymi, a innymi elementami tekstu stosujemy spacje, np. M = 12,32; SD = 7,48. Oznacza to, że po obu stronach znaku równości znajdować się powinny spacje.

W razie pytań lub wątpliwości – zapraszamy do darmowy konsultacji!

 

Bibliografia
American Psychological Association. (2019). Publication manual of the American Psychological Association, Seventh Edition. Washington, DC: American Psychological Association.
Nęcka, R. Stocki. (2020). Jak pisać prace naukowe z psychologii. Kraków. Wydawnictwo Universitas.
Brzeziński J. (2019). Metodologia badań psychologicznych. Warszawa. Wydawnictwo Naukowe PWN.

Jak analizować wyniki badań przy użyciu ankiety własnego autorstwa?

Badania ankietowe są często stosowane w badaniach do prac magisterskich. Wykorzystujecie w nich kwestionariusze standaryzowane czyjegoś autorstwa (głównie studenci psychologii) lub kwestionariusze własnego autorstwa (studenci pozostałych kierunków jak pedagogika, pielęgniarstwo, dietetyka czy też socjologia). Często też zdarzają się “badania-hybrydy”, w których korzystacie z jakiegoś swojego, krótkiego narzędzia badawczego oraz 1, 2 lub 3 dobrych, rzetelnych i trafnych wystandaryzowanych kwestionariuszy. W niniejszym wpisie opiszemy kilka podstawowych możliwości analizy danych pochodzących z wykorzystanego narzędzia badawczego (kwestionariusza) własnego autorstwa, które nie zostało zbudowane przez specjalistę z zakresu psychometrii lub doświadczonego badacza tylko zapewne przez Ciebie – studenta ostatniego roku, który nie ma należytego doświadczenia i wiedzy w sferze metodologii badań naukowych oraz tworzenia rzetelnych i trafnych kwestionariuszy. Analizy danych mogą na pierwszy rzut oka wydawać się bardzo skomplikowane. Podpowiemy jednak, jak zabrać się za to trudne zadanie! Z naszymi podpowiedziami opisywanie ankiet do prac mgr będzie znacznie prostsze.

Bardzo często kwestionariusze ankiety, które przygotowujcie są dosyć rozbudowane i zawierają np. 25-35 pytań. W sytuacji, gdy stawiacie 10-30 hipotez o związku “każdego pytania z każdym” może okazać się, że owszem da się to wszystko sprawdzić, ale za “milion złotych”, w raporcie na 80 stron, którego stworzenie zajmie nam miesiąc pracy – a to nie powinno tak wyglądać. W pracy naukowej (czyli już licencjacie czy pracy magisterskiej) dobra analiza statystyczna nie polega na tym żeby zrobić ile się da a jedynie to co jest niezbędne z punktu widzenia postawionych hipotez lub pytań badawczych. Oczywiście są projekty, w których dokonuje się bardzo głebokiej eksploracji, ale sam znajdź w internecie 10 artykułów naukowych i zobacz ile stron zajmuje sekcja “Results” – najczęściej nie więcej niż 3-9 stron. Żeby natomiast analiza statystyczna była krótka, ale wyczerpująca, dogłębna, ale konkretna dobrze jest pomyśleć przed stworzeniem kwestionariusza, w jaki sposób będą analizowane dane, które dzięki niemu pozyskacie. Jeśli tego nie wiecie to skonsultujcie to koniecznie ze statystykiem, któremu powierzycie wyniki swoich badań. Dobre firmy nie odmówią Wam krótkich i darmowych konsultacji. My jesteśmy jedną z nich! Chętnie doradzimy w kwestii przygotowania badania statystycznego.

Niestety, tak jak w przypadku badań psychologicznych z wykorzystaniem wystandaryzowanych narzędzi badawczych zazwyczaj jasne jest, jakie analizy trzeba przeprowadzić (wiemy to często z samej konstrukcji badania, nawet bez znajomości hipotez), tak w przypadku badań ankietowych z narzędziami własnego autorstwa jest dokładnie odwrotnie. Dane z takiego badania można przeanalizować na różne sposoby. Niestety często rozdziały metodologiczne, które otrzymujemy są napisane błędnie i na ich podstawie nie potrafimy określić, co ma zostać wykonane. Dlatego w tym wpisie omówię trzy podstawowe sposoby analizy danych ankietowych i odpowiadające im hipotetyczne pytania badawcze. Z pewnością ułatwią one opisywanie ankiet oraz wyciąganie właściwych wniosków.

Kwestionariusz ankiety – jak interpretować odpowiedzi?

Wcielimy się dziś w pielęgniarkę, która pisze pracę na bardzo ważny temat – wiedzy i opinii pielęgniarek na temat przeszczepiania narządów zmarłych. W celu realizacji celu badania przeprowadziła ona ankietę z wykorzystaniem kwestionariusza własnego autorstwa składającego się z trzech części:

– 5 pytań dotyczących wiedzy na temat przeszczepiania narządów

– 4 pytań dotyczących opinii na powyższy temat

– 4 pytań dotyczących tzw. metryczki (wiek, płeć, miejsce zamieszkania i wykształcenie).

Kwestionariusz ankiety

Pytania z ankiety

W takim badaniu, mamy możliwość wykonania analizy między innymi na trzy podstawowe sposoby. Co więcej, to postawione pytania badawcze powinny wskazywać na rodzaj analizy, która ma zostać wykonana. Możemy postawić trzy rodzaje pytań badawczych:

1. Pytanie o rozkład odpowiedzi – np. jak przedstawia się opinia lub rozkład odpowiedzi na pytania dotyczące wiedzy

2. Pytanie o relacje między zmiennymi (to jaki test wykonamy zależy od tego jaki wskaźnik stworzymy. O tym piszemy niżej.)

a) test niezależności chi kwadrat – np. czy istnieje zależność/związek między miejscem zamieszkania czy płcią, a opinią czy wiedzą nt. przeszczepiania narządów

b) analiza korelacji – czy istnieje korelacja między wykształceniem, a poziomem wiedzy na temat transplantacji narządów

3. Testy istotności różnic – czy istnieje różnica pomiędzy grupami w zakresie poziomu wiedzy na temat przeszczepów od osób zmarłych

 

Ad 1. Pytanie o rozkład odpowiedzi

Jest to tzw. analiza częstości i polega ona na przedstawieniu rozkładów odpowiedzi na poszczególne pytania z ankiety w tabeli i/lub na wykresie wraz z opisem. Często zdarza się, że analiza statystyczna do magisterki opiera się właśnie o analizę częstości całej ankiety, a czasami jest ona jedynie uzupełnieniem analizy głównej, opartej na testach zależności/korelacji czy istotności różnic.

Przykładowa analiza częstości:

Na pytanie o warunki które muszą być spełnione do pobrania narządów zmarłego, większość badanych (42,9%) prawidłowo wskazała, że w tym celu potrzebna jest “zgoda domniemana”. Pozostałe osoby zaznaczyły jedną z błędnych odpowiedzi, z czego najwięcej (28,6%) odpowiedź, że do tego celu potrzebna jest zgodna rodziny zmarłego (tabela 1).

Tabela 1

Rozkład odpowiedzi na pytanie o warunki które muszą być spełnione do pobrania narządów zmarłego

Aby można było pobrać narządy od zmarłego, konieczna jest n %
zgoda osoby zmarłej, wyrażona na piśmie 5 7,1%
zgoda rodziny zmarłego 20 28,6%
“zgoda domniemana”, czyli brak sprzeciwu wyrażonego za życia 30 42,9%
żadna forma zgody nie jest wymagana 15 21,4%
Ogółem 70 100%

 

Mimo, iż niektóre analizy do prac dyplomowych opierają się tylko o analizę częstości, powiedzmy sobie jasno – nie jest ona “analizą statystyczną” o której była mowa na zajęciach podczas studiów lub na seminarium z promotorem – nie testujemy w niej w sposób matematyczny żadnych związków czy zależności. Nie sprawdzamy czegokolwiek, co pozwalałoby powiedzieć coś znaczącego o jakiejś populacji. Nie dokonujemy tzw. wnioskowania statystycznego czyli strategii analizy danych, która pozwala przełożyć wyniki uzyskane w pewnej małej grupie na całą populację.

Co więcej, analiza taka jest problematyczna w interpretacji. Czy 43% osób, które zaznaczyło poprawną odpowiedź, to dużo czy mało? Czy wiedza pielęgniarek w tym zakresie jest duża lub wystarczająca? Nie wiadomo – nie mamy żadnego punktu odniesienia. Są pytanie trudne i łatwe, takie na które odpowiedź zna 80% populacji, ale też takie, na które odpowiedź zna niewiele pielęgniarek i wynik wskazujący na 20% poprawnych odpowiedzi to już wielkie “WOW”. W takim wypadku, ciężko określić też co jest celem takiego badania.

Bardzo często celem badań ankietowych jest “określenie poziomu wiedzy X na temat Y” i podobnie skonstruowane są też pytania badawcze. Czy istnieje jednak możliwość udzielenia na nie odpowiedzi, jeśli w ankiecie mamy 10 pytań i na każde z nich odpowiedział poprawnie różny odsetek osób? Tak, to pytanie retoryczne 🙂 Unikajcie zwykłej analizy częstości bo jeśli to jedyny sposób opracowania wyników Waszych badań to jednak jest on niegodny tytułu magistra lub nawet licencjata. I to nie jest nasze zdanie a Waszych promotorów (tych, którzy ogarniają statystykę i metodologię trochę lepiej niż gorzej). Cytując jednego z nich, który od swojej studentki dostał właśnie tylko analizę częstości w formie tabel jak wyżej, wykres kołowy i opis jak wyżej:

PROCENTY TO NIE STATYSTYKA!!!

Unikajcie tym samym stawiania hipotez o treści:

H1: Wiedza rodziców na temat szczepień jest wystarczająca

H2: Pacjenci odczuwają silny ból

H3: Pielęgniarki są wypalone zawodowo

H4: Wynagrodzenie księgowych w Płocku jest na niskim poziomie

H5: Badani uważają, że czerwone rower są ładne

Analiza ankiety

Analizę częstości możemy “podrasować” i uzupełnić o test zgodności rozkładu chi kwadrat – sprawdza on czy rozkład odpowiedzi na dane pytanie różni się od rozkładu losowego. Innymi słowy i w uproszczeniu – czy jakaś odpowiedź była zaznaczana przez badanych wyraźnie częściej/rzadziej niż pozostałe. Dzięki temu testowi możemy sprawdzić czy np. jedna z odpowiedzi nie pojawiała się istotnie statystycznie częściej od pozostałych. Taka analiza najczęściej nie wnosi zbyt wielu ważnych i rzetelnych informacji a tym samym napisanie dyskusji wyników i wyciągnięcie z nich wniosków graniczy z cudem.

Po lewej widzimy bowiem, że w częstotliwości pojawiania się poszczególnych 4 odpowiedzi występują istotne statystycznie różnice. Poprawna odpowiedź nr 3 była zaznaczana najczęściej, a jedna z błędnych odpowiedzi (nr 1) najrzadziej. Cóż jednak z tego skoro sumując wszystkie błędne odpowiedzi było ich więcej niż poprawnych (30 poprawnych i 40 błędnych). Oczywiście można zrobić dwie kategorie (błędne vs poprawne), ale nadal taka analiza to coś pod czym nie podpisze się żaden dobry badacz.  W dużej mierze dlatego, że ten tzw. dobry badacz nie interesuje się tym jak odpowiadali badani tylko DLACZEGO TAK ODPOWIADALI – od czego zależy to, że jedna pielęgniarka zaznaczy odpowiedź poprawną a inna błędną?

Ad 2. Pytania o relacje między zmiennymi (pojedynczymi pytaniami z kwestionariusza, które zakodowane są na skali nominalnej/porządkowej)

W tego rodzaju analizie sprawdzamy czy natężenie mierzonego zjawiska (np. poziom wiedzy, ale mierzony pojedynczymi pytaniami z osobna) zależy od jakiegoś czynnika (np. płci, wykształcenia lub stażu pracy). Krótko mówiąc – czy odpowiedzi na jedno pytanie (lub pytania), zależą od odpowiedzi na inne pytanie. Na przykład możemy sprawdzić czy stosunek badanych pielęgniarek do zjawiska przeszczepiania narządów od osób zmarłych jest skorelowane (w uproszczeniu powiedzmy “uzależnione od”) z ich stażem pracy.

W praktyce, w badaniach ankietowych możemy podjąć dwa różne działania badające związki między zmiennymi. Pierwszą z nich (A) jest przeanalizowanie zależność między odpowiedziami na pytania z ankiety (wyrażonymi na skali nominalnej lub porządkowej) w tzw. tabeli krzyżowej wykonując jednocześnie test chi kwadrat. Drugą z nich (B) jest stworzenie ilościowego wskaźnika wiedzy i wykonanie analizy korelacji (najczęściej Pearsona, Spearmana albo Kendalla), ale oczywiście jeśli taki wskaźnik ilościowy będziemy odnosić/korelować z inną zmienną ilościową lub porządkową.

a) test niezależności chi kwadrat

W tym wariancie sprawdzamy czy rozkład odpowiedzi na jakieś pytanie zależy od jakiejś innej zmiennej (innego pytania z kwestionariusza). Tak jak wspomniałem, oba pytania muszą być wyrażone na skali nominalnej (ew. porządkowej).

Analizę zależności wykonujemy w formie tzw. tabel krzyżowych, w których w poszczególnych kolumnach przedstawiamy rozkłady odpowiedzi dla poszczególnych wyodrębnionych grup. Do tego wykonujemy testy niezależności chi kwadrat (to inny test niż test zgodności chi kwadrat opisany powyżej), które pokazują czy istnieje istotna statystycznie (czyli zapewne nieprzypadkowa) zależność/związek pomiędzy rozkładami odpowiedzi na oba pytania. W naszym przykładzie sprawdzać będziemy czy poziom wiedzy zależy od stażu pracy.

Przykład analizy zależności:

Sprawdzono czy nastawienie do zostania dawcą organów po śmierci zależy od miejsca zamieszkania badanych osób. W tym celu przeprowadzono analizę z wykorzystaniem testu chi kwadrat niezależności. Wynik testu chi kwadrat okazał się istotny statystycznie  – chi kwadrat(1) = 5,58; p = 0,018 co oznacza, że istnieje zależność pomiędzy nastawieniem do zostania dawcą organów, a miejscem zamieszkania. Okazuje się, że osoby z miasta częściej wykazywały wolę zostania dawcami organów po śmierci (60,6%) niż osoby zamieszkujące tereny wiejskie (32,4%) (tabela 2).

Tabela 2

Związek między motywacją do zostania dawcą organów po śmierci a wielkością miejsca zamieszkania

Czy chce Pan/ Pani w przypadku wystąpienia własnej śmierci zostać dawcą narządów? Miasto Wieś
n % n %
Tak 20 60,6% 12 32,4%
Nie 13 39,4% 25 67,6%
Ogółem 33 100% 37 100%

 

W praktyce, często badania ankietowe są oparte głównie lub w całości o analizy w tabelach krzyżowych. Jest kilka sposobów wykonania tej analizy:

– sprawdzamy czy rozkład odpowiedzi na pytania z ankiety dotyczącej interesującego nas tematu zależy od jednej, wybranej zmiennej socjodemograficznej; w naszym przypadku, moglibyśmy sprawdzić czy rozkład opinii na temat transplantacji narządów zależy od miejsca zamieszkania badanych (miasto vs wieś)
– testujemy czy rozkład jednych odpowiedzi zależy od rozkładu odpowiedzi na pytanie związane z przedmiotem badania – w naszym przypadku moglibyśmy sprawdzić np. czy rozkład na pytania dotyczące wiedzy na temat transplantacji zależy od tego czy badany sam chciałbym zostać dawcą
– układ mieszany – testujemy różne zależności, np. zależność między pytaniem 2 i 4, oraz 3 i 7, a także 12 a 4, 5 i 6; takie rozwiązanie ma sens przy przemyślanych ankietach, z których chcemy wydobyć interesujące Cię wyniki.

Analizę zależność wykonujemy raczej dla pytań jednokrotnego wyboru. Tylko w ten sposób możemy sprawdzić zależności całych rozkładów odpowiedzi. W przypadku gdy jedno z pytań jest wielokrotnego wyboru, należy wykonać test chi kwadrat dla każdej odpowiedzi z ankiety z osobna, sprawdzając czy fakt zaznaczenia danej opcji zależy od odpowiedzi na inne pytanie. W takim wypadku wyciąganie wniosków może być jednak problematyczne.

Polecamy unikać pytań wielokrotnego wyboru!

Należy również pamiętać, że w przypadku pytań dotyczących wiedzy, jeśli chcemy rzeczywiście sprawdzić rozkład odpowiedzi pomiędzy posiadaną wiedzą, a drugą zmienną, musimy najpierw zrekodować odpowiedzi poprzez scalenie w jedną kategorię wszystkich odpowiedzi poprawnych i niepoprawnych.

Przykładowo, jeśli weźmiemy pytanie drugie z ankiety dotyczące kryteriów istnienia śmierci mózgu:

Śmierć mózgu orzekana jest na podstawie:

  • rezonansu magnetycznego
  • badania neurologicznego
  • dwukrotnego badania neurologicznego i w przypadku wątpliwości badania obrazowego
  • nie wiem

Nie możemy wykonać testu niezależności dla tych odpowiedzi – tzn. możemy, ale to niewiele powie nam o wiedzy badanych! Przykładowo, może się okazać, że w obu grupach odsetek osób, które udzieliły poprawnej odpowiedzi jest taki sam. Mimo tego wynik testu chi kwadrat jest istotny statystycznie, wskazując na występowanie zależności, podczas gdy rozkłady mogą się różnić jedynie rozkładem udzielenia odpowiedzi niepoprawnych! Dlatego w takim wypadku, należy zsumować wszystkie niepoprawne odpowiedzi w jedną kategorię i porównać rozkłady odpowiedzi poprawnych do niepoprawnych. Pamiętajmy, że w niektórych ankietach może być więcej niż jedna poprawna odpowiedź. Wtedy musimy przemyśleć jak będziemy je uwzględniać, czy np. badany musi udzielić wszystkich odpowiedzi, aby uznać, że posiada wiedzę w jakimś zakresie czy wystarczy, że zaznaczy tylko jedną. Jak będziemy to punktować?

 

b) analiza korelacji (gdy obie zestawiane ze sobą zmienne są porządkowe/ilościowe)

Sposób rzadko wykorzystywany, ale okazuje się on często najszybszy i najlepszy (oraz najtańszy!). Nie tylko dlatego, że taka analiza zajmuje “mało miejsca”, ale także dlatego że często w ten sposób uzyskujemy najbardziej pełną wiedzę dotyczącą mierzonego zagadnienia. Nie bez powodu statystyka opiera się na analizach ilościowych, w których wskaźniki ilościowe są sumą odpowiedzi z różnych pytań. Choć to inny temat, związany z założeniami psychometrii i teorii testów.

W celu wykonania analizy korelacji dla pytań związanych z wiedzą takich jak te omawiane w niniejszym wpisie powinniśmy utworzyć nowy wskaźnik (o wskaźnikach pisaliśmy tutaj) – sumę poprawnych odpowiedzi na pytania z kwestionariusza. Traktując zatem taką ankietę jako test wiedzy obliczamy dla każdego badanego respondenta wynik w skali od 0 do 5, jako miernik poziomu wiedzy. Po prostu poprawną odpowiedź na każde kolejne pytanie punktujemy jako 1 a każdą niepoprawną jako 0. Mamy 5 pytań więc badane pielęgniarki mogły uzyskać od 0 punktów (wszystkie zaznaczone odp. są błędne) do maksymalnie 5 punktów (zaznaczono wszystkie poprawne odpowiedzi).

Po utworzeniu wskaźnika ilościowego, możemy przeprowadzić analizę korelacji Pearsona dla zmiennych wyrażonych na skali ilościowej (np. wieku i wiedzy) lub Spearmana dla zmiennych na skali porządkowej (np. wykształcenia i wiedzy).

Utworzenie wskaźnika jest oczywiście jedną z możliwości. Możemy bowiem oczywiście korelować pojedyncze pytania z ankiety między sobą. Często niektóre z nich wyrażone są na skali porządkowej i wtedy możemy korelować je np. z poziomem wykształcenia czy wielkością miejsca zamieszkania. Rodzaj analizy uzależniony jest w ogromnym stopniu o tego na jakiej skali pomiarowej są zakodowane odpowiedzi na zadane pytania. Ta wiedza to podstawa podstaw więc koniecznie zobacz ten tutorial – https://youtu.be/Z4x3WTkQK1U

Analiza ilościowa ma ogromną przewagę nad jakościową szczególnie w jednym przypadku – gdy mamy bardzo rozbudowaną ankietę. Mając np. 30 pytań w ankiecie, chcąc sprawdzić zależność odpowiedzi na nie wszystkie od stażu pracy i wykształcenia, musielibyśmy wykonać 60 osobnych analiz. W analizie ilościowej, robimy dwie proste analizy, które zajmują jedną/dwie strony.

Przykładowa analiza korelacji:

W celu sprawdzenia czy istnieje związek między poziomem wykształcenia a wiedzą pielęgniarek w zakresie transplantacji narządów zmarłych wykonano analizę korelacji r Pearsona. Wykazała ona, że istnieje istotny, dodatni i umiarkowanie silny związek między tymi zmiennymi (r = 0,34; p = 0,037). Oznacza to, ze wraz z poziomem wykształcenia wzrasta wiedza pielęgniarek na badany temat.

Ad 3. Testy istotności różnic

Podobnie jak w przypadku korelacji, w analizach ankietowych na kiepskich uczelniach albo na kierunkach, na których nie kładzie się należytego nacisku na jakość prowadzonych badań rzadko kiedy wykonujecie testy istotności różnic między grupami takie jak testy t Studenta lub analiza wariancji (ANOVA). Pamiętajcie jednak, że nadal jest to bardzo dobry sposób na udzielenie odpowiedzi na postawione pytania badawcze dotyczących różnic międzygrupowych. Znacznie lepszy niż pokazanie po prostu ile padło odpowiedzi na każde pytanie badawcze i jaki procent z całości te odpowiedzi stanowią.

Tak jak przy okazji analiz korelacji, najpierw musimy stworzyć ilościowy wskaźnik wiedzy. Następnie, potrzebujmy drugiej zmiennej – nominalnej (np. płeć). W ten sposób możemy porównać czy wyróżnione podgrupy (kobiety i mężczyźni) różnią się między sobą w zakresie średniego poziomu wiedzy. W przypadku dwóch grup korzystamy z testu t Studenta dla prób niezależnych, a w przypadku większej liczby grup – z testu ANOVA. Pamiętajcie również, że w przeciwieństwie do analizy korelacji czy badania związków przy użyciu testu chi kwadrat niezależności wykonując test t Studenta lub analizę wariancji możemy mówić nie tylko o współwystępowaniu dwóch zmiennych, ale o tym, która zmienna wpływa na którą.

Przykładowy opis wyniku testu t Studenta dla prób niezależnych:

W celu sprawdzenia czy poziom wiedzy dotyczący procedur medycznych różni się między kobietami a mężczyznami wykonano test t Studenta dla prób niezależnych. Jego wyniki wskazują na brak istotnych statystycznie różnic w tym zakresie t(37) = 4,12; p = 0,387. Oznacza to, że poziom wiedzy badanych kobiet (M = 3,52; SD = 1,72) i mężczyzn (M = 3,86; SD = 1,79)  jest podobny. Brak jest tym samym podstaw do odrzucenia hipotezy zerowej i uznania obserwowanych różnic za nieprzypadkowe.

Idealny mail do statystyka. Jakie informacje są dla nas ważne?

Słowem wstępu…

Zgłaszacie się do nas bo potrzebujecie pomocy z analizą statystyczną. Statystyka jest zmorą większości studentów w całej Polsce, więc potrzebujecie kogoś, kto zdejmie ten ciężar z waszych barków lub chociaż doradzi w momencie gdy się “przyblokujecie” na jakimś etapie. Od tego jesteśmy właśnie my – Pogotowie Statystyczne. Zajmujemy się wszystkim co związane jest ze statystyką. Pomagamy z wykonaniem analizy statystycznej wyników zebranych badań ankietowych lub eksperymentalnych (do prac magisterskich, doktoratów, artykułów naukowych i wielu innych projektów). Zresztą to już na pewno wiecie! Co więcej, zajmujemy się edukacją, a także darmowymi konsultacjami z zakresu statystyki, a także metodologii i psychometrii.

Wpis ten to niestety odpowiedź na bardzo niepokojące sygnały płynące od Was od kilku lat. Zauważyliśmy, że z roku na rok na wielu uczelniach statystyka jest wykładana coraz gorzej (https://pogotowiestatystyczne.pl/bardzo-niesmieszne-bledy-wykladowcow-statystyki/) lub nie jest wykładana wcale, ale na uczelni jednak jest wymóg aby do pracy magisterskiej zrobić profesjonalne opracowanie wyników badań z należytym testowaniem hipotez i bezbłędnym raportowaniem wyników. Nie dość, że poziom nauczania na pewnych uczelniach nie pozwala Wam na samodzielne opracowanie wyników swoich własnych badań to niestety nawet macie problem z poprawnym zamówieniem usługi w takich firmach jak nasza. Nie wiedząc zupełnie nic o statystyce (CZĘSTO NIE Z WASZEJ WINY!) nie wiecie co nam wysłać, czego wymagać, na co absolutnie nie liczyć itd. To sprawia z kolei, że stajecie się idealną pożywką dla oszustów, którzy np. w połowie pracy lub pod jej koniec informują Was, że dostaniecie tylko surowy raport z SPSSa bez jakiegokolwiek opisu. Niestety 🙁

Tak jak my specjalizujemy się w opracowaniu wyników badań tak Wy z kolei jesteście specjalistami z zakresu teorii, w której się poruszacie, która Was na tyle zainteresowała, że obraliście ją jako temat waszych badań. Zaprojektowaliście już badanie, wiecie czy przebadacie ludzi przez internet czy na żywo, hipotezy już postawione, zapewne cała metodologia została też zaprojektowana. Ba! Nawet zebraliście już dane, ale nie wiecie co teraz z tymi danymi zrobić (film z instrukcją jak wykonać prawidłową bazę danych w excelu TUTAJ).

Oczywiście, nie jesteśmy jedyną firmą, która zajmuje się analizą statystyczną, więc wpis ten jest uniwersalny. UWAGA: pewne sugestie zawarte w tym wpisie sprawdzą się tylko jeśli wybierzecie dobrą, rzetelną i sprawdzoną firmę. Jeśli wyślecie swoje dane w ciemno, do niesprawdzonej firmy to nie ręczymy, że jakiś domorosły statystyk Rysiek, który nie ma firmy, nie ma regulaminu serwisu, nie ma setek rekomendacji etc. nie sprzeda Waszej bazy danych za 5 zł pierwszemu lepszemu studentowi, który zgłosi taką potrzebę. Korzystajcie tylko z usług profesjonalistów. Jak wybrać porządną firmę, która Was nie oszuka, zrobi dobrą robotę i zaopiekuje aż do czasu obrony lub publikacji artykułu wyjaśniamy z kolei W TYM WPISIE.

Często pytacie nas w pierwszym mailu co macie nam przesłać, co udostępnić, jakich informacji udzielić i jakie tajemnice zdradzić, żebyśmy Wam pomogli. Ten wpis jest właśnie po to, żeby ułatwić Wam ten pierwszy kontakt z nami.

Im więcej dasz, tym więcej otrzymasz…

Przede wszystkim nie bójcie się dzielić z nami wynikami swoich badań. Często chcecie przesłać je dopiero uściskając nam dłoń, po ustaleniu warunków współpracy, gdy na stole już leży umowa spisana krwią. Nie bójcie się zrobić tego wcześniej! Wasze dane są nam potrzebne tylko i wyłącznie do tego, by skutecznie pomóc Wam pomóc w zakresie analizy statystycznej. Do niczego więcej. Pamiętajcie, że w Pogotowiu Statystycznym kluczowa jest dla nas poufność, tak jak u księdza czy lekarza – a może nawet bardziej? 😉 Tak więc, dzielcie się z nami od początku jak największą ilością danych i informacji. Dzięki temu szybciej i sprawniej przebiegnie nasza współpraca, a wycena i plan analiz którą otrzymacie będzie bardziej rzetelna. Regulamin serwisu PogotowieStatystyczne.pl, jak sama nazwa wskazuje, reguluje wszelkie te prawne kwestie. Uwierzcie nam – gdybyśmy wykorzystywali wyniki Waszych badań w niecnych celach to mielibyśmy już swoją prywatną wyspę na Atlantyku i do końca życia popijali już tylko drinki w cieniu palm.

Każda profesjonalna firma zajmująca się statystyką MUSI mieć regulamin serwisu. Jeśli natkniesz się na firmę bez regulaminy – uciekaj gdzie pieprz rośnie, a szczególnie nie wysyłaj swoich danych, bo to na 99% serwis działający niezgodnie z prawem!

Co powinno znaleźć się w pierwszym mailu do statystyka?

1. Napisz do czego potrzebna jest Tobie analiza statystyczna i nasza pomoc. Do pracy magisterskiej, doktoranckiej lub artykułu? A może do pracy zaliczeniowej czy jako podrozdziału monografii? Jaka to dziedzina wiedzy?

2. Prześlij nam rozdział z metodologią lub zawrzyj w swoich słowach informacje, które zwykle znajdują się w takowym rozdziale:
– opis badania, uczestników i generalnie okoliczności przeprowadzenia badania
– opis zmiennych zależnych, niezależnych, ubocznych oraz wyjaśnienie skrótów, które dla Ciebie są “oczywiste” a nam nic nie mówią
– jeśli była stosowana jakaś manipulacja eksperymentalna to na czym ona polegała
– narzędzia badawcze – pokaż nam je, chcemy zobaczyć zaróno treść pytań i skalę odpowiedzi
– opis użytych narzędzi badawczych – jeśli były to kwestionariusze autorskie to napisz o tym i wspomnij jak mamy się z nimi obchodzić. Jeśli zaś użyłeś istniejących już narzędzi to prześlij do nich klucze odpowiedzi bądź instrukcje jak liczyć wyniki – ile wymiarów ma dane narzędzie, jak się je oblicza, czy konieczne jest rekodowanie (odwracanie) pytań/pozycji itd? W ciągu 13 lat udało nam się uzbierać klucze do kilkuset wystandaryzowanych narzędzi (głównie psychologicznych) więc jeśli masz utrudniony dostęp do klucza to po prostu wymień tylko wykorzystane narzędzia bo na 80% posiadamy klucz do tego, z którego korzystasz.
i najważniejsze z tej części – hipotezy lub pytania badawcze! Jeśli nie masz sformułowanych hipotez to napisz jakie związki/zależności Cię interesują np. “interesuje mnie związek pomiędzy poziomem samooceny a cechami osobowości”. Daj znać przy tym, że samoocenę mierzyłeś narzędziem SES Rosenberga, a cechy osobowości NEO FFI. W przypadku gdy korzystasz z kwestionariusza własnego autorstwa i nie miałeś pomysłu lub zamiaru tworzyć jakichkolwiek wskaźników to nie pisz samej informacji, że interesuje Cię związek pomiędzy stanem zdrowia pacjentów a ich płcią w momencie, gdy ich “stan zdrowia” mierzy pytanie 2, 4, 6, 9 i 12. Zaznacz proszę, że pisząc “stan zdrowia” masz na myśli właśnie te pytania, ponieważ my sami się tego nie domyślimy. Wystarczy nam informacja “proszę zestawić pytanie 8 z pytaniem 12, 14, i 17” lub “kolumna C w excelu z kolumną F, G i J” i my wtedy już wszystko wiemy.

3. Baza danych! Może być w excelu lub SPSS czy innej “sensownej” formie. Jak ją stworzyć zapewne wiecie bo stworzyliśmy na ten temat tutorial video, o którym wspomnieliśmy już wyżej.

4. Podajcie preferowany termin realizacji. Napiszcie nam jaki macie deadline lub po prostu kiedy chcielibyście najpóźniej otrzymać od nas gotowy projekt. Z naszego 13-letniego doświadczenia wynika, że 70% klientów chce projekt “na wczoraj”, ok 20% “na już” a pozostałe 10% “na jutro” 🙂 OK. Pogotowie Statystyczne działa szybko i w takich realiach świetnie się odnajdujemy, ale jeśli faktycznie macie spotkanie z promotorem na seminarium za 2 tygodnie to nie piszcie, że mamy projekt zrobić na jutro bo ktoś kto może faktycznie potrzebować go tak szybko zostanie przez nas “odesłany z kwitkiem” ponieważ przecież termin “na jutro” jest już zajęty.

5. Prześlijcie wszystkie inne pliki lub informacje, które wydadzą się Wam przydatne. To mogą być notatki z zajęć, instrukcje od promotora lub prowadzącego, artykuły naukowe na których mamy się wzorować, a nawet spis zasad i reguł dotyczących pisania rozdziału z wynikami badań własnych ? wiem, że niektóre uczelnie takie posiadają i nie stosują się do standardów APA. Może Wasz promotor jest ultra-patriotą, ma wytatuowany symbol Polski Walczącej na bicepsie i wszyscy jego studenci mają prawo robić tylko biało-czerwone wykresy? OK, dla nas nie ma problemu, ale poinformuj nas o tym wcześniej.

Naprawdę, często nie zdajecie sobie sprawy jak pozornie nieważne “dla obcego statystyka” pewne informacje są wręcz kluczowe dla powodzenia naszych działań. Niejednokrotnie realizacja projektu była utrudniona ponieważ nie napisaliście nam o tym, że:
– promotor nie odpisuje na maile tylko trzeba do niego jeździć osobiście
– jesteście z uczelni “ABC” z miasta “GHI” a my już z tej placówki mieliśmy klientów i wiemy, że trzeba tam raportować wyniki w specyficzny sposób
– jeście osobami niepełnosprawnymi (np. niemymi lub niesłyszącymi) a my już w szóstym mailu ciśniemy Was o to żebyście podali nam swój nr tel. bo trzeba coś koniecznie omówić
– macie świetne relacje z promotorem lub są one totalnie beznadziejne … albo, że promotor na pewno wszystko zaakceptuje co od nas dostanie, albo że na pewno wszystko poskreśla bo to taki typ człowieka

Zatem: IM WIĘCEJ INFORMACJI TYM LEPIEJ. To czego od Was nie potrzebujemy to wstęp teoretyczny. On nas nie interesuje.

Nie martw się jeśli nie masz czegoś z powyższej listy lub czegoś nie rozumiesz! Już widzę jak część z Was myśli sobie “UOJEZU! A co to jest zmienna zależna i niezależna?” lub “Ja nie mam hipotez ani pytań badawczych bo promotor powiedział, że postawimy je jak już poznamy wyniki analiz”. Zero problemu! Wszystkie powyższe punkty na naszym mailu to scenariusz idealny a ideały nie istnieją. No … może poza naszymi raportami 😛

6. I na koniec … PODPISZ SIĘ I PODAJ NUMER TELEFONU 🙂 Czasami gdy mamy ogrom klientów nie odpisujemy do osób, które się nie podpisały imieniem i nazwiskiem. Może osoba, która się nie podpisała jest jakimś szpiegiem z firmy konkurencyjnej? 🙂 Tym lepiej jest nie odpisywać na maila.
Numer telefonu z kolei bardzo ułatwia i skraca czas współpracy. Czasami podczas analizy danych wychodzą jakieś “kwiatki”, których nie dało się przewidzieć i musimy coś bardzo szybko z Wami skonsultować żeby nie wstrzymywać prac nad Waszymi projektami. Musimy mieć możliwość zadania krótkiego, szybkiego pytania i uzyskania krótkiej i szybkiej odpowiedzi a przez telefon jest właśnie najszybciej.

Czego NIE PISAĆ do firm zajmujących się analizą statystyczną…

Na wstępie przepraszamy za małą niekonsekwencję bo przed chwilą napisaliśmy, że “im więcej, tym lepiej” a teraz jest jakiś punkt mówiący o tym czego do nas nie pisać 🙂 No to pisać wszystko lub dużo czy mało/konkretnie/treściwie? Już spieszymy z wyjaśnieniami! Nie piszcie proszę:

1. “Dzień dobry, czy wykonują państwo analizę statystyczną wyników badań?” lub “Czy analizują państwo dane?” czy też “Czy mogę prosić o pomoc ze statystyki?” – Nie pytajcie o to firmy, którą wybraliście. Jeśli zadajecie takie pytanie to oznacza, że nie zrobiliście należytego researchu w celu znalezienia najlepszej firmy, która opracuje wyniki Waszych badań. A to spory błąd! Sprawdźcie wszystkie niezbędne informacje, które powinny być dostępne na stronie serwisu, któremu przekażecie swoje cenne dane.

2. “Czy mają państwo wolne terminy?” – to pytanie zdroworozsądkowo zasadne, ale z drugiej strony troszkę “bez sensu”. Wolny termin na pewno kiedyś się znajdzie. Może za tydzień. Może za rok. A może za 100 lat 🙂 Tak, mamy wolny termin, ale rzadko kto ma go tu i teraz w tej sekundzie. To na szczęście jest prawie zawsze oczywiste 🙂 Staramy się dbać o sprawny przepływ klientów więc nikt z Was nie czeka zazwyczaj dłużej niż 10-12 dni na wyniki naszej pracy.

3. “Czy nie wykorzystacie nigdzie moich danych? Czy nigdzie ich nie udostępnicie?” –  jasne, że wykorzystamy i jasne, że udostępnimy… ale tylko w celu realizacji Twojego projektu i tylko wewnątrz firmy 🙂 Jeśli zrobisz należyty research zgodny z naszym instruktażem (https://pogotowiestatystyczne.pl/zlecenie-analizy-statystycznej-profesjonalistom-wybrac-dobra-firme/) to znacznie ograniczysz ryzyko natrafienia na kogoś “niepewnego”. Z większym prawdopodobieństwem wybierzesz firmę godną zaufania, która nie sprzeda Twoich danych komuś kto bardzo ich potrzebuje (np. inny student, któremu nie chce się przeprowadzić badania).

4. “Dzień dobry. W załączniku zamieszczam bazę danych i moją ankietę. Proszę o wycenę i podanie terminu realizacji analizy danych” – tutaj “kłania się” potrzeba wysłania nam hipotez i/lub pytań badawczych. Analizę statystyczną wykonuje się bowiem właśnie po to żeby udzielić odpowiedzi na postawione pytania lub przetestować hipotezy. Bez nich statystyk nie wie co robić. Chyba, że chcesz uzyskać odpowiedź “Nie ma sprawy. Zrobimy analizę wszystkiego ze wszystkim w podziale na wszystko. Zajmie nam to 3 lata a szacunkowy koszt to 2 miliony złotych…” 😀 No właśnie. Sprecyzuj czego Ci trzeba. Chyba, że nie wiesz. Wtedy napisz, że nie wiesz czego Ci trzeba i mamy Ci pomóc z określeniem nawet tego. Zero problemu! Zero oceniania! My wiemy, że Wasze braki w zakresie wiedzy o statystyce i metodologii badań to nie Wasza wina. Zazwyczaj 😉

I na koniec ostatnia ogromna prośba. Nam “to rybka”, ale prosimy tak dla dobra ludzkości. BŁAGAMY – nie wysyłajcie nam “wrażliwych” danych w bazie jak numery telefonów, adresy e-mail, numery PESEL, adresy zamieszkania respondentów etc. Dostawaliśmy od Was już wszystko! Mistrzami w tym zakresie są lekarze. Nie wiem czemu. Niedawno otrzymaliśmy bazę danych nastoletnich pacjentów po zatruciu środkami psychoaktywnymi jak dopalacze, LSD, grzyby halucynogenne, butapren itp. W bazie były ich nry tel. i adresy zamieszkania. Serio…

Dlaczego to takie ważne?

Pamiętajcie, że to na co się umówimy na samym początku jest wiążącą umową pomiędzy nami. Po przesłaniu nam wszystkich niezbędnych informacji do wykonania opracowania statystycznego my wyceniamy Wasz projekt oraz szacujemy termin realizacji. Dopiero po poznaniu warunków cenowych i czasowych oraz po waszej akceptacji powyższych warunków rezerwujemy Wam termin w naszym kalendarzu. Niepoprawne lub niepełne informacje przekazane nam na samym początku mogą skutkować tym, że umówimy się na coś na co umówić się nie powinniśmy. My to zrobimy, Wy nam za to zapłacicie, a promotor powie, że “super praca, ale jednak nie o to mi chodziło”. Co wtedy? Wyjaśniamy między innymi w zakładce CZĘSTE PYTANIA na naszej stronie internetowej.

Zdajemy sobie sprawę, że bywają też sytuacje odbiegające od typowych, nie wszystko da się bowiem generalizować. W takim przypadku omawiamy wszystko indywidualnie. Zgłaszacie się do nas z różnymi sprawami, nie tylko z tymi opisanymi powyżej. Jesteśmy otwarci na kontakt z Wami więc nawet jeśli nie jesteście w stanie przedstawić nam całego kompletu wyżej wymienionych danych i informacji to nie rezygnujcie! Wspólnymi siłami na pewno dojdziemy do satysfakcjonującego rozwiązania. W tym wszystkim powyżej ważny jest również kontakt z promotorem. Możesz nie mieć nic, nic nie wiedzieć a i tak Ci pomożemy. Będzie to trudniejsze i zajmie więcej czasu, ale obronisz się na 5 lub opublikujesz świetny artykuł. Obiecujemy!

Nie pozostaje nam teraz nic innego jak czekać na Wasze nadchodzące maile. Jesteśmy po to, by pomagać Wam we wszystkim co związane jest ze statystyką i analizą statystyczną. Wiemy, że trudno jest nawet napisać maila z prośbą o pomoc, gdy zakres potrzebnej pomocy jest bardzo trudny do zrozumienia. Pogotowie Statystyczne zna swoich klientów i wie czego potrzebują. Mamy nadzieję, że teraz łatwiej będzie Wam sformułować swoje potrzeby!

Zapraszamy do kontaktu!

PSPP – darmowa alternatywa dla SPSS

Wpis ten popełniłem ponieważ ciągle widzę na grupach studenckich na FB jak piszecie “podeślijcie mi kod licencyjny bo muszę otworzyć bazę danych a nie mogę bez kodu zainstalować SPSSa”, albo “muszę na jutro koniecznie policzyć alfę Cronbacha i test t Studenta dla mojej promotorki żeby zaliczyła mi seminarium a nie mogę zainstalować SPSSa – RATUJCIE!” … iiiii tak dalej iiiiiiiiiiiiiii tak dalej. Tragedii, które rozgrywają się na moich oczach jest ogrom każdego dnia, tygodnia, miesiąca …

Skąd te nerwy? Po co panika? Dlaczego szlochasz?!! Jest darmowa alternatywa dla SPSSa – do pobrania za darmo, teraz, szybko! Bez licencji! Bez przekierowania na strony porno i/lub łamania prawa!

https://www.gnu.org/software/pspp/

Przedstawiam Wam program, który powinien znać każdy spanikowany student, na którego uczelni pracuje się w SPSSie 🙂 Waży tyle co piórko gołębia, działa szybko, wygląda równie strasznie co prawdziwy SPSS i robi te same czary, choć PSPP to Harry Potter na pierwszym roku w Hogwardzie a SPSS to Dumbledore….. wiesz …. bez podjazdu 🙂

Program PSPP pozwoli Ci przetrwać, zrobić podstawę podstaw i nie umrzeć. Jest mocno okrojony względem prawdziwego SPSSa, ale bez problemu ogarnie wszystkie korelacje, zrobi ANOVĘ, testy t Studenta, chi kwadraty, 99% znanych Ci innych testów nieparametrycznych czy analizę regresji a nawet regresję logistyczną czy analizę skupień czyli coś czego wcale nie miałeś/aś na studiach (zapewne)! Sprawdzisz też czy zmienna nie odbiega istotnie statystycznie od rozkładu normalnego lub odnajdziesz obserwacje odstające. OCZYWIŚCIE wszystko w mega okrojonej, uproszczonej, prymitywnej formie!

Jeśli Twoje umiejętności ze sfery IT przekraczają jednak włącznie i wyłącznie komputera to pamiętaj, że PSPP jest darmowym programem w pełni open source’owym i ma rozbudowane opisy swojego działania. Dostępne np. tutaj – https://www.gnu.org/software/pspp/manual/pspp.html

Serio, możesz ogarnąć przy jego użyciu nawet wszystkie analizy do pracy magisterskiej! To oczywiście działanie porównywalne do budowania domu z końskiej kupy w XXI wieku czyli w czasie gdy mamy dostęp do super mieszkań od super deweloperów na super kredyt na SUUUUPER 40 lat … Mimo wszystko deszcz na głowę nie pada i jak rozpalisz ognisko to nawet jest w środku całkiem ciepło. Dlaczego by w takim razie nie spróbować jeśli trzeba szybko i efektywnie schować się przed deszczem i mrozem?

Ogólnopolska Konferencja Kół Nauk Psychologicznych Psychozjum 2019

TAK JEST! To już! Właśnie ruszyła II Ogólnopolska Konferencja Kół Naukowych Psychozjum, która odbywa się w dniach 7-8 czerwca w Poznaniu na Uniwersytecie Adama Mickiewicza!

 

W ubiegłym roku mieliśmy przyjemność jedynie tejże konferencji patronować a w tym roku mamy zaszczyt na niej wystąpić! Poprowadzimy na niej półtorej godzinny warsztat, na którym nauczymy Was na czym polega, jak wykonać oraz jak zaraportować wyniki w standardzie APA dla analizy mediacji i moderacji.

Będzie to doskonała możliwość by nauczyć się analiz, które sprawią, że Twój promotor lub recenzent będzie klaskał uszami ze szczęścia! Pozwoli też ugruntować mocne podstawy do testowania w przyszłości bardziej złożonych modeli.

 

A cóż będzie działo się na samej konferencji?

Organizator zaprasza na prezentację badań i opracowań z zakresu psychologii i kognitywistyki, ciekawe dyskusje, warsztaty metodologiczno-statystyczne i treningi umiejętności miękkich, a przede wszystkim na wspólną integrację przedstawicieli nauk społecznych!

Konferencja jest organizowana przez Koło Naukowe Psychologii Społecznej oraz Koło Projektowania i Analiz Narzędzi Psychometrycznych działające przy Instytucie Psychologii Uniwersytetu im. Adama Mickiewicza w Poznaniu. Ideą wydarzenia jest stworzenie miejsca, w którym student bądź doktorant nauk społecznych będzie mógł zaktualizować wiedzę o najnowsze wyniki badań, zaprezentować swoją pracę naukową, wymienić się doświadczeniami czy nawiązać kontakty z innymi młodymi naukowcami.

Tutaj znajdziesz wszelkie niezbędne informacje o konferencji:

Fanpage https://www.facebook.com/psychozjum  – TUTAJ ZNAJDZIECIE MIĘDZY INNYMI WYWIAD Z NASZYM PRZEDSTAWICIELEM

Wydarzenie https://www.facebook.com/events/158643761695504/

Strona www: https://psychozjum.weebly.com/ 

Co jeszcze przygotowało Pogotowie Statystyczne?

Oprócz samego warsztatu z analizy mediacji i moderacji w sobotę 08.06.2019 między godziną 11:00 a 16:00 będzie można znaleźć nasze stanowisko na terenie konferencji i zapytać nas o co tylko chcecie. Możemy się po prostu poznać, możesz liczyć na darmowe konsultacje statystyczne. Ba! Możesz wziąć ze sobą swój komputer i pomożemy policzyć Ci wyniki swojej pracy magisterskiej lub doktoratu. Co tylko chcesz i to zupełnie za darmo!

Cóż radzimy?

NIE MOŻE CIĘ ZABRAKNĄĆ NA KONFERENCJI!

RADZIMY NA NIĄ PRZYJŚĆ 🙂

Metodologia, statystyka i raportowanie wyników w psychologii – wytyczne APA

Statystyka jest prosta, choć nie jest łatwa. Jedną z podstawowych trudności w tym zakresie jest powszechny problem z rozumieniem wnioskowania częstościowego, opierającego się na falsyfikowaniu hipotez statystycznych poprzez wykorzystywanie wartości testu statystycznego. O niektórych problemach związanych z wartością pisaliśmy w jednym z poprzednich artykułów. Zachęcam też do przeczytania artykułu dotyczącego istotności na poziomie tendencji statystycznej.

Regularnie spotykamy się ze skutkami tego niezrozumienia, widząc rozczarowanie klientów z powodu uzyskania “nieistotnych wyników”, z którego wyciągają wnioski, że “nic w badaniu nie wyszło”. Otrzymujemy też od klientów prośby, o wykonanie, na życzenie promotora, dodatkowych analiz, byleby tylko otrzymać wyniki istotne statystycznie. Ot taki urok opracowań statystycznych do prac magisterskich i doktoratów 🙂

Debata na temat wad testowania poziomu istotności statystycznej sięga początków samej statystyki. Niestety, mimo ciągłych rekomendacji zawartych w standardach APA (obecnie wersji szóstej), poziom chaosu nadal jest wysoki. W tym wpisie, przywołam rekomendacje dotyczące raportowania wyników statystycznych, opublikowane w artykule w 1999 roku (sic!). Zauważymy jednak, że ich znaczenie dziś, nadal jest tak samo duże. Rekomendacje te są wynikiem dwuletniej debaty w ramach powołanego przez Radę ds. Naukowych (jednego z organów Amerykańskiego Towarzystwa Psychologicznego) komitetu nazywanego Grupą Zadaniową ds. Wnioskowania Statystycznego. W jej skład wchodziła grupa specjalistów z różnych dziedzin związanych z badaniami psychologicznymi a ich celem było wyjaśnienie kontrowersyjnych kwestii związanych z testowaniem poziomu istotności w badaniach psychologicznych i stworzenie rekomendacji do wdrożenia w kolejnej edycji (wtedy piątej) standardów APA (pamiętaj, że obecnie obowiązuje wersja 6). Artykuł na bazie którego powstał niniejszy wpis nie dotyczy jednak tylko p value. Raportowanie wyników analiz statystycznych jest trochę bardziej rozbudowane 🙂

Oto niektóre z rekomendacji:

1. Jasno określ, jakiego rodzaju badanie przeprowadzasz (case study, eksperyment, quasi-eksperyment, badanie kwestionariuszowe itp). Każde z nich, ma swoje wady i zalety, standardy i ograniczenia.

2. Jasno zdefiniuj populację, którą badasz, szczególnie, jeżeli w badaniu jest grupa porównawcza/kontrolna. Określ dobór próby (losowy/nielosowy oraz jaki konkretnie rodzaj) i opisz, jakie kryteria włączenia/wykluczenia zostały zastosowane. Opisz ile osób i z jakiego powodu zostało ew. odrzuconych.

3. Jeśli przeprowadziłeś eksperyment, pamiętaj, o efekcie oczekiwań eksperymentantora (efekcie Rosenthala) i o zastosowaniu podwójnej ślepej próby. Przy przydzielaniu badanych do grup stosuj raczej komputerowe generatory liczb pseudolosowych niż własny instynkt – ludzie nie potrafią generować przypadkowych wzorców. Jeżeli dobór do grupy jest nierandomizowany, bądź nie kontrolujesz zmiennych pośredniczących, zamiast “grupy kontrolnej” określ ją raczej jako “grupę porównawczą”. Pamiętaj, aby zawsze dokładnie opisać charakter i procedurę przydziału badanych do grupy.

4. Zwracaj szczególną uwagę na nazwę raportowanych zmiennych. Nazywaj je w odniesieniu do tego jak zmienna jest mierzona. Przykładowo, zamiast “inteligencja” lepiej napisz “wynik testu IQ”, a zamiast “wykorzystywanie seksualne w dzieciństwie” lepiej użyj określenia “retrospekcyjna ocena stopnia wykorzystywania seksualnego w dzieciństwie”. Nieprecyzyjne nazwy zmiennych wprowadzają czytelników w błąd i mogą być źródłem niewłaściwej interpretacji wyników.

5. Sprawdzaj czy wyszczególnione przez Ciebie wymiary narzędzi badawczych rzeczywiście mierzą to co mierzą i czy robią to trafnie – sprawdzaj trafność i rzetelność wyników uzyskany w Twoim badaniu. Pamiętaj, że statystyki z badań walidacyjnych narzędzi, których używasz dotyczą próby normalizacyjnej, a w Twoim badaniu może być zupełnie inaczej.

6. W opisie wyników opisz wszelkie komplikacje związane ze zbieraniem i analizowaniem danych. Określ braki danych oraz jak wykrywano i radzono sobie z wartościami odstającymi. Sprawdzaj zawsze rozkłady wyników w zakresie poszczególnych zmiennych, sprawdzając nie tylko statystyki numeryczne, ale też graficzne, poprzez histogramy, czy macierze wykresów. Pamiętaj o rozsądnym kodowaniu braków danych – np. używanie popularnej wartości “99” nie jest dobrym pomysłem, jeśli możliwe są takie wartości zmiennych (np. w przypadku wieku)

7. Korzystaj z testów statystycznych, które w najlepszy sposób pomogą Ci przetestować postawione hipotezy – Twoim zadaniem nie jest zaimponowanie innym badaczom i ewentualnym czytelnikom. Korzystaj z programów komputerowych, ale upewnij się, że rozumiesz jak liczone są określone statystyki i w razie czego, kontroluj otrzymane wyniki.

8. Przedstawiaj statystyki testowe w tabelach, ale pamiętaj, że one często nie zastąpią formy graficznej – dobry wykres pozwala szybko zapoznać się z wynikami i zrozumieć zależności między zmiennymi. Staraj się jednak, aby forma graficzna niosła dodatkowe informacje względem statystyk w tabeli (np. efekty proste i efekty interakcji w wieloczynnikowej ANOVA’ie).

9. Raportuj zawsze dokładną wartość statystyki pprzedziały ufności i siły efektu. Zaznaczaj również przedziały ufności na wykresach przedstawiających średnie.

10. Bądź ostrożny w interpretowaniu wyników analizy pod kątem przyczynowości. Pamiętaj, że badania korelacyjne i porównawcze nie pozwalają na jej stwierdzanie.

11. Podobnie, pamiętaj, że wynik pojedynczego badania nie pozwala na wyciąganie jednoznacznych wniosków co do natury badanych zjawisk. Wynik badania zawsze powinien być zestawiany z wynikami innych, analogicznych badań, łącznie z porównywaniem ich sił efektów.

12. Pamiętaj, aby rozróżniać istotność statystyczną od istotności teoretycznej. Fakt, że uzyskałeś wyniki nieistotne statystyczne, nie znaczy, że badane związki między zmiennymi nie występują i nie są istotne. Z kolei uzyskanie wyników istotnych statystycznie nie sprawia automatycznie, że dokonałeś idkrycia istotnego dla świata nauki. Otrzymany istotny statsytycznie efekt może być mało ważny lub bardzo słaby.

13. Interpretacja i dyskusja wyników powinna być krótka, zwięzła i wiarygodna. Nie bój się uogólniać otrzymanych wyników na populację, ale rób to tylko wtedy, gdy masz ku temu przesłanki i oczywiście jasno je wtedy przedstaw. Porównaj wyniki otrzymanych badań do innych. Wskaż konkretne ograniczenia swoich badań i rekomendacje dla innych badaczy (“Potrzebne są dalsze badania w tym zakresie” się nie liczy).

Literatura:

Wilkinson, L., & Task Force on Statistical Inference, American Psychological Association, Science Directorate. (1999). Statistical methods in psychology journals: Guidelines and explanations. American Psychologist, 54(8), 594-604.

Krzywoliniowy związek między zmiennymi. Czy lepszy niż prostoliniowy?

LINIA PROSTA CZY MOŻE KRZYWA?

No właśnie! Jaki model jest lepszym odzwierciedleniem zależności między zmienną X a zmienną Y? Dzięki poniższemu tutorialowi dowiesz się jak sprawdzić czy krzywa jest lepiej dopasowana do danych niż linia prosta. W ciągu 12 lat naszej działalności chyba tylko 1 klient miał postawioną hipotezę, która mówiła o tym, że między zmiennymi zachodzi krzywoliniowa relacja, wiedział on, że da się taką zależność przetestować i świadomie nas o to poprosił. Dlaczego tylko 1? Na pewno nie dlatego, że relacja między dwiema zmiennymi w 99,99% badań jest prosto a nie krzywoliniowa 

Najczęściej hipotezy i swoje oczekiwania co do analizy danych budujecie na podstawie swojej (niestety) niewielkiej wiedzy z zakresu statystyki. Nie raz słyszałem, że “musi być ANOVA” bo moja promotor zna taką nazwę i w ogóle wszyscy na wydziale mają anovę więc u mnie też musi być…. albo – “musi być analiza mediacji choć wcale nie wiem dlaczego nie moderacji, recenzent ponoć mówił, że to teraz modne”.

Celem Pogotowia Statystycznego jest przede wszystkim dydaktyka i taki właśnie edukacyjny charakter ma ten wpis oraz poniższy film. Miej świadomość, że bardzo ważnym założeniem tak dobrze znanej Ci analizy korelacji ze współczynnikiem r Pearsona lub analizy regresji jest liniowa (prostoliniowa) zależność między jedną a drugą zmienną. Widziałem “milion” razy bazy danych, w których niektóre związki między zmiennymi były krzywoliniowe (i w teorii, i “na oko”, i wynikało to również z analiz eksploracyjnych) a mimo wszystko badacz liczył “zwykłe” korelacje lub analizy regresji. Tyle go nauczono, tyle potrafił, tyle mógł świadomie policzyć i opisać ze zrozumieniem. Błędnie.

NIE – JESZCZE NIE JESTEŚ STATYSTYKIEM STULECIA

Nawet mimo tego, że za chwilę dowiesz się jak testować związki krzywoliniowe między dwiema zmiennymi. Dwa sposoby, które pokazujemy na tym tutorialu są i tak, bądź co bądź, banalnie proste, nawet trochę infantylne a w skrajnych ocenach błędne (choć jak wszystko w naszych działaniach – oparte na statystycznej literaturze). Analiza nieliniowych relacji między zmiennymi to bardzo rozbudowany temat i szczerze informuję, że tutaj otrzymujesz od nas tylko pewną zajawkę. Mimo wszystko na pewno wystarczy ona nawet na spore podciągnięcie oceny swojej pracy magisterskiej. Wielu promotorów będzie w niebo wziętych jeśli w poniższy sposób udowodnisz, że między dwiema zmiennymi zachodzi krzywoliniowa relacja. Przykłady takich relacji mógłbym mnożyć i mnożyć … ale mi się nie chce 🙂
Jestem jednak pewien, że Twoja analiza statystyczna do pracy magisterskiej lub doktoratu będzie bogatsza jeśli dodasz do niej analizę związków krzywoliniowych. Oczywiście jeśli będą ku temu przesłanki płynące z teorii i przeglądu dotychczasowych badań innych autorów. Nie traktuj analizy, którą tutaj pokazujemy jako eksplorację i podejście “poklikajmy i zobaczymy co wyjdzie”. Powinieneś mieć jakieś podwaliny by móc przypuszczać i testować krzywoliniową relację między zmiennymi.

Wszystkich dociekliwych odsyłam między innymi do fajnej książki Davida Garsona z North Carolina State University, który opublikował ogrom świetnych e-booków o statystyce pod nazwą Blue Book Series.

Klikając na spinacz po prawej możesz ściągnąć przykładowy, wzorcowy opis wyników pochodzących z estymacji krzywej i testowania hipotezy mówiącej o tym, że model liniowy jest tak samo dobrze dopasowany do danych jak model kwadratowy (hipoteza zerowa). Opis ten został przygotowany w formie nadającej się w szczególności do pracy dyplomowej. W artykule naukowym wyniki powinny być zaraportowane w sposób znacznie bardziej skondensowany. Pamiętaj – ilu jest badaczy, tyle jest pomysłów na opis wyników. Sugeruj się naszym, ale nie jest to jedyne, doskonałe wyjście. Jeśli znajdziesz lepszy sposób to koniecznie się nim z nami podziel!

Tutaj masz bazę danych, na której pracowaliśmy w tym tutorialu

Odchylenie standardowe – czyli nie samą średnią człowiek żyje :)

Wykonując analizy statystyczne wyników do pracy magisterskiej, doktorskiej czy artykułu naukowego, wyliczamy i przedstawiamy szereg statystyk/estymatorów. W przypadku zmiennych ilościowych, najczęściej najważniejszą z nich jest średnia arytmetyczna, ponieważ traktujemy ją, jako główny wskaźnik określający wartość mierzonego przez nas parametru, np. nasilenia jakiejś cechy lub poziomu danej zdolności. Średnia arytmetyczna jest szczególnie ważną statystyką w przypadku testów porównujących średnie, takich jak test t Studenta czy ANOVA, ponieważ m.in. na jej podstawie określamy czy zaobserwowane różnice między porównywanymi grupami są istotne statystycznie.

Wnioskowanie statystyczne nie polegają jednak na wyliczaniu bądź porównywaniu samych średnich arytmetycznych, a na porównywaniu rozkładów wyników zebranych z danych prób, w celu określenia czy (prawdopodobnie) pochodzą z tej samej populacji. Dlatego też, nawet w przypadku dużych rozbieżności w wartości średnich, wynik testu może okazać się nieistotny statystycznie. Obrazuje to poniższy rysunek, na którym widać, że mimo tych samych wartości średnich, rozkłady w różnym stopniu nakładają się na siebie, co oczywiście ma swoje odbicie w wyniku testu oraz jego istotności statystycznej. Oznacza to, że im większa jest wartość odchylenia standardowego porównywanych rozkładów, tym większe muszą być różnice w średnich, aby uznać, że określone rozkłady istotnie statystycznie różnią się między sobą.

 

Jeżeli zmienność wyników wokół średniej ma wpływ na wynik testu, oczywistym jest, że wzór do obliczenia wyniku testu, a co za tym idzie jego istotności statystycznej, musi zawierać w sobie jakiś wskaźnik dotyczący tej zmienności. Wskaźnikiem tym jest wariancja, która jest miarą zmienności wyników w rozkładzie wokół wartości oczekiwanej – w tym przypadku średniej (wariancja wyliczana jest jako średnia arytmetyczna kwadratów odchyleń poszczególnych wartości od średniej).

PAMIĘTAJ, ŻE WARIANCJA TO ODCHYLENIE STANDARDOWE PODNIESIONE DO KWADRATU, A ODCHYLENIE STANDARDOWE TO PIERWIASTEK KWADRATOWY Z WARIANCJI. Oba te estymatory są względem siebie zależne. 

Powyższe przykłady pokazują, że sama wartość średniej arytmetycznej nie jest dobrym wskaźnikiem dotyczącym otrzymanych wyników i musi ona zostać uzupełniona o statystykę opisującą rozproszenie wyników wokół średniej. W praktyce, nie podaje się wyżej wymienionej wartości wariancji, a odchylenia standardowego, która obliczana jest poprzez wyciągnięcie pierwiastka z wariancji. Dlaczego? Jest tak z racji tego, że wariancja obliczana jest, jako suma kwadratów odchyleń od wartości średniej – po to, żeby wyniki dodatnie i ujemne nie zniosły się wzajemnie – więc spierwiastkowanie tej wartości pozwala na “powrót” do “właściwej” wartości średniego odchylenia. Czyli? Czyli odchylenie standardowe wyrażone jest w jednostkach pomiaru zmiennej, którą mierzyć a wariancja nie. Wszystko to jest powodem, dla którego znienawidzona i niezrozumiała dla wielu osób wartość odchylenia standardowego, raportowana jest prawie zawsze przy wartości średniej. Dzięki niej możemy od razu zobrazować rozkład wszystkich wyników, a nie tylko samą średnią.

No dobra, wiemy już, że odchylenie standardowe to średnie odchylenie wyników od średniej. I co z tego? Do czego potrzebna jest nam ta informacja? W dużej mierze, dzięki niej, jesteśmy w stanie zrozumieć, na ile średnia arytmetyczna jest trafną wartością określającą otrzymane wynikiPrzyjmuje się, że jest tak w sytuacji, w której wartość odchylenia standardowego nie przekracza około 1/3 wartości średniej. Przykładowo, jeśli średni wiek badanych wyniósł 40 lat, a odchylenie standardowe 10, to wiemy, że większość osób badanych jest w wieku rzeczywiście zbliżonym do 40 lat. Występuje względnie silna koncentracja wyników wokół średniej. Natomiast gdyby przy tej średniej, odchylenie standardowe wyniosło 30, to istnieje szansa, że niewiele osób badanych jest wieku bliskim 40 lat – w dużej mierze zależy to od rozkładu wyników.

PAMIĘTASZ O JEDNORODNOŚCI WARIANCJI?

Jeśli tak, to super! Jeśli nie to koniecznie przeczytaj nasz wpis o tym czym jest ich homogeniczność i dlaczego jest taka ważna:
https://pogotowiestatystyczne.pl/slowniczek/rowne-wariancje/

Jednorodność wariancji to prawie to samo co jednorodność odchyleń standardowych. Dla większości analiz, które dobrze znacie (jak np. test t Studenta czy ANOVA) ważnym założeniem jest, aby odchylenia standardowe w porównywanych grupach były podobne do siebie. Średnie oczywiście nie. Zazwyczaj im bardziej się różnią tym dla Was lepiej. Odchylenia standardowe powinny być jedna podobne. Jeśli w jednej grupie SD (z ang. Standard Deviation) wynosi 12, a w drugiej 36 to oznacza, że prawdopodobnie na wyniki działa jakiś czynnik, którego nie kontrolujecie a nie tylko Wasza zmienna niezależna.

Należy jednak pamiętać, że odchylenie standardowe ma jedną istotną wadę – nie zawiera w sobie informacji o symetrii rozkładu. Wracając do powyższego przykładu dotyczącego wieku – przy średniej wieku 40 lat i odchyleniu standardowym 30, może być tak, że większość badanych jest w wieku ok 20 lat i ok 60 lat, jednakże również istnieje szansa, że 75% badanych jest wieku ok 20 lat, a reszta w wieku ok 90, lub na odwrót. W obu przypadkach, wartość odchylenia standardowego jest podobna, jednak rozkłady wyników – zupełnie różne. Dlatego też, warto raportować i zwracać uwagę na inne statystyki opisowe, takie jak wartość minimalna, maksymalna czy wartość skośności (asymetrii) czy kurtozy rozkładu.

Istotność na poziomie tendencji statystycznej, czyli co?

Ojjjj długo biłem się z myślami czy popełnić niniejszy wpis. 

Staramy się zazwyczaj trzymać z dala od tematów, które jednocześnie wzbudzają kontrowersje i na dodatek nie cechuje ich zgodność w literaturze. Wyniki istotne na poziomie tak zwanej tendencji statystycznej są Wam jednak bardzo bliskie. Wam, czyli w szczególności studentom ostatnich lat studiów magisterskich. Pojęcie to na jednych promotorów działa jak “płachta na byka”, a inni sami zalecają jego stosowanie. Wiem, że lubicie kiedy wszystko jest jasne i klarowne, ale tym razem przedstawimy Wam zarówno “ZA” jak i “PRZECIW” z drobnym komentarzem, a wyboru musicie dokonać Wy. Samodzielnie i z pełną odpowiedzialnością. Z czasem przekonacie się, że analiza statystyczna to nie “czysta matematyka” w której zawsze 2+2=4. Nie jest tylko czarno-biała. Zero-jedynkowa. Dlatego od lat funkcjonuje takie pojęcie jak “the art of statistics” o czym pisze się na blogach (http://www.oriresults.com/articles/blog-posts/the-art-of-statistics/) lub pojęcie to umieszcza się w tytułach książek (https://www.amazon.com/Art-Statistical-Science-Probability-Statistics/dp/0471931101).

Na pewno wiele osób po przeczytaniu wpisu się ze mną nie zgodzi (czego bardzo nie lubię :). Jeśli masz jakieś “ale” podziel się nimi. Napisz do nas na FB lub krótkiego maila. Z chęcią porozmawiam o poruszanych w tym wpisie kwestiach i może po rozmowie, przekonany Twoimi argumentami skoryguję wpis.

Istotne na poziomie tendencji statystycznej, czyli jakie?

Czym jest wynik istotny statystycznie lub nieistotny statystycznie już zapewne wiecie. Decyduje o tym wartość p, którą względnie dokładnie omówiłem w tym poście. Jeśli p value jest mniejsze od 0,05 to raportujemy wynik jako istotny statystycznie. Piszemy wtedy, że istotne statystycznie są różnice między średnimi lub istotny statystycznie jest jakiś związek między zmiennymi. Zależy czego poszukujemy i co testujemy. Jeśli wartość p zatytułowana w SPSSie “istotność” jest z kolei większa od 0,05 to uznajemy, że nie ma tego czego szukamy. Różnic czy też związków. Dokładniej rzecz biorąc – to czego szukamy występuje w naszej bazie danych, ale prawdopodobnie jest jedynie dziełem przypadku. Bardzo często jednak wyniki nieistotne statystycznie, ale z przedziału 0,05 < p < 0,1 opisywane są w badaniach jako istotne na poziomie tendencji statystycznej. Jeśli zatem uzyskaliśmy różnicę między dwiema średnimi istotną na poziomie p = 0,058 to nie stwierdzamy, że różnica ta w populacji zapewne nie występuje, jest nieistotna statystycznie, tylko że jest bliska klasycznej wartości p < 0,05 lub inaczej, że jest istotna na poziomie tendencji statystycznej. Dotyczy to wyników istotności, które są większe od 0,05 ale mniejsze od 0,1.

Tendencja statystyczna niejedno ma imię

Jak określić wynik nieistotny statystycznie, bo z istotnością powyżej 0,05, ale jednak jej bliski, bo z istotnością poniżej 0,1? Na to pytanie w doskonały sposób odpowiada ten wpis na blogu, który stał się inspiracją do skonstruowania przeze mnie wpisu na ten temat:

https://mchankins.wordpress.com/2013/04/21/still-not-significant-2/

Jego autor zebrał ponad 500 określeń z przeróżnych artykułów naukowych. Jest w czym wybierać! Prawda? 🙂 Wiele z nich jest tak naciąganych, że aż mi przykro, bo widać jak bardzo badacze starali się wyginać język i zwoje mózgowe, aby stworzyć coś z niczego. Trochę to śmieszne i tragiczne, zahaczające o ostrą hipokryzję, ale jakie prawdziwe! Niektórym wcale się nie dziwię, bo z doświadczenia wiem jak niechętnie publikowane są artykuły naukowe pełne określeń “wynik jest nieistotny statystycznie”. A to tak wielki błąd!

Temat jest tak popularny, że nawet powstają artykuły o tym, które stwierdzenia są poprawne, a które nie. W tym z 2015 roku na przykład autorzy zwracają uwagę, że używanie słowa “trend” opisując wynik właśnie istotny na poziomie trendu statystycznego jest niewłaściwe. Zatem unikamy pisania “istotne na poziomie trendu statystycznego”.

Misuse of “trend” to describe “almost significant” differences in anaesthesia research.

Jak już wcześniej wspomniałem, określenie to ma wielu zwolenników i przeciwników. Oto “ZA” i “PRZECIW” jakie udało mi się znaleźć w sieci lub przypomnieć ze swoich wykładów z czasów studiów.

GŁOSY ZA:

1. Tak mnie uczono na studiach (SWPS). Miałem naprawdę dobrego wykładowcę i wspominał on na jednych zajęciach, że jeśli mamy wynik istotności poniżej 0,1 to możemy uznać go za istotny na poziomie tendencji statystycznej. Mając dostęp do ogromu materiałów dydaktycznych z różnych uczelni wiem, że mój wykładowca nie jest jedyną osobą na naszej planecie, która tego uczy.

2. Jak już wiecie takie określenie lub inne, gdy wyniki istotności są większe od 0,05 ale mniejsze od 0,1 stosuje bardzo wielu badaczy. Ich prace są publikowane w czasopismach lepszych i gorszych, ale jednak przez ręce jakichś recenzentów to przechodzi, prawda? To może nienajlepszy argument i osobiście bardzo go nie lubię, ale jeśli inni tak robią to chyba jest dobrze jeśli my też tak zrobimy. Szczególnie gdy to “inni” oznacza dziesiątki tysięcy naukowców. Mamy do dyspozycji przynajmniej kilka tysięcy artykułów z różnych dziecin, na które można się powołać opisując wyniki bliskie istotności statystycznej. Polecam zapoznać się z tym artykułem jeśli chcesz wiedzieć więcej: Pritschet, L., Powell, D., Horne, Z. (2016). Marginally significant effects as evidence for hypotheses: Changing attitudes over four decades. Psychological Science

3. Od lat powoli odchodzi się od dychotomizacji wyników na istotne vs nieistotne. Już nie raportujemy wartości p jako p < 0,05 lub p > 0,05 pisząc, że coś jest nieistotne statystycznie lub istotne statystycznie i kropka. W oficjalnym podręczniku APA (6 edycja) jest napisane, że tam gdzie tylko się da raportujemy dokładną wartość p value do 3 miejsc po przecinku wraz z miarą siły efektu oraz przedziałem ufności. Jak pisze Thiese i współpracownicy:

Thiese MS, Ronna B, Ott U. P value interpretations and considerations. J Thorac Dis 2016;8(9):E928- E931. doi: 10.21037/jtd.2016.08.16

4. Raportowanie wyników, które uzyskały istotność jedynie na poziomie p < 0,1 ma także wprost swoje poparcie w literaturze w książce  Research methods and statistics in psychology autorstwa Hugh Coolican’a (szósta edycja z 2014 roku). Przytaczaliśmy już tą pozycję opisując (nie)śmieszne błędy wykładowców i osoby prowadzące ćwiczenia ze statystyki

Jak widzisz jednak sam autor pisze, że mając wynik istotny z przedziału 0,05 < p < 0,1 nie możesz “chwalić się” uzyskaniem efektu. Niestety różnic czy korelacji nie ma. Nie możemy z zadowalającym prawdopodobieństwem napisać, że nie są one dziełem przypadku. Jest zagrażająco duża szansa, że dziełem przypadku właśnie są. Można jednak napisać, że rezultat jest naprawdę bliski standardowego poziomu istotności i poddać go rozważaniom w rozdziale z dyskusją wyników i podsumowaniem.

Projekty badawcze, szczególnie w pracach magisterskich, charakteryzują się niską mocą wynikającą najczęściej z przebadania niedostatecznie dużej grupy osób. W języku angielskim nazywa się takie badania “underpowered”. O mocy testu będziemy pisać w niedalekiej przyszłości.  Teraz postaram się przytoczyć tylko jeden przykład. Wyobraź sobie, że musisz znaleźć ziarenko piasku na podłodze na obszarze jednego metra kwadratowego. To ziarenko na pewno tam jest ale jest naprawdę bardzo małe. Bierzesz szkło powiększające, ale niczego nie znajdujesz. Przypominam, że to ziarenko na pewno tam jest. Prawdopodobnie powiększenie było niedostatecznie duże. Twój test był niskiej mocy. Popełniłeś tzw. błąd II rodzaju czyli przyjąłeś nieprawdziwą hipotezę zerową (H0: Na podłodze nie ma ziarenka). Gdybyś jednak wziął szkło o większym powiększeniu (czyt. przebadałbyś więcej osób i miał większą moc testu) to zapewne byś je znalazł i podjął poprawną decyzję co do hipotezy (przyjął alternatywną mówiącą o tym, że ziarenko piachu jest na podłodze). Oczywiście moc testu zależy nie tylko od liczby badanych osób. Mimo wszystko tak, zależy także od niej.

Jeśli kiedyś będziesz liczyć sobie jakiś prosty test t Studenta czy jakąkolwiek korelację i uzyskasz wynik istotności np. na poziomie p = 0,063 to zrób taki “trick”. W bazie danych skopiuj sobie wszystkie badane osoby i ich wyniki wklej pod spód. Wszystko w zakładce “dane” w SPSSie. Sztucznie powiększysz swoją bazę danych. Będzie 2x większa niż przed chwilą. Policz test jeszcze raz i zobacz jaki wynik uzyskałeś. Zapewne będzie on istotny statystycznie na poziomie p < 0,05. Zauważ, że nie zmyśliłeś żadnych nowych wyników. Współczynnik korelacji czy porównywane średnie będą takie same. Nadal masz “prawdziwe” i rzeczywiste wyniki. Jest ich tylko 2x więcej. Przed chwilą różnice czy związek nie były istotne a teraz już są? No to zmienne są ze sobą skorelowane czy nie? No właśnie! Sztucznie powiększając bazę danych wziąłeś szkło o większym powiększeniu. Oczywiście w rzeczywistym projekcie badawczym nigdy tak nie rób! To oszustwo. Chciałem teraz tylko pokazać, że nie masz co płakać jeśli uzyskasz wynik istotności na poziomie p = 0,051. Nie pisz, że średnie się nie różnią, lub nie ma korelacji i nie “zwijaj interesu”. Nie jest wcale tak źle. Prawdopodobnie gdybyś przebadał trochę więcej osób to różnice byłyby istotne statystycznie.

UWAGA! Jeśli masz zadowalającą liczbę badanych osób* to nie myśl nawet o istotności na poziomie tendencji statystycznej. To będzie wyglądało tak jakbyś szukał na podłodze ziarenka piasku z mikroskopem elektronowym. Mając w ręku takie narzędzie na pewno znajdziesz jakiś “paproch” i będzie on w tym powiększeniu tak duży, że zinterpretujesz go niewłaściwie jako ziarenko piasku.

* – zadowalająca liczba badanych osób? Czyli jaka? Czyli ile? Na to pytanie odpowiem Wam w przyszłości. Teraz mogę tylko wspomnieć o darmowym programie G*Power, który pozwala wyliczyć minimalną liczebność próby. Nagram niejeden tutorial z jego obsługi, ale wszystko w swoim czasie.

GŁOSY PRZECIW:

1. Tak jak wielu prowadzących uczy, że istnieje coś takiego jak wyniki istotne na poziomie tendencji statystycznej tak również wielu stwierdza, albo że nie ma czegoś takiego, albo wręcz, że jest to istne zło wcielone w świecie rzetelnie robionej nauki. Nie potwierdzam, ale i nie zaprzeczam 🙂

2. Podobnie wiele książek ze statystyki nie wspomina o czymś takim jak wyniki bliskie istotności statystycznej. Czy to jednak na pewno jest ich mocna strona? Uważam, że nie. Naprawdę statystyka nie jest czarno-biała. Faktem jest jednak, że “ze świecą szukać” książek opisujących istnienie czegoś takiego jak “istotne na poziomie tendencji statystycznej”. Można mieć tym samym wątpliwości w związku ze stosowaniem takiego stwierdzenia.

3. W wyżej wymienionym już artykule (Marginally significant effects as evidence for hypotheses: Changing attitudes over four decades. Psychological Science.) Pritschet i współpracownicy piszą:

Potentially more troubling is that reporting of marginally-significant results mixes two types of scientific reasoning: Neyman-Pearson decision theory, which relies on hard cutoffs, and Fisher’s hypothesis testing approach, in which a p value can be considered a measure of evidence.

“The concept of marginal significance is dubious under either framework” – ostrzegają autorzy.

Tutaj jednak wyjaśnienia wymagałyby różnice w podejściu Neymana i Pearsona oraz Fishera do testowania hipotez a to nie czas i miejsce. Dla chcących pogłębić wiedzę polecam poszukać w necie.

4. W tym samym artykule autorzy piszą:

Practice of reporting marginally-significant results is problematic for two main reasons. First, the field of psychological science has no agreed-upon standards for how and when results should be reported as marginally significant. The second edition of the American Psychological Association style manual, published in 1974, advised, “Do not infer trends from data that fail by a small margin to reach the usual levels of significance.” This language was soon cut, however, and information about marginal significance has been absent from the manual for over 30 years.

Czyli jak widać, ponoć nawet w standardach APA (choć było to “dawno i nie prawda”) napisano, że nie należy dopatrywać się jakichkolwiek “trendów statystycznych” gdy wyniki istotności faktycznie przekraczają umowny poziom 0,05.

5. W tym wpisie na świetnym blogu autorstwa osób zaangażowanym w tworzenie oprogramowania do analiz statystycznych o nazwie MiniTab autor nie zostawia suchej nitki na badaczach manipulujących słowem tylko po to, aby stworzyć wrażenie, że jednak “coś mi wyszło”. Odnosi się on do wpisu na blogu, który przytaczałem na samym początku (ten, w którym jest ponad 500 określeń na wyniki bliskie istotności statystycznej).

As a student of language, I confess I find the list fascinating…but also upsetting. It’s not right: These contributors are educated people who certainly understand A) what a p-value higher than 0.05 signifies, and B) that manipulating words to soften that result is deliberately deceptive. Or, to put it in words that are less soft, it’s a damned lie.

Autor zwraca uwagę na pewną ważną kwestię. Czy jeśli badacz uzyskuje wynik istotny na poziomie np. p = 0,049 to czy pisze on, że:

– osiągnąłem różnice bliskie nieistotnych statystycznie?

– osiągnąłem różnice prawie nieistotne statystycznie?

– uzyskałem rezultat graniczący z nieistotnym?

Nie. Dlaczego nie? No skoro wysilamy się językowo w jedną stronę to powinniśmy chyba obiektywnie zachowywać się podobnie w przeciwnej sytuacji? Chociaż… tak sobie teraz myślę, że przecież większość realizowanych badań ma na celu właśnie odrzucenie hipotezy zerowej i przyjęcie alternatywnej. Dam sobie uciąć rękę, że w jakichś badaniach, które mają na celu nieodrzucanie hipotezy zerowej znajdą się badacze, którzy właśnie przy powyższym wyniku p value pisaliby, że jest on prawie nieistotny więc praaaaawie można przyjąć hipotezę zerową 🙂

 

Autor wpisu na blogu MiniTab’a sugeruje żeby nie stosować żadnej słowotwórczej ściemy.

But what if your p-value is really, really close to 0.05?

Like, what if you had a p-value of 0.06? 

That’s not significant.

Oh. Okay, what about 0.055?

Not significant.

How about 0.051?

It’s still not statistically significant, and data analysts should not try to pretend otherwise. A p-value is not a negotiation: if p > 0.05, the results are not significant. Period.

So, what should I say when I get a p-value that’s higher than 0.05?  

How about saying this? “The results were not statistically significant.” If that’s what the data tell you, there is nothing wrong with saying so.

I ma chłop rację! Przyznaję! Jednak uważam też, że w całej zbudowanej przez nas narracji powinniśmy jednak p value interpretować jako spektrum różnych wartości z przedziału od 0 do 1 a nie tylko mniejsze/większe od 0,05. Dajmy za przykład rasę człowieka. Dwie popularne to rasa biała i rasa czarna. Albo jest taka, albo jest taka. Koniec i kropka. Albo p jest większe od 0,05 albo nie jest. Koniec i kropka. Dobrze. Wiemy jednak, że Afroamerykanie mogą różnić się odcieniem swojej “czarnej” skóry (w cudzysłowie bo ona najczęściej jest brązowa a nie czarna :). Są czarnoskórzy którzy mają kakaowy odcień skóry (i to z dużą domieszką mleka), są trochę ciemniejsi (bardzo mocno brązowi), a są też tacy naprawdę bardzo ciemni, aż mocno ciemno-granatowi.

 

Cóż radzimy? Przede wszystkim raportuj wyniki zgodnie ze standardem APA, a ten zaleca zapisywanie nie tylko statystyki testu (np. tF, lub U) i istotności, ale również miarę siły efektu i przedział ufności. Zatem poprawnie zapisany wynik testu t Studenta będzie wygladał NIE TAK:

t(47) = 4,04; p < 0,001

TYLKO TAK

t(47) = 4,04; p < 0,001; ds = 1,16; 95% CIróżnicy [0,41;1,24]

jak zrobiła to Shneider z naszymi wykładowcami z SWPSu w artykule: Weighty data: importance information influences estimated weight of digital information storage devices.

Nie ma potrzeby pisać, że wynik jest bliski istotności statystycznej bo to przecież widać. Dobrze zaraportowane wyniki badań informują o liczebności próby, o wyniku wartości p, o sile efektu oraz przedziałach ufności. Zbędna jest zatem interpretacja i informowanie o czymś oczywistym. Ewentualnie dobrym miejscem na wspomnienie o wynikach bliskich istotności jest dyskusja wyników. Tam można wspomnieć o efektach, które mają prawo wystąpić w kolejnych badaniach, gdybyśmy np. dokonali serii replikacji zmieniając przecież badaną próbę. Wracając do przykładu z kolorem skóry. W rozdziale z wynikami, który musi zawierać rzetelny i precyzyjny opis rezultatów ma być “krótka piłka” – wynik/człowiek jest albo biały albo czarny. W dyskusji wyników z kolei można już sobie podebatować jak bardzo ktoś jest biały lub jak bardzo ktoś jest czarny.

My osobiście piszemy jednak o istotności na poziomie tendencji statystycznej nawet w rozdziale z wynikami, ale tylko gdy badanie zostało przeprowadzone na nielicznej próbie (np. gdy w porównywanych grupach jest mniej niż ok 25 obserwacji). Nigdy nie robimy jednak tego, gdy przebadaliśmy należytą liczbę osób. Gdy w Twoim badaniu wzięło udział 180 osób a Ty liczysz zwykłą korelację między dwiema zmiennymi to nie pisz o tendencji statystycznej. To małe “oszustwo” i już zbyt hardcore’owe naciąganie rzeczywistości do swoich potrzeb (uzyskania wyniku istotnego statystycznie).

Nie opowiadamy się po żadnej ze stron. Wspieramy obie. W naszej codziennej praktyce, jeśli badanych jest naprawdę mało to stosujemy pojęcie istotności na poziomie tendencji statystycznej. Z kolei, gdy badanych jest sporo to tego nie robimy, ale wpsominamy o tym na video tutorialu, który nagrywamy dla naszych klientów. Nasze zalecenie dla Ciebie zależy od tego kim jesteś. Czy studentem piszącym magisterkę, w której powinieneś “pochwalić się” dostrzeżeniem wyniku bliskiego istotności statystycznej, czy może profesorem z ogromnym stażem, który nie musi już niczego udowadniać a jedynie napisać dobry artykuł bez używania sformułowań, które w jego przypadku ewentualnie mogą narazić go na śmieszność.

Co zatem zalecamy? Młodym adeptom psychologii czy po prostu młodym naukowcom, którzy często robią “słabe” badania (mała próba i/lub kiepski dobór badanych) proponuję jednak wspominać o wynikach istotnych na poziomie tendencji statystycznej. Może nie w rozdziale z wynikami a w ich dyskusji i podsumowaniu. Wszystkim bardziej doświadczonym badaczom proponuję po prostu robić dobre badania i nie stosować jakiejś słowotwórczej ekwilibrystyki. Zanim zaczniecie robić badanie skorzystajcie z G*Power’a i policzcie minimalną liczebność próby. Znam Was jednak wielu i wiem jak bardzo cierpicie, gdy jakieś kiepskie czasopismo (które uznawane jest za świetne) nie chce opublikować Waszych badań ponieważ potwierdziły się 2 hipotezy z 5. Róbmy jednak dobrą naukę. Przede wszystkim tam gdzie się tylko da raportujcie miarę siły efektu oraz przedział ufności. A jak chcesz żeby było lepiej niż dobrze to obliczaj jeszcze moc testu i ją również raportuj.

Bardzo (nie)śmieszne błędy wykładowców metodologii i statystyki

Mama zawsze mówiła “ucz się na błędach”. No to się uczymy 🙂 Szkoda, że to błędy Waszych wykładowców i osób prowadzących zajęcia na wyższych uczelniach prywatnych lub uniwersytetach.

Wstępna notka od autora:

1. Wpis dotyczy przede wszystkich uczelni kształcących na kierunkach humanistycznych, społecznych, medycznych oraz przyrodniczych.

2. Wpis nie ma na celu poniżania, “hejtu”, deprecjacji a jedynie unaocznienie pewnego zjawiska, które w świecie wielu uczelni jest faktem – zjawisko to nazywa się “niska jakość dydaktyki w zakresie statystyki stosowanej w badaniach naukowych”.

Na naszej drodze, w szczególności jako korepetytorzy, natykamy się na ogrom błędów, które popełniają wasi wykładowcy. Oczywiście “ogrom” to pojęcie względne. Na pewno więcej osób uczy dobrze niż źle, ale z mojego punktu widzenia liczba błędów jest zatrważająca. Ponadto nie mamy przecież dostępu do wszystkich materiałów dydaktycznych w Polsce. Nie chodzimy na wszystkie zajęcia ze statystyki, na każdej uczelni, do każdego wykładowcy. Aż strach pomyśleć, ile nieprawdy zostało Wam sprzedane (bo obecnie jakieś 80% wszystkich studentów płaci za studia) i co najgorsze – ile nieprawdy będziecie przez to głosić dalej. Może nawet, gdy już sami będziecie prowadzić korepetycje, staniecie się doktorantami, doktorami, może wykładowcami lub promotorami. Podkreślam jednak, że opisane niżej sytuacje są w mniejszości. Czy jednak jeśli chirurg zaszyje nożyczki w jamie brzusznej pacjenta raz na 1000 przypadków to oznacza, że możemy na to machnąć ręką i powiedzieć sobie w duchu “eeee tam, nie ma co się człowieka czepiać”?  Chyba nie.

Wymagajmy dużo od osób, których stanowiska pozwalają nam dużo od nich wymagać.

Jedno z takich stanowisk to zdecydowanie wykładowca prywatnej uczelni wyższej lub uniwersytetu. Odgórnie zakładamy, że taka osoba:

1. Nie jest w tym miejscu, w którym jest, przez przypadek

2. Przyłożyła się do przygotowania wykładu lub materiałów dydaktycznych. To jej praca.

Prosząc w mięsnym o kurę na rosół masz prawo wymagać otrzymania kury, a nie 30 gram szynki parmeńskiej, prawda? Prosząc pomocnika na stacji benzynowej o “bezołowiową do pełna” masz prawo wymagać, że w baku Twojego samochodu znajdzie się benzyna bezołowiowa a nie płyn do spryskiwaczy, prawda? Czyli również na zajęciach ze statystyki jeśli ktoś mówi, że właśnie pokaże Ci jak zaraportować wynik testu t Studenta wg standardu APA masz prawo wymagać, że za chwilę dostaniesz wzór zapisu wyniku testu t Studenta w standardzie APA. Jako, że rzeczywistość nie jest tak piękna, na miłość boską, proszę Was, bądźcie uważni, studiujcie, czyli zgłębiajcie widzę i nie “łykajcie” wszystkiego co się Wam poda na wykładzie lub ćwiczeniach jak młode pelikany. Włączcie krytyczne myślenie. Przyda Wam się w nadchodzącej przyszłości – w sumie to przyda Wam się aż do śmierci. Pamiętacie przykład studentki, która w pracy domowej nie odpowiedziała “zgodnie z kluczem” choć poprawnie i jej ocena została obniżona? Walczcie o swoje bo najczęściej jest o co! Tutaj wspomniany wpis i historia biednej studentki:

https://pogotowiestatystyczne.pl/median-split/

Przy okazji jest to fajny materiał do nauki przed kolokwium ze statystyki podstawowej.

Poniekąd inspiracją do stworzenia tego wpisu był uruchomiony niedawno przez naszego partnera, Małą Psychologię, projekt o nazwie “A DOWODZIK JEST?”. W wielkim skrócie – jesteśmy przez jej autorów zachęcani do WERYFIKOWANIA PRAWDZIWOŚCI INFORMACJI, KTÓRE SĄ NAM SERWOWANE. Więc zaczęliśmy to robić. Weryfikowaliśmy je w literaturze praktycznie zdanie po zdaniu we wszystkich materiałach dydaktycznych jakie nam udostępniliście z zajęć ze statystyki. Doszło do zderzenia marzeń z rzeczywistością, bo okazało się, że mało kto uczy w Polsce statystyki naprawdę dobrze i względnie “bezbłędnie”. Wiele kwestii w analizie statystycznej i raportowaniu wyników jest subiektywnych. Wiemy to i oczywiście wzięliśmy na to poprawkę! Za chwilę zobaczysz jednak, że niektórym nie chce sięgnąć się nawet do oficjalnego podręcznika ze standardami APA prowadząc wykłady o … standardzie APA. Kiedyś mówiło się “ale jaja”, później  LOL, następnie XD . Teraz nie wiem jaki jest zwrot na śmiech przez łzy lub płacz ze śmiechu.

W KTÓRĄ STRONĘ TEN “DZIUBEK” > ? <

Zaczniemy od ogromnego problemu z rozróżnianiem znaków mniejszości i większości czyli > oraz <. Wielu studentów ma z tym kłopot. Muszą się porządnie skoncentrować żeby wybrać właściwy znak. Szczególnie na kolokwium, które każdemu odbiera rozum. Niby banał, niby nie. Nie mnie oceniać. Mam jednak prawo wymagać by mój wykładowca wiedział jak używać tych znaków i uczył mnie z farmaceutyczną precyzją jak robić to dobrze.

Wynik współczynnika r Pearsona z zakresu 0,3 < r > 0,5 to jaki wynik Waszym zdaniem? Czy nie powinno być 0,3 < r < 0,5? Ktoś na pewno powie “booooooooooosz” pomyliło się kobiecie (bo to była Pani Wykładowca), co się czepiasz człeku marny? OK. Trochę się czepiam, ale wiesz dlaczego? Dlatego, że moja studentka, którą przygotowywałem do egzaminu wpatrywała się w ten slajd 3 godziny i na dzień przed egzaminem nie wiedziała już kto tu jest idiotą a kto się pomylił. Rwała włosy z głowy i “płakała”, że polegnie na tak prostej rzeczy na egzaminie. Jak wiemy 1 punkt potrafi zaważyć na wszystkim. Slajdy z zajęć to przecież świętość i pomyłek na nich nie ma. Na pewno nie takie banalne.  No dobra, to pewnie przypadek.

Dobra. To co chcesz teraz? Ten sam błąd, ale u innego wykładowcy czy może inny błąd tego samego wykładowcy? Mam tego “do wyboru do koloru”. Pozwolę sobie opisać ten sam błąd, ale u kogoś innego choć z tej samej, świetnej uczelni.

Co tu jest nie tak?

Wartość “p” powinna być mniejsza od 0,001. Powinno być zatem p < 0,001. Znaczek znów chyba się trochę odwrócił. Prowadząca ćwiczenia pisze w części slajdów poprawnie, a w części niepoprawnie. Wybierz sobie. Czy naprawdę, gdy czesne wynosi ok 9000zł rocznie to nie macie problemu z tym, że dostajecie usługę dydaktyczną po prostu niskiej jakości? Wiedza niskiej jakości, która później jest sprawdzana i gdy powielana jest niska jakość to dostajecie wysoką ocenę i idziecie w świat z przekonaniem, że nieprawda jest prawdziwa. Rzeczywiście – “warte każdych pieniędzy!”. Uważam, że podobnie jak złą diagnozą chorego dziecka możecie równie wiele krzywdy wyrządzić światu “złą statystyką”. Co, może myślisz, że na wyższych etapach edukacji takich błędów się nie popełnia? Nie powiela ich? A ten wpis już czytałeś – JAK NIE PREZENTOWAĆ WYNIKÓW SWOICH BADAŃ ?

A ten wpis na naszym fanpejdżu widziałeś?

Mało? No to lecimy z grubszym kalibrem. Siła efektu w teście chi kwadrat. Najczęściej dla tabel 2×2 wyliczany jest współczynnik phi Youle’a a dla tabel większych niż 2×2 V Cramera. Po prawej prezentacja z zajęć. Zatem jeśli moja siła efektu wynosi 0,67 to jest to efekt o umiarkowanej sile? Tak mogę napisać w pracy mgr., doktoracie czy artykule naukowym? A DOWODZIK JEST? Bo ja to mam dowodzik, że jest inaczej 🙂 Oto on (niżej po prawej)

Siła efektu dla tabel krzyżowych ma różne progi w zależności od wielkości takiej tabeli. Gdy mamy np. tabelę 2×2, 2×3, 2×4 itd. patrzymy na pierwszy rząd, który już sam w sobie różni się od wytycznych prowadzącego. Jeśli tabela jest większa jak np. 3×3 lub 4×7 to patrzymy na kolejne rzędy. Już mniejsza o to jakie bo to nie jest wpis z instrukcjami na temat miary siły efektu w teście chi kwadrat. Powyższy dowód znajduje się w książce Research methods and statistics in psychology autorstwa Hugh Coolican’a (szósta edycja z 2014 roku).  Chcę przy jego użyciu pokazać, że płacisz (choćby tylko swoim czasem a nie pieniędzmi) za przekazywanie Ci ściemnionych informacji przez co w przyszłości narazisz się śmieszność osób, które jakimś cudem trafiły na dobrego wykładowcę ze staty. Oczywiście, gdy pochwalisz się swoja nowo nabytą wiedzą w pracy dyplomowej lub artykule naukowym.

Cząstkowe (choć nie tylko) eta kwadrat. To jakieś czary?!

Nadal pozostajemy przy sile efektu. Tym razem ta sama uczelnia, ale inny wykładowca i inna miara siły efektu – eta kwadrat. Znana Wam szczególnie w powiązaniu z analizą wariancji. I słusznie, choć można ją liczyć także w przypadku innych testów statystycznych (na przykład przy teście Manna-Whitney’a o czym piszą autorzy artykuły przytaczanego niżej w tym akapicie). Po prawej macie dwa slajdy dotyczące interpretacji ety kwadrat od dwóch różnych wykładowców z tej samej uczelni. Czy naprawdę tak trudno jest wystandardyzować te prezentacje i korzystać z tych samych ale poprawnych? Ja wiem, że ktoś mógł się pomylić, ale po co w ogóle dawać sobie pole do popisu dla pomyłek skoro można skorzystać z poprawnych prezentacji kolegi z pracy? Czy to jakaś ujma na honorze czy totalny nielegal, że nikt tego nie praktykuje? Przykład na górze pokazuje, że prowadząca pomyliła etę kwadrat z miarą siły korelacji (chyba bo innego tropu nie łapię). To r Pearsona można interpretować tak, że do 0,2-0,3 to efekt słaby, od 0,3 do 0,5 to korelacja umiarkowanie silna a od 0,5 w górę aż do 1 to związek silny lub bardzo silny. Etę kwadrat interpretuje się BARDZO MOCNO inaczej. Już od 0,14 mówi się o efekcie o dużej sile. Wszystko jest bardzo przystępnie opisane tutaj: Fritz, C. O., Morris, P. E., Richler, J. J. (2012). Effect Size Estimates: Current Use, Calculations, and Interpretation.  Journal of Experimental Psychology: General, 141, 2-18. doi: 10.1037/a0024338. Rozumiem, że można się “potknąć” tworząc slajdy po 19 godzinach pracy na szóstym etacie (bo przecież na uczelni płacą marne tysiące złotych a nie miliony, na które zasługuję) ale chyba zanim zaczniemy kogoś kształcić na renomowanej uczelni to sprawdzamy co tam sobie po omacku stworzyliśmy? Czy to tylko my jesteśmy jacyś dziwni i sprawdzamy nasze prezentacje po 10 razy zanim pokażemy je światu?

Jaki jest Pan Bonferroni? Konserwatysta czy liberał?

Porzucamy już kontrowersje w sferze siły efektu i powoli zbliżamy się do wyżyn nieogarniania tematu. Bo jak można nazwać sytuację, w której uczysz statystyki, Twoja koleżanka z uczelni też jej uczy i napisała o niej nawet fajną książkę (sytuacja hipotetyczna) a Ty i tak źle uczysz? Czyli nawet nie musisz się męczyć i klikać w poszukiwaniu jakiejś beznadziejnej prawdy w internecie lub podręcznikach. Wystarczy, że ją zapytasz. Ba! Nie pytaj. Poproś ją o jej slajdy z zajęć. Trochę parafrazy, trochę zmiany szyku zdania i nowe prezentacje jak się patrzy.

Poniżej popis na temat testu post hoc Bonferroniego. Wykładowca uczy, że jest to najmniej konserwatywny test czyli najbardziej liberalny. Zdaniem wykładowcy gdy go wykorzystacie to najłatwiej będzie Wam uzyskać różnice istotne statystycznie. Po pierwsze – to nie prawda. Autorka chciała chyba napisać o teście NIR (Najmniejszej Istotnej Różnicy) który faktycznie jest najmniej konserwatywny (najbardziej ochoczo pokazuje istotne różnice) czyli inaczej – jest najbardziej liberalny. Po drugie – to nie prawda :). Test Bonferroniego nie tyle nie jest najmniej konserwatywny co wręcz przeciwnie – jest mocno konserwatywny (szczególnie gdy porównujemy między sobą 4 czy 5 grup lub nawet więcej).

 

Jak jest w rzeczywistości?

Nie trzeba szukać daleko.

Wystarczy pokazać stary, dobry Statystyczny Drogowskaz Sylwii Bedyńskiej. Drugi (różowy) tom i strona 47.

Dowodzik jest? Jest!

WOW. Taki czepialski. WOW

Czuję, że z każdym przykładem rośnie szansa, że jednak ktoś pomyśli “JAK ON SIĘ CZEPIA!”. Szanuję. Możesz mieć takie wrażenie jeśli statystyka i jej właściwe nauczanie jest dla Ciebie tak ważne jak dla ok 80% studentów – wcale. W moim świecie, i tak powinno być też w świecie wykładowców statystyki, takie błędy można porównać do nalania noworodkowi bimbru zamiast mleka, albo zaoferować staruszce, że się ją przeprowadzi przez jezdnię, a tak naprawdę to wepchnie się ją pod najbliższy jadący samochód. Są rzeczy, których się nie robi. Po prostu. Oto właśnie one.

 

Shapiro-Wilk czy Kołmogorow-Smirnow?

Zmienimy ostatni raz temat i zaraz przechodzimy do standardów APA. Jeszcze tylko temat wielkości próby przy testach normalności rozkładu. Dwa najbardziej popularne testy sprawdzające czy rozkład zmiennej odbiega istotnie statystycznie od normalnego czy nie to test Kołmogorowa-Smirnowa i Shapiro-Wilka. Ten pierwszy stosujemy dla większych prób (gdy w bazie danych mamy sporo badanych osób) a ten drugi dla prób mniej licznych (mało badanych osób). Oto jakie kryterium podziału zasugerowała swoim studentom (również psychologii) jedna z pań wykładających statystykę i metodologię badań.

N = 2000?

Serio? Albo niech ktoś mnie uszczypnie albo szybko da jakiś dowodzik 🙂 Mała próba to taka, która ma mniej niż 30 obserwacji. OK, może 50. Dobra, niech będzie nawet i 100. Zaszalejmy! Niech będzie 200! No dobra, ale nie 2000 (słownie: dwa tysiące). Skąd taka liczba? Sylwia Bedyńska w Statystycznym Drogowskazie pisze bodajże o 100 osobach jako kryterium w podjęciu decyzji, którego testu użyć a ja mam poniżej dowód na to, że może być to liczba 50. Niby wartości różne, ale jak ma się 50 do 100 a jak ma się 50 czy 100 do 2000? 🙂 To jest jakiś dydaktyczny szał i polot stulecia! Ja nie wiem czy jest w ogóle jakiś analityk, który robiłby przy próbie liczącej 2000 osób jakikolwiek test normalności rozkładu. Ja na pewno nie.

Powyższy screenshot pochodzi z książki pt. “A guide to doing statitics with SPSS in second language research” autorstwa Jenifer Larson-Hall.

UWAGA: Wydaje mi się, że kiedyś w jakieś książce widziałem tą informację, że mała próba to taka poniżej 2000 obserwacji. Nie jest to zatem wiedza wyssana z palca. Moja uwaga dotyczy czegoś innego. Dobra dydaktyka polega na tym, że czytasz 100 książek i na tej podstawie uczysz a nie jedną książkę, którą parafrazujesz w swoich slajdach. Co z tego, że jeden autor określa małą próbę jako taką poniżej 2000 obserwacji skoro 99 innych autorów stwierdza, że mała próba to taka poniżej 100 czy 50 badanych osób? Uczciwa dydaktyka wymaga większych nakładów pracy ze strony nadawcy…

Standardy APA – nie do ogarnięcia przez 99,99% wykładowców

OK to teraz na szybko przechodzimy do standardów APA. Tak, chyba nigdy nie widziałem żeby ktoś uczył idealnego raportowania w  tym standardzie. Zawsze albo brakuje kursywy, albo ktoś dziwnie zaokrągla, albo pomija miarę siły efektu i wieeele wiele więcej… Niestety.

Te wszystkie przykłady, które tu opisuję nie są bo to by pokazać jaki to ja jestem świetny, a pół Polski wykładowców jest do bani. Uważam, że na każdym przykładzie czegoś się nauczycie, coś zapamiętacie. Jaki jest inny fajniejszy sposób uczenia się niż na błędach Waszych wykładowców? 🙂

Na co dzień chyba najbardziej dziwią mnie błędy w kwestiach nauczania zapisu wyników analizy statystycznej w standardzie APA. Mamy przecież dostęp do oficjalnego podręcznika. Jest trochę leciwy, ale istnieje. Wystarczy zajrzeć i już wszystko wiadomo. Zobaczcie co wymodził ten wykładowca. Uczy(ł?) zarówno na jednym z większych polskich uniwersytetów jak również w nienajtańszej szkole prywatnej. Na pewno spod jego skrzydeł wylatuje kilkaset młodych adeptów psychologii rocznie. Tym bardziej przykro mi jak widzę na jakim poziomie jest przekazywana przez niego wiedza.

W jednej z uwag w zaprezentowanym wzorcowym raporcie w standardzie APA wykładowca informuje, że kursywą zapisuje się zarówno litery oznaczające parametry (słusznie) jak również same wartości liczbowe (niesłusznie). A dowodzik jest?

Zobaczcie przykładowy opis znajdujący się w książce Standardy edytorskie dla naukowego tekstu empirycznego z zakresu psychologii autorstwa Kingi Piber-Dąbrowskiej. Takie skróty oznaczające parametry statystyczne jak M czy SD zapisuje się kursywą, ale wartości liczbowe już nie. Dowodzik jest? Ja mam. Wykładowca – niekoniecznie.

 

Dalej mamy informację o tym jak podpisuje się tabele. I znów nieścisłość. Naprawdę czy trzeba tak wiele? Wystarczy zerknąć choćby do tej publikacji – Podstawowe standardy edytorskie naukowych tekstów psychologicznych w języku polskim na podstawie reguł APA autorstwa Justyny Harasimczuk i Jana Cieciucha. Nie trzeba szukać w oficjalnym anglojęzycznym podręczniku.

Właśnie z wyżej wymienionego materiału Harasimczuk i Cieciucha można sobie wyeksportować przykładową, wzorcowo podpisaną tabelę, która wygląda tak: 

Podpis oczywiście jest nad tabelą, ale najpierw “normalną” czcionką zapisuje się nazwę obiektu (np. Tabela 6), a dopiero pod spodem i to kursywą zapisuje się jej tytuł. Nie rozumiem jakim cudem wykładowca znów może tak rozmijać się z prawdą. Nie rozumiem tego dlatego, iż przejrzałem ogrom materiałów o standardzie APA i w żadnym nie widziałem tak zatytułowanej tabeli jak ów prowadzący sugeruje. Nikt tak nie uczy więc skąd jego pomysł na to?

Kolejna uwaga i jeszcze więcej “zabawy”

Tak, to prawda, że wszystkie wartości (za wyjątkiem wartości p) prezentuje się do 2 miejsc po przecinku. Druga część komentarza jest jednak nieprawdziwa. W standardach anglojęzycznych (gdzie kropka a nie przecinek oddziela wartości dziesiętne i setne od pełnych liczb) faktycznie nie pisze się zera przed kropką, ale tylko w przypadku wartości, które nie mogą być większe od 1. Czyli zapisując np. średnią szerokość młodego liścia klonu napiszemy M = 0.69 a nie M = .69. Podobnie bardzo niskie wartości statystyki t Studenta zapiszemy w postaci t = 0.98 zamiast t = .98. OK OK, ale mowa tutaj o pisaniu w innym języku. A po polsku? Harasimczuk i Cieciuch wyjaśnia:

Czyli zapisując wyniki w języku polskim zawsze zapisujemy zero przed przecinkiem jeśli to zero wystąpiło. Nawet gdy SPSS Wam go nie wydrukuje w raporcie. Pisząc jednak w języku angielskim do zagranicznego czasopisma oczywiście piszcie np. p = .043 zamiast p = 0,043 (bo jak wiecie p value nie może być większe od 1).

Prawie na koniec. Wytrzymaj jeszcze chwilę 🙂

Przedostatnie 3 uwagi pod rząd. Zobaczcie uwagę nr KK31. Przed chwilą wykładowca pisał, że wszystkie wartości przedstawiamy z dwoma miejscami po przecinku a teraz pisze, że wartości statystyk jak ZtF czy wynik testu chi kwadrat i inne zapisujemy do 3 miejsc po przecinku.

 

Wynik istotności statystycznej statystyki testu czyli p value rzeczywiście zapisuje się do 3 miejsc po przecinku, ale całą resztę oczywiście do 2 miejsc po przecinku a nie do 3! Dowodzik jest? Jest nie tylko w publikacji Harasimczuk i Cieciucha, ale też w oficjalnym podręczniku APA (edycja 6).

Publikacja Harasimczuk i Cieciucha
Oficjalny podręcznik APA

Uwaga KK32 to sama prawda. Nie wklejam więc dowodu, że tak jest bo faktycznie tak jest. Wartość p nie może wynosić 0 więc jeśli SPSS wydrukuje Wam wartość ,000 to w raporcie lub tabeli należy wpisać p < 0,001. Nie wiem tylko dlaczego prowadzący zajęcia każe zapisywać <,001 a sam zapisuje <0,001 (miejsca oznaczone znakiem zapytania). Chyba jednak nie chce żeby było zbyt łatwo 🙂

Uwaga nr 33 jest już bardziej śmieszna niż tragiczna. Zakładam po prostu, że to skrót myślowy prowadzącego. Student to bowiem nie nazwisko a pseudonim Williama Gosseta. Dlaczego używał xywki wyjaśniam tutaj: https://pogotowiestatystyczne.pl/slowniczek/test-t-studenta/

I na koniec jeszcze jedna.

Nie wiem dlaczego prowadzący tak uczy. Może to znów pomyłka wynikająca z nieuwagi czy zmęczenia, a nie z niewiedzy, no ale sorry – znów uważam, że chyba wypadałoby się trochę przyłożyć. Szczególnie, gdy Tworzy się dla studentów jakieś kompendium lub wzorcowe opracowania, na których studenci, jak sama nazwa wskazuje, będą się później wzorować.

 

Distinct of freedom? A nie degrees of freedom? Google są tak popularne a tak niewykorzystywane. Może wykładowca myślał o swojej własnej publikacji? Chyba jednak sprawdzał cały raport przed dostarczeniem go studentom? Dziwna sprawa. Pamiętajcie, że skrót DF pochodzi z ang. degrees of freedom czyli w wolnym tłumaczeniu (i nie tylko) – stopnie swobody 🙂

 

Doooobra, wiecie co?  Nie chce mi się już więcej pisać. Mam tych przykładów naprawdę bardzo dużo a wpis i tak wyszedł już gigantyczny. Może innym razem. Teraz zajmę się fajnym wpisem o najbardziej absurdalnych uwagach promotorów lub recenzentów do Waszych prac dyplomowych. Pospadacie z krzeseł. Obiecuję.

Naprawdę w statystyce wiele kwestii jest bardzo subiektywnych. Jedni piszą, że test Shapiro-Wilka liczymy jak próba jest mniejsza niż 100, inni niż 50 a ktoś jeszcze inny, że jak mniejsza niż 30. Naprawdę można znaleźć w literaturze wiele sprzecznych treści. Jednak:

  1. Są jednak pewne ich granice i wszystko co wyżej opisałem nie pozostawia złudzeń, że Ci wykładowcy albo nie mają pojęcia o czym uczą, albo mają Was głęboko w dupie dopóki hajs się zgadza.
  2. W miejscach, w których subiektywizm w podejmowaniu statystycznych decyzji zaczyna odgrywać zbyt dużą rolę trzeba koniecznie powiedzieć o tym studentowi i wskazać mu możliwe alternatywy. Nie piszę tutaj o rozkminianiu przez pół semestru miary siły efektu d Cohena (a można), ale o dydaktycznej uczciwości.

 

Jeszcze 2 małe uwagi.

1. Nie mogę powiedzieć Wam z jakich uczelni pochodzą te błędy, ale gwarantuję, że wybrałem tylko te duże, znane i drogie 🙂

2. Materiały w formie screenshotów zostały pozyskane oraz upublicznione bez zgody i wiedzy autorów. Wykorzystuję je jednak zgodnie z prawem cytatu. Paradoksalnie jednak nie podaję kto jest ich autorem mając na uwadze dobre imię wykładowców oraz uczelni, na których pracują. Nie chcę, aby w wiekszości dużych polskich miast zaczęły płonąć opony… Jeśli jednak jakiś autor czuje się pokrzywdzony z uwagi na fakt, iż jego imię i nazwisko nie widnieje pod screenshotem z chęcią je tam umieszczę.