fbpx

Blog

START | BLOG

Bardzo (nie)śmieszne błędy wykładowców metodologii i statystyki

1 października 2018 | Autor: Pogotowie Statystyczne

Mama zawsze mówiła “ucz się na błędach”. No to się uczymy 🙂 Szkoda, że to błędy Waszych wykładowców i osób prowadzących zajęcia na wyższych uczelniach prywatnych lub uniwersytetach.

Wstępna notka od autora:

1. Wpis dotyczy przede wszystkich uczelni kształcących na kierunkach humanistycznych, społecznych, medycznych oraz przyrodniczych.

2. Wpis nie ma na celu poniżania, “hejtu”, deprecjacji a jedynie unaocznienie pewnego zjawiska, które w świecie wielu uczelni jest faktem – zjawisko to nazywa się “niska jakość dydaktyki w zakresie statystyki stosowanej w badaniach naukowych”.

Na naszej drodze, w szczególności jako korepetytorzy, natykamy się na ogrom błędów, które popełniają wasi wykładowcy. Oczywiście “ogrom” to pojęcie względne. Na pewno więcej osób uczy dobrze niż źle, ale z mojego punktu widzenia liczba błędów jest zatrważająca. Ponadto nie mamy przecież dostępu do wszystkich materiałów dydaktycznych w Polsce. Nie chodzimy na wszystkie zajęcia ze statystyki, na każdej uczelni, do każdego wykładowcy. Aż strach pomyśleć, ile nieprawdy zostało Wam sprzedane (bo obecnie jakieś 80% wszystkich studentów płaci za studia) i co najgorsze – ile nieprawdy będziecie przez to głosić dalej. Może nawet, gdy już sami będziecie prowadzić korepetycje, staniecie się doktorantami, doktorami, może wykładowcami lub promotorami. Podkreślam jednak, że opisane niżej sytuacje są w mniejszości. Czy jednak jeśli chirurg zaszyje nożyczki w jamie brzusznej pacjenta raz na 1000 przypadków to oznacza, że możemy na to machnąć ręką i powiedzieć sobie w duchu “eeee tam, nie ma co się człowieka czepiać”?  Chyba nie.

Wymagajmy dużo od osób, których stanowiska pozwalają nam dużo od nich wymagać.

Jedno z takich stanowisk to zdecydowanie wykładowca prywatnej uczelni wyższej lub uniwersytetu. Odgórnie zakładamy, że taka osoba:

1. Nie jest w tym miejscu, w którym jest, przez przypadek

2. Przyłożyła się do przygotowania wykładu lub materiałów dydaktycznych. To jej praca.

Prosząc w mięsnym o kurę na rosół masz prawo wymagać otrzymania kury, a nie 30 gram szynki parmeńskiej, prawda? Prosząc pomocnika na stacji benzynowej o “bezołowiową do pełna” masz prawo wymagać, że w baku Twojego samochodu znajdzie się benzyna bezołowiowa a nie płyn do spryskiwaczy, prawda? Czyli również na zajęciach ze statystyki jeśli ktoś mówi, że właśnie pokaże Ci jak zaraportować wynik testu t Studenta wg standardu APA masz prawo wymagać, że za chwilę dostaniesz wzór zapisu wyniku testu t Studenta w standardzie APA. Jako, że rzeczywistość nie jest tak piękna, na miłość boską, proszę Was, bądźcie uważni, studiujcie, czyli zgłębiajcie widzę i nie “łykajcie” wszystkiego co się Wam poda na wykładzie lub ćwiczeniach jak młode pelikany. Włączcie krytyczne myślenie. Przyda Wam się w nadchodzącej przyszłości – w sumie to przyda Wam się aż do śmierci. Pamiętacie przykład studentki, która w pracy domowej nie odpowiedziała “zgodnie z kluczem” choć poprawnie i jej ocena została obniżona? Walczcie o swoje bo najczęściej jest o co! Tutaj wspomniany wpis i historia biednej studentki:

https://pogotowiestatystyczne.pl/median-split/

Przy okazji jest to fajny materiał do nauki przed kolokwium ze statystyki podstawowej.

Poniekąd inspiracją do stworzenia tego wpisu był uruchomiony niedawno przez naszego partnera, Małą Psychologię, projekt o nazwie “A DOWODZIK JEST?”. W wielkim skrócie – jesteśmy przez jej autorów zachęcani do WERYFIKOWANIA PRAWDZIWOŚCI INFORMACJI, KTÓRE SĄ NAM SERWOWANE. Więc zaczęliśmy to robić. Weryfikowaliśmy je w literaturze praktycznie zdanie po zdaniu we wszystkich materiałach dydaktycznych jakie nam udostępniliście z zajęć ze statystyki. Doszło do zderzenia marzeń z rzeczywistością, bo okazało się, że mało kto uczy w Polsce statystyki naprawdę dobrze i względnie “bezbłędnie”. Wiele kwestii w analizie statystycznej i raportowaniu wyników jest subiektywnych. Wiemy to i oczywiście wzięliśmy na to poprawkę! Za chwilę zobaczysz jednak, że niektórym nie chce sięgnąć się nawet do oficjalnego podręcznika ze standardami APA prowadząc wykłady o … standardzie APA. Kiedyś mówiło się “ale jaja”, później  LOL, następnie XD . Teraz nie wiem jaki jest zwrot na śmiech przez łzy lub płacz ze śmiechu.

W KTÓRĄ STRONĘ TEN “DZIUBEK” > ? <

Zaczniemy od ogromnego problemu z rozróżnianiem znaków mniejszości i większości czyli > oraz <. Wielu studentów ma z tym kłopot. Muszą się porządnie skoncentrować żeby wybrać właściwy znak. Szczególnie na kolokwium, które każdemu odbiera rozum. Niby banał, niby nie. Nie mnie oceniać. Mam jednak prawo wymagać by mój wykładowca wiedział jak używać tych znaków i uczył mnie z farmaceutyczną precyzją jak robić to dobrze.

Wynik współczynnika r Pearsona z zakresu 0,3 < r > 0,5 to jaki wynik Waszym zdaniem? Czy nie powinno być 0,3 < r < 0,5? Ktoś na pewno powie “booooooooooosz” pomyliło się kobiecie (bo to była Pani Wykładowca), co się czepiasz człeku marny? OK. Trochę się czepiam, ale wiesz dlaczego? Dlatego, że moja studentka, którą przygotowywałem do egzaminu wpatrywała się w ten slajd 3 godziny i na dzień przed egzaminem nie wiedziała już kto tu jest idiotą a kto się pomylił. Rwała włosy z głowy i “płakała”, że polegnie na tak prostej rzeczy na egzaminie. Jak wiemy 1 punkt potrafi zaważyć na wszystkim. Slajdy z zajęć to przecież świętość i pomyłek na nich nie ma. Na pewno nie takie banalne.  No dobra, to pewnie przypadek.

Dobra. To co chcesz teraz? Ten sam błąd, ale u innego wykładowcy czy może inny błąd tego samego wykładowcy? Mam tego “do wyboru do koloru”. Pozwolę sobie opisać ten sam błąd, ale u kogoś innego choć z tej samej, świetnej uczelni.

Co tu jest nie tak?

Wartość “p” powinna być mniejsza od 0,001. Powinno być zatem p < 0,001. Znaczek znów chyba się trochę odwrócił. Prowadząca ćwiczenia pisze w części slajdów poprawnie, a w części niepoprawnie. Wybierz sobie. Czy naprawdę, gdy czesne wynosi ok 9000zł rocznie to nie macie problemu z tym, że dostajecie usługę dydaktyczną po prostu niskiej jakości? Wiedza niskiej jakości, która później jest sprawdzana i gdy powielana jest niska jakość to dostajecie wysoką ocenę i idziecie w świat z przekonaniem, że nieprawda jest prawdziwa. Rzeczywiście – “warte każdych pieniędzy!”. Uważam, że podobnie jak złą diagnozą chorego dziecka możecie równie wiele krzywdy wyrządzić światu “złą statystyką”. Co, może myślisz, że na wyższych etapach edukacji takich błędów się nie popełnia? Nie powiela ich? A ten wpis już czytałeś – JAK NIE PREZENTOWAĆ WYNIKÓW SWOICH BADAŃ ?

A ten wpis na naszym fanpejdżu widziałeś?

Mało? No to lecimy z grubszym kalibrem. Siła efektu w teście chi kwadrat. Najczęściej dla tabel 2×2 wyliczany jest współczynnik phi Youle’a a dla tabel większych niż 2×2 V Cramera. Po prawej prezentacja z zajęć. Zatem jeśli moja siła efektu wynosi 0,67 to jest to efekt o umiarkowanej sile? Tak mogę napisać w pracy mgr., doktoracie czy artykule naukowym? A DOWODZIK JEST? Bo ja to mam dowodzik, że jest inaczej 🙂 Oto on (niżej po prawej)

Siła efektu dla tabel krzyżowych ma różne progi w zależności od wielkości takiej tabeli. Gdy mamy np. tabelę 2×2, 2×3, 2×4 itd. patrzymy na pierwszy rząd, który już sam w sobie różni się od wytycznych prowadzącego. Jeśli tabela jest większa jak np. 3×3 lub 4×7 to patrzymy na kolejne rzędy. Już mniejsza o to jakie bo to nie jest wpis z instrukcjami na temat miary siły efektu w teście chi kwadrat. Powyższy dowód znajduje się w książce Research methods and statistics in psychology autorstwa Hugh Coolican’a (szósta edycja z 2014 roku).  Chcę przy jego użyciu pokazać, że płacisz (choćby tylko swoim czasem a nie pieniędzmi) za przekazywanie Ci ściemnionych informacji przez co w przyszłości narazisz się śmieszność osób, które jakimś cudem trafiły na dobrego wykładowcę ze staty. Oczywiście, gdy pochwalisz się swoja nowo nabytą wiedzą w pracy dyplomowej lub artykule naukowym.

Cząstkowe (choć nie tylko) eta kwadrat. To jakieś czary?!

Nadal pozostajemy przy sile efektu. Tym razem ta sama uczelnia, ale inny wykładowca i inna miara siły efektu – eta kwadrat. Znana Wam szczególnie w powiązaniu z analizą wariancji. I słusznie, choć można ją liczyć także w przypadku innych testów statystycznych (na przykład przy teście Manna-Whitney’a o czym piszą autorzy artykuły przytaczanego niżej w tym akapicie). Po prawej macie dwa slajdy dotyczące interpretacji ety kwadrat od dwóch różnych wykładowców z tej samej uczelni. Czy naprawdę tak trudno jest wystandardyzować te prezentacje i korzystać z tych samych ale poprawnych? Ja wiem, że ktoś mógł się pomylić, ale po co w ogóle dawać sobie pole do popisu dla pomyłek skoro można skorzystać z poprawnych prezentacji kolegi z pracy? Czy to jakaś ujma na honorze czy totalny nielegal, że nikt tego nie praktykuje? Przykład na górze pokazuje, że prowadząca pomyliła etę kwadrat z miarą siły korelacji (chyba bo innego tropu nie łapię). To r Pearsona można interpretować tak, że do 0,2-0,3 to efekt słaby, od 0,3 do 0,5 to korelacja umiarkowanie silna a od 0,5 w górę aż do 1 to związek silny lub bardzo silny. Etę kwadrat interpretuje się BARDZO MOCNO inaczej. Już od 0,14 mówi się o efekcie o dużej sile. Wszystko jest bardzo przystępnie opisane tutaj: Fritz, C. O., Morris, P. E., Richler, J. J. (2012). Effect Size Estimates: Current Use, Calculations, and Interpretation.  Journal of Experimental Psychology: General, 141, 2-18. doi: 10.1037/a0024338. Rozumiem, że można się “potknąć” tworząc slajdy po 19 godzinach pracy na szóstym etacie (bo przecież na uczelni płacą marne tysiące złotych a nie miliony, na które zasługuję) ale chyba zanim zaczniemy kogoś kształcić na renomowanej uczelni to sprawdzamy co tam sobie po omacku stworzyliśmy? Czy to tylko my jesteśmy jacyś dziwni i sprawdzamy nasze prezentacje po 10 razy zanim pokażemy je światu?

Jaki jest Pan Bonferroni? Konserwatysta czy liberał?

Porzucamy już kontrowersje w sferze siły efektu i powoli zbliżamy się do wyżyn nieogarniania tematu. Bo jak można nazwać sytuację, w której uczysz statystyki, Twoja koleżanka z uczelni też jej uczy i napisała o niej nawet fajną książkę (sytuacja hipotetyczna) a Ty i tak źle uczysz? Czyli nawet nie musisz się męczyć i klikać w poszukiwaniu jakiejś beznadziejnej prawdy w internecie lub podręcznikach. Wystarczy, że ją zapytasz. Ba! Nie pytaj. Poproś ją o jej slajdy z zajęć. Trochę parafrazy, trochę zmiany szyku zdania i nowe prezentacje jak się patrzy.

Poniżej popis na temat testu post hoc Bonferroniego. Wykładowca uczy, że jest to najmniej konserwatywny test czyli najbardziej liberalny. Zdaniem wykładowcy gdy go wykorzystacie to najłatwiej będzie Wam uzyskać różnice istotne statystycznie. Po pierwsze – to nie prawda. Autorka chciała chyba napisać o teście NIR (Najmniejszej Istotnej Różnicy) który faktycznie jest najmniej konserwatywny (najbardziej ochoczo pokazuje istotne różnice) czyli inaczej – jest najbardziej liberalny. Po drugie – to nie prawda :). Test Bonferroniego nie tyle nie jest najmniej konserwatywny co wręcz przeciwnie – jest mocno konserwatywny (szczególnie gdy porównujemy między sobą 4 czy 5 grup lub nawet więcej).

 

Jak jest w rzeczywistości?

Nie trzeba szukać daleko.

Wystarczy pokazać stary, dobry Statystyczny Drogowskaz Sylwii Bedyńskiej. Drugi (różowy) tom i strona 47.

Dowodzik jest? Jest!

WOW. Taki czepialski. WOW

Czuję, że z każdym przykładem rośnie szansa, że jednak ktoś pomyśli “JAK ON SIĘ CZEPIA!”. Szanuję. Możesz mieć takie wrażenie jeśli statystyka i jej właściwe nauczanie jest dla Ciebie tak ważne jak dla ok 80% studentów – wcale. W moim świecie, i tak powinno być też w świecie wykładowców statystyki, takie błędy można porównać do nalania noworodkowi bimbru zamiast mleka, albo zaoferować staruszce, że się ją przeprowadzi przez jezdnię, a tak naprawdę to wepchnie się ją pod najbliższy jadący samochód. Są rzeczy, których się nie robi. Po prostu. Oto właśnie one.

 

Shapiro-Wilk czy Kołmogorow-Smirnow?

Zmienimy ostatni raz temat i zaraz przechodzimy do standardów APA. Jeszcze tylko temat wielkości próby przy testach normalności rozkładu. Dwa najbardziej popularne testy sprawdzające czy rozkład zmiennej odbiega istotnie statystycznie od normalnego czy nie to test Kołmogorowa-Smirnowa i Shapiro-Wilka. Ten pierwszy stosujemy dla większych prób (gdy w bazie danych mamy sporo badanych osób) a ten drugi dla prób mniej licznych (mało badanych osób). Oto jakie kryterium podziału zasugerowała swoim studentom (również psychologii) jedna z pań wykładających statystykę i metodologię badań.

N = 2000?

Serio? Albo niech ktoś mnie uszczypnie albo szybko da jakiś dowodzik 🙂 Mała próba to taka, która ma mniej niż 30 obserwacji. OK, może 50. Dobra, niech będzie nawet i 100. Zaszalejmy! Niech będzie 200! No dobra, ale nie 2000 (słownie: dwa tysiące). Skąd taka liczba? Sylwia Bedyńska w Statystycznym Drogowskazie pisze bodajże o 100 osobach jako kryterium w podjęciu decyzji, którego testu użyć a ja mam poniżej dowód na to, że może być to liczba 50. Niby wartości różne, ale jak ma się 50 do 100 a jak ma się 50 czy 100 do 2000? 🙂 To jest jakiś dydaktyczny szał i polot stulecia! Ja nie wiem czy jest w ogóle jakiś analityk, który robiłby przy próbie liczącej 2000 osób jakikolwiek test normalności rozkładu. Ja na pewno nie.

Powyższy screenshot pochodzi z książki pt. “A guide to doing statitics with SPSS in second language research” autorstwa Jenifer Larson-Hall.

UWAGA: Wydaje mi się, że kiedyś w jakieś książce widziałem tą informację, że mała próba to taka poniżej 2000 obserwacji. Nie jest to zatem wiedza wyssana z palca. Moja uwaga dotyczy czegoś innego. Dobra dydaktyka polega na tym, że czytasz 100 książek i na tej podstawie uczysz a nie jedną książkę, którą parafrazujesz w swoich slajdach. Co z tego, że jeden autor określa małą próbę jako taką poniżej 2000 obserwacji skoro 99 innych autorów stwierdza, że mała próba to taka poniżej 100 czy 50 badanych osób? Uczciwa dydaktyka wymaga większych nakładów pracy ze strony nadawcy…

Standardy APA – nie do ogarnięcia przez 99,99% wykładowców

OK to teraz na szybko przechodzimy do standardów APA. Tak, chyba nigdy nie widziałem żeby ktoś uczył idealnego raportowania w  tym standardzie. Zawsze albo brakuje kursywy, albo ktoś dziwnie zaokrągla, albo pomija miarę siły efektu i wieeele wiele więcej… Niestety.

Te wszystkie przykłady, które tu opisuję nie są bo to by pokazać jaki to ja jestem świetny, a pół Polski wykładowców jest do bani. Uważam, że na każdym przykładzie czegoś się nauczycie, coś zapamiętacie. Jaki jest inny fajniejszy sposób uczenia się niż na błędach Waszych wykładowców? 🙂

Na co dzień chyba najbardziej dziwią mnie błędy w kwestiach nauczania zapisu wyników analizy statystycznej w standardzie APA. Mamy przecież dostęp do oficjalnego podręcznika. Jest trochę leciwy, ale istnieje. Wystarczy zajrzeć i już wszystko wiadomo. Zobaczcie co wymodził ten wykładowca. Uczy(ł?) zarówno na jednym z większych polskich uniwersytetów jak również w nienajtańszej szkole prywatnej. Na pewno spod jego skrzydeł wylatuje kilkaset młodych adeptów psychologii rocznie. Tym bardziej przykro mi jak widzę na jakim poziomie jest przekazywana przez niego wiedza.

W jednej z uwag w zaprezentowanym wzorcowym raporcie w standardzie APA wykładowca informuje, że kursywą zapisuje się zarówno litery oznaczające parametry (słusznie) jak również same wartości liczbowe (niesłusznie). A dowodzik jest?

Zobaczcie przykładowy opis znajdujący się w książce Standardy edytorskie dla naukowego tekstu empirycznego z zakresu psychologii autorstwa Kingi Piber-Dąbrowskiej. Takie skróty oznaczające parametry statystyczne jak M czy SD zapisuje się kursywą, ale wartości liczbowe już nie. Dowodzik jest? Ja mam. Wykładowca – niekoniecznie.

 

Dalej mamy informację o tym jak podpisuje się tabele. I znów nieścisłość. Naprawdę czy trzeba tak wiele? Wystarczy zerknąć choćby do tej publikacji – Podstawowe standardy edytorskie naukowych tekstów psychologicznych w języku polskim na podstawie reguł APA autorstwa Justyny Harasimczuk i Jana Cieciucha. Nie trzeba szukać w oficjalnym anglojęzycznym podręczniku.

Właśnie z wyżej wymienionego materiału Harasimczuk i Cieciucha można sobie wyeksportować przykładową, wzorcowo podpisaną tabelę, która wygląda tak: 

Podpis oczywiście jest nad tabelą, ale najpierw “normalną” czcionką zapisuje się nazwę obiektu (np. Tabela 6), a dopiero pod spodem i to kursywą zapisuje się jej tytuł. Nie rozumiem jakim cudem wykładowca znów może tak rozmijać się z prawdą. Nie rozumiem tego dlatego, iż przejrzałem ogrom materiałów o standardzie APA i w żadnym nie widziałem tak zatytułowanej tabeli jak ów prowadzący sugeruje. Nikt tak nie uczy więc skąd jego pomysł na to?

Kolejna uwaga i jeszcze więcej “zabawy”

Tak, to prawda, że wszystkie wartości (za wyjątkiem wartości p) prezentuje się do 2 miejsc po przecinku. Druga część komentarza jest jednak nieprawdziwa. W standardach anglojęzycznych (gdzie kropka a nie przecinek oddziela wartości dziesiętne i setne od pełnych liczb) faktycznie nie pisze się zera przed kropką, ale tylko w przypadku wartości, które nie mogą być większe od 1. Czyli zapisując np. średnią szerokość młodego liścia klonu napiszemy M = 0.69 a nie M = .69. Podobnie bardzo niskie wartości statystyki t Studenta zapiszemy w postaci t = 0.98 zamiast t = .98. OK OK, ale mowa tutaj o pisaniu w innym języku. A po polsku? Harasimczuk i Cieciuch wyjaśnia:

Czyli zapisując wyniki w języku polskim zawsze zapisujemy zero przed przecinkiem jeśli to zero wystąpiło. Nawet gdy SPSS Wam go nie wydrukuje w raporcie. Pisząc jednak w języku angielskim do zagranicznego czasopisma oczywiście piszcie np. p = .043 zamiast p = 0,043 (bo jak wiecie p value nie może być większe od 1).

Prawie na koniec. Wytrzymaj jeszcze chwilę 🙂

Przedostatnie 3 uwagi pod rząd. Zobaczcie uwagę nr KK31. Przed chwilą wykładowca pisał, że wszystkie wartości przedstawiamy z dwoma miejscami po przecinku a teraz pisze, że wartości statystyk jak ZtF czy wynik testu chi kwadrat i inne zapisujemy do 3 miejsc po przecinku.

 

Wynik istotności statystycznej statystyki testu czyli p value rzeczywiście zapisuje się do 3 miejsc po przecinku, ale całą resztę oczywiście do 2 miejsc po przecinku a nie do 3! Dowodzik jest? Jest nie tylko w publikacji Harasimczuk i Cieciucha, ale też w oficjalnym podręczniku APA (edycja 6).

Publikacja Harasimczuk i Cieciucha
Oficjalny podręcznik APA

Uwaga KK32 to sama prawda. Nie wklejam więc dowodu, że tak jest bo faktycznie tak jest. Wartość p nie może wynosić 0 więc jeśli SPSS wydrukuje Wam wartość ,000 to w raporcie lub tabeli należy wpisać p < 0,001. Nie wiem tylko dlaczego prowadzący zajęcia każe zapisywać <,001 a sam zapisuje <0,001 (miejsca oznaczone znakiem zapytania). Chyba jednak nie chce żeby było zbyt łatwo 🙂

Uwaga nr 33 jest już bardziej śmieszna niż tragiczna. Zakładam po prostu, że to skrót myślowy prowadzącego. Student to bowiem nie nazwisko a pseudonim Williama Gosseta. Dlaczego używał xywki wyjaśniam tutaj: https://pogotowiestatystyczne.pl/slowniczek/test-t-studenta/

I na koniec jeszcze jedna.

Nie wiem dlaczego prowadzący tak uczy. Może to znów pomyłka wynikająca z nieuwagi czy zmęczenia, a nie z niewiedzy, no ale sorry – znów uważam, że chyba wypadałoby się trochę przyłożyć. Szczególnie, gdy Tworzy się dla studentów jakieś kompendium lub wzorcowe opracowania, na których studenci, jak sama nazwa wskazuje, będą się później wzorować.

 

Distinct of freedom? A nie degrees of freedom? Google są tak popularne a tak niewykorzystywane. Może wykładowca myślał o swojej własnej publikacji? Chyba jednak sprawdzał cały raport przed dostarczeniem go studentom? Dziwna sprawa. Pamiętajcie, że skrót DF pochodzi z ang. degrees of freedom czyli w wolnym tłumaczeniu (i nie tylko) – stopnie swobody 🙂

 

Doooobra, wiecie co?  Nie chce mi się już więcej pisać. Mam tych przykładów naprawdę bardzo dużo a wpis i tak wyszedł już gigantyczny. Może innym razem. Teraz zajmę się fajnym wpisem o najbardziej absurdalnych uwagach promotorów lub recenzentów do Waszych prac dyplomowych. Pospadacie z krzeseł. Obiecuję.

Naprawdę w statystyce wiele kwestii jest bardzo subiektywnych. Jedni piszą, że test Shapiro-Wilka liczymy jak próba jest mniejsza niż 100, inni niż 50 a ktoś jeszcze inny, że jak mniejsza niż 30. Naprawdę można znaleźć w literaturze wiele sprzecznych treści. Jednak:

1. Są jednak pewne ich granice i wszystko co wyżej opisałem nie pozostawia złudzeń, że Ci wykładowcy albo nie mają pojęcia o czym uczą, albo mają Was głęboko w dupie dopóki hajs się zgadza.

2. W miejscach, w których subiektywizm w podejmowaniu statystycznych decyzji zaczyna odgrywać zbyt dużą rolę trzeba koniecznie powiedzieć o tym studentowi i wskazać mu możliwe alternatywy. Nie piszę tutaj o rozkminianiu przez pół semestru miary siły efektu d Cohena (a można), ale o dydaktycznej uczciwości.

 

Jeszcze 2 małe uwagi.

1. Nie mogę powiedzieć Wam z jakich uczelni pochodzą te błędy, ale gwarantuję, że wybrałem tylko te duże, znane i drogie 🙂

2. Materiały w formie screenshotów zostały pozyskane oraz upublicznione bez zgody i wiedzy autorów. Wykorzystuję je jednak zgodnie z prawem cytatu. Paradoksalnie jednak nie podaję kto jest ich autorem mając na uwadze dobre imię wykładowców oraz uczelni, na których pracują. Nie chcę, aby w wiekszości dużych polskich miast zaczęły płonąć opony… Jeśli jednak jakiś autor czuje się pokrzywdzony z uwagi na fakt, iż jego imię i nazwisko nie widnieje pod screenshotem z chęcią je tam umieszczę.

Podziel się wiedzą

z innymi

Opinie Klientów

Co o nas sądzą?

Współpracowaliśmy

między innymi z:

Nasi partnerzy