Dan Ariely, profesor Uniwersytetu Duke, to znany ekonomista behawioralny. Zajmuje się psychologicznymi mechanizmami w ekonomii. Jego nowatorskie badania przyniosły mu tytuł profesora, a popularnonaukowe książki – światowy rozgłos. Ma na swoim koncie ponad 470 prac naukowych, a w 2018 roku uznano go za jednego z 50 najbardziej wpływowych żyjących psychologów.
W 2012 roku wraz z Maxem Bazermanem, profesorem administracji Szkoły Biznesowej Harvarda, opublikował wyniki eksperymentów, które dowodziły, że można ograniczyć liczbę oszustw i wyłudzeń za pomocą prostego triku. Obaj naukowcy wykazali, że zamieszczanie formuły „stwierdzam, że podane informacje są zgodne z prawdą” na początku formularza zmniejsza liczbę przypadków, w których ludzie podają informacje nieprawdziwe.
Zwyczajowo takie deklaracje zamieszcza się na końcu dokumentów. Pod wpływem pracy Ariely’ego na początku zaczęły je umieszczać firmy ubezpieczeniowe oraz inne instytucje. Od 2016 roku robią tak amerykańskie urzędy skarbowe. Przełomową pracę badaczy cytowano ponad 400 razy w innych naukowych publikacjach.
Badanie badań, czyli kontrola jakości w nauce
Po latach ci sami naukowcy stwierdzili, że kolejne eksperymenty nie potwierdziły zaobserwowanego przez nich wcześniej efektu. Nie jest to jeszcze nic zdrożnego. Czasem rezultat obserwowany w badaniach jest dziełem przypadku, czasem wad metody badawczej, najczęściej zaś błędów w obliczeniach. Prace naukowe – przynajmniej te rzetelne – właśnie dlatego drobiazgowo opisują przeprowadzane eksperymenty i zastosowane metody statystyczne, aby inne grupy badaczy mogły je powtórzyć i potwierdzić wyniki.
Zaintrygowało to jednak Leifa Nelsona i Josepha Simmonsa, również psychologów behawioralnych. Naukowcy poddali oryginalną pracę z 2012 roku drobiazgowemu badaniu. „Bez cienia wątpliwości” jeden z eksperymentów w niej opisany był sfabrykowany, piszą na blogu „Data Colada”.
Dane cytowane w pracy Ariely’ego pochodziły z firmy ubezpieczeniowej i dotyczyły liczby przejechanych kilometrów. Rozsądek podpowiada, że zmienna ta powinna mieć rozkład normalny, czyli niewiele powinno być wartości skrajnych, a najczęściej winny pojawiać się wartości średnie. Cytowane w pracy liczby wskazują jednak, że klienci firm ubezpieczeniowych pokonują niemal tak samo często dystanse każdej długości – krzywa jest niemal płaska. Ktoś ewidentnie dane zmyślił.
Autorzy oryginalnej publikacji przyznali „badaczom badań”, Nelosonowi i Simmonsowi, rację. Poprosili periodyk, w której została opublikowana („Proceedings of the National Academy of Sciences” czyli PNAS), o jej wycofanie. To rodzaj oficjalnego komunikatu, że badanie było obarczone błędem, rzecz w nauce stosowana, choć rzadko.
Nie wiadomo, jak sfałszowane wyniki znalazły się w pracy
Nie jest jednak jasne, jak sfałszowane dane znalazły się w pracy, czyli kto je tam zamieścił. Autorów było pięciu, czterech twierdzi, że to nie oni. Sam Ariely tłumaczy, że badanie oparto na informacjach dostarczonych przez firmę ubezpieczeniową, która w swoich dokumentach stosowała opisany przez naukowców sposób na ograniczenie oszustw. Ariely deklaruje, że nie miał pojęcia, iż dane zostały sfabrykowane, gdyby zaś to wiedział, nigdy by ich nie wykorzystał w pracy naukowej.
Z jaką firmą wtedy współpracował? Naukowiec zasłania się umowami o poufności i nie ujawnia jej nazwy. Twierdzi, że wszystkie osoby, z którymi miał w owej firmie kontakt, już w niej nie pracują. Oraz że żadna nie pamięta, co się stało prawie dziesięć lat temu.
Ariely kolejny raz mierzy się z zarzutami o nierzetelność
Ariely nie pierwszy raz musi się mierzyć z zarzutami o nierzetelność. W 2008 roku opublikował wyniki eksperymentu, których niezależnemu zespołowi nie udało się nigdy odtworzyć. W ubiegłym zaś miesiącu redaktorzy musieli dodać przypis do jego starej publikacji, bo znaleziono statystyczne nieprawidłowości w badaniu (tym razem z 2004 roku). Ariely stwierdził, że nie ma już źródła oryginalnych danych, by móc je przedstawić.
Pikanterii sprawie dodaje fakt, że ekonomista jest autorem popularnonaukowej książki zatytułowanej „Szczera prawda o nieuczciwości. Jak okłamujemy wszystkich, a zwłaszcza samych siebie” (ukazała się w Polsce nakładem wydawnictwa Smak Słowa w 2017 roku), która gościła na liście bestsellerów „New York Timesa”.
Dan Ariely bagatelizuje zarzuty. Twierdzi, że nauka to proces, który sam się weryfikuje. Sprawa zatacza tymczasem coraz szersze kręgi. Rzuca cień nie tylko na reputację Ariely’ego, lecz także na całą dyscyplinę ekonomii behawioralnej. A w szerszym kontekście nawet na publiczne postrzeganie naukowców i nauki w ogóle.
Wyników większości prac nie udaje się powtórzyć
W 2015 roku tygodnik „Science” opublikował pracę naukową, z której wynikało, że większości eksperymentów naukowych w dziedzinie psychologii nigdy nie udało się powtórzyć. Badacze z Uniwersytetu Wirginii po kierownictwem Briana Noseka powtórzyli 100 badań, których wyniki publikowano w różnych periodykach psychologicznych. Starali się przy tym, aby przeprowadzone przez nich eksperymenty były jak najbliższe oryginalnym. W 60 przypadkach nie uzyskali tego samego rezultatu.
John Ioannidis z Uniwersytetu Stanforda, znany „badacz badań” i ich niedociągnięć, szacuje, że proporcja złych badań naukowych w medycynie jest porównywalna. Około połowy wszystkich publikowanych prac zawiera przesadzone lub całkowicie nieprawdziwe wnioski. Twierdzi też, że liczba bezwartościowych naukowych publikacji może być jeszcze większa w innych dziedzinach niż psychologia i medycyna.
Ioannidis zwrócił na to uwagę już w 2005 roku w opublikowanej na łamach “PLOS ONE” pracy. Dowodził w niej, że (statystycznie rzecz biorąc), prawdopodobieństwo, że wyniki badań naukowych będą błędne, jest większe niż to, że będą prawdziwe.
Czy większość badaczy kłamie? Ależ skąd
Czy to oznacza, że większość naukowców kłamie? Nie, problem polega na statystyce.
W nauce przyjęło się , że wynik badania jest “statystycznie znaczący”, jeśli prawdopodobieństwo, że jest dziełem przypadku, wynosi co najwyżej 5 proc. W nauce nazywa się to „wartością P” i podaje w postaci ułamka dziesiętnego. Badania, które nie spełniają tego wymogu (czyli których wartość P jest wyższa niż 0,05) najczęściej w ogóle nie trafiają do publikacji. Spełniające ten warunek badania zaś często uznawane są za dobre i publikowane.
Jednak nawet wartość P równa 0,05 oznacza, że wciąż istnieje 5 proc. prawdopodobieństwa – czyli jedna szansa na 20 – że wynik badania jest zupełnym przypadkiem. Jeśli zaś zbada się 20 fałszywych hipotez przy założeniu takiej wartości, statystycznie jedna z nich wyda się prawdziwa.
Wartość P określa bowiem tylko prawdopodobieństwo tego, czy uzyskany wynik jest dziełem przypadku. Zupełnie nic nie mówi o tym, czy uzyskany w badaniu wynik jest prawdziwy, czy nie.
Powtarzalność i jeszcze raz powtarzalność
Odpowiedź na takie pytanie – czy wynika badań jest prawdziwy, czy tylko dziełem przypadku – można uzyskać dopiero po przeprowadzeniu wielu takich samych badań w identycznych lub jak najbardziej podobnych warunkach. Dlatego też w nauce niezmiernie istotne jest to, aby eksperyment był odtwarzalny, a publikacje naukowe podawały wszelkie dane, żeby móc opisane badanie powtórzyć.
Przykładem na to, że jeden wynik nie świadczy o prawdziwości przedstawianej w pracy hipotezy, były dwa głośne i kontrowersyjne badania. Pierwsze nad szkodliwością tiomersalu w szczepionkach (który miał wywoływać autyzm), drugie zaś nad szkodliwością modyfikowanej genetycznie kukurydzy (która miała wywoływać nowotwory u szczurów). W kolejnych podobnych badaniach nie uzyskano nigdy ani takich samych, ani nawet podobnych wyników.
W tym sensie Dan Ariely ma więc rację, nauka sama się poprawia. Jednak co innego błędy, a co innego fabrykowanie danych, by pasowały do przestawianej w pracy hipotezy. – Znalezienie dowodów na oszustwo w pracy tak wpływowego naukowca będzie rażące, zwłaszcza dla młodych badaczy, którzy chcą zająć się tą dziedziną – twierdzi Eugen Dimant z Uniwersytetu Pensylwanii.
Źródło: Science