Wiarygodność rewolucji (w języku angielskim, Wiarygodność Revolution ) środki poprawiające wiarygodność badań empirycznych w ekonomii . Jest on pierwotnie stosowany przez ekonomistów Joshua Angrist i Jörn-Steffen Pischke .
W literaturze naukowej dotyczącej ekonomii rewolucja ta jest urzeczywistniana na trzy sposoby . Po pierwsze, metody quasi-eksperymentalne lub eksperymentalne, takie jak różnica w różnicy , zmienne instrumentalne , regresja nieciągłości , eksperymenty naturalne , a nawet eksperymenty losowe stały się znacznie bardziej powszechne . Techniki te umożliwiają (w zasadzie) lepsze rozróżnienie między korelacją a przyczynowością niż te stosowane masowo wcześniej, takie jak wielokrotna regresja liniowa lub VAR . Po drugie, ta rewolucja opiera się na najlepszych praktykach statystycznych, takich jak prezentowanie wielu modeli w celu zmniejszenia ryzyka p-hackingu. Ta oszukańcza praktyka polega na przekopywaniu się do danych i mnożeniu testów, aż przypadkowo zostanie znaleziona znacząca korelacja. Po trzecie, rozwój ten jest ułatwiony dzięki zwiększeniu dostępności danych, co umożliwia testowanie na większych próbkach.
Ta rewolucja wiarygodności umożliwia połączenie ekonomii i nauk medycznych, takich jak epidemiologia . Takie metody są czasami stosowane również w innych naukach społecznych, takich jak socjologia .
Ta rewolucja pozwoliła niektórym mówić o empirycznym punkcie zwrotnym w gospodarce. Ta nazwa jest jednak kwestionowana z dwóch powodów. Z jednej strony sugeruje to, że ekonomiści nie testowali wcześniej swoich teorii, co jest błędne. Z drugiej strony, dla historyczki myśli ekonomicznej Béatrice Cherrier rewolucja ta odzwierciedla nie tyle umasowienie badań empirycznych w ekonomii, ile ich legitymizację, która wcześniej była relegowana poza najbardziej prestiżowe czasopisma naukowe.
W artykule opublikowanym w 2010 r. Hamermesh dokonuje przeglądu próbki artykułów ekonomicznych opublikowanych w latach 60. i 2010. Zauważa, że podczas gdy 51% artykułów ekonomicznych opublikowanych w 1963 r. było czysto teoretycznych, w 2011 r. liczba ta spadła do 20%. Procent artykułów ma zatem charakter empiryczny. Wśród tych 80% artykułów empirycznych możemy wyróżnić dwie główne kategorie artykułów w kolejności ważności. Z jednej strony najpopularniejsze są artykuły wykorzystujące bazę danych stworzoną na potrzeby badania (1) lub istniejącą wcześniej (2). Każda z tych kategorii (1) i (2) stanowi około 30% wszystkich artykułów. Z drugiej strony symulacje (3) i eksperymenty (4) stanowią dwie inne kategorie, z których każda stanowi około 9% całego zbioru artykułów. Pamiętaj, że nie wszystkie te kategorie wzajemnie się wykluczają. Jeśli autor zwraca uwagę na empiryczny zwrot w ekonomii, to nie jest on zbyt precyzyjny co do metod empirycznych faktycznie stosowanych w artykułach.
Empiryczne badanie Henrik Jacobsen Kleven części tekstowej corpus wyrobisk papierów w ekonomii publicznych z National Bureau of Economic Research pozwala udoskonalić tę analizę. Kilka trendów jest bardzo wyraźnych. Po pierwsze, gwałtownie wzrósł udział artykułów zawierających termin statystyczna „ identyfikacja ”, z 0% w 1980 r. do prawie 50% w 2016 r. Podobnie w 1980 r. nie było lub prawie nie było metody podwójnych różnic . Literatura. W 2016 r. cytował je co czwarty artykuł. Wreszcie w 2016 r. quasi-eksperymenty i eksperymenty naturalne były cytowane w 20% artykułów w porównaniu z 10% w przypadku eksperymentów kontrolowanych i laboratoryjnych w 2016 r. Ponownie, metody te były nieobecne w literaturze w 1980 r. Wszystkie te metody mają wspólną cechę bardziej wiarygodne niż proste wielokrotne regresje liniowe lub VAR, które były masowo stosowane wcześniej. Omijają, kosztem nowych założeń, błędy systematyczne, takie jak pominięta zmienna, odwrotna przyczynowość lub związane ze zmianami w specyfikacjach modelu.
Wyniki tych badań empirycznych nie są systematycznie powtarzalne, jak w innych dyscyplinach eksperymentalnych . Aby zapewnić wiarygodność badania empirycznego, należy je kilkakrotnie powtórzyć. Wyniki wstępnego badania i jego replikacje można następnie agregować w metaanalizie i przetwarzać w celu wyeliminowania pewnych błędów systematycznych, takich jak publikacja, w celu dalszego zwiększenia poziomu dowodów. Jest to jednak mniej krytyka niż ograniczenie, a raczej wezwanie do ostrożności.
Jedna z najczęstszych krytyki dotyczy ewolucji zawodu. Ekonomiści spragnieni solidnych wyników zaczęliby szukać „dobrych odpowiedzi, a nie dobrych pytań”. Owszem, powyższe metody są z pewnością pewniejsze, ale też łatwiej je zastosować do odpowiedzi na bardzo konkretne pytania, często lokalne: wpływ wzrostu płacy minimalnej w kraju związkowym, czy polityki w danym regionie. Jednak wiele pytań w ekonomii nie ma takich cech: „jaki będzie skutek wyjścia ze strefy euro”? „Do jakiego poziomu można utrzymać dług publiczny?” „Czy kapitalizm jest kompatybilny z ochroną środowiska?”. Są to jednak absolutnie kluczowe. Zamiast lepiej oprzeć teorię ekonomiczną na dowodach, zwrot empiryczny wywołałby „śmierć” tego ostatniego. Dzisiaj ekonomiści woleli więc studiować zjawiska, których badanie jest dostępne dla ich metody, ale które nie interesują opinii publicznej, niż zajmować się znacznie bardziej palącymi bieżącymi problemami.
Na tę krytykę dwóch ekonomistów, którzy wymyślili termin „rewolucja wiarygodności”, odpowiada, że „małe piłki czasami umożliwiają wygrywanie wielkich gier”. W ten sposób wymieniają ważne zastosowania tych metod w ekonomii pracy lub makroekonomii. Umożliwiają one wiarygodny pomiar wartości niektórych współczynników, takich jak międzyokresowa elastyczność substytucji. Moglibyśmy również przytoczyć pomiar wartości mnożnika budżetowego za pomocą zmiennych instrumentalnych. Mówiąc bardziej ogólnie, takie metody pozwoliłyby i pozwoliły rozstrzygnąć ważne debaty w dyscyplinie według autorów.
Wreszcie, niektóre przeglądy są bardziej specyficzne dla badań z randomizacją. Z jednej strony krytykuje się ich za brak wiarygodności zewnętrznej: czy polityka przetestowana w kraju A przyniesie porównywalny efekt w kraju B? Czy generalizowanie polityki lokalnej nie może doprowadzić do zaniku jej efektów (tzw. efekt równowagi ogólnej)? Na przykład polityka, która poprawia szkolenie w danym regionie, może mieć anulowane skutki, jeśli cały kraj później skorzysta z tego samego programu. Mieszkańcy regionu, w którym początkowo testowano politykę, tracą przewagę. Z drugiej strony, trudno jest stworzyć grupę placebo, jak w naukach medycznych podczas losowego eksperymentu w ekonomii. Wreszcie badania z randomizacją zastąpiłyby inne interesujące metody jakościowe. Metoda ta jest jednak przedstawione jako najbardziej wiarygodne, zastaw naukowości tej dyscypliny, na przykład przez Esther Duflo , „Nobla” w dziedzinie ekonomii w 2019 roku.