Część | Ekonomia , statystyka |
---|---|
Kluczowi ludzie |
Ragnar Frisch James Heckman Daniel McFadden |
Ekonometria jest gałęzią ekonomii , której celem jest oszacowanie i badanie modeli biznesowych .
Ekonometria jako dyscyplina powstała w latach 30. XX wieku wraz z utworzeniem Towarzystwa Ekonometrii przez Irvinga Fishera i Ragnara Frischa (1930) oraz stworzeniem czasopisma Econometrica (1933). Od tego czasu ekonometria nadal się rozwija i nabiera coraz większego znaczenia w ekonomii .
Ekonometria teoretyczna skupia się zasadniczo na dwóch pytaniach: identyfikacji i estymacji statystycznej .
Ekonometria stosowana wykorzystuje metody ekonometryczne do zrozumienia obszarów ekonomii, takich jak analiza rynku pracy , ekonomia edukacji lub do testowania empirycznego znaczenia modeli wzrostu.
Ekonometria stosowana wykorzystuje zarówno dane z protokołu eksperymentalnego, czy to z eksperymentu laboratoryjnego czy doświadczenia terenowego , jak i dane bezpośrednio z obserwacji rzeczywistości bez manipulacji przez badacza. Kiedy ekonometr wykorzystuje dane bezpośrednio z obserwacji rzeczywistości, często identyfikuje się naturalne doświadczenia, aby znaleźć sytuację quasi-eksperymentalną. Czasami mówimy o rewolucji wiarygodności , co jest kontrowersyjnym terminem, oznaczającym błyskawiczny rozwój tych metod badawczych w dyscyplinie i ogólnie w ekonomii.
Ekonometria narodziła się około lat 30. XX w. Dziedziczy jednak rozwój statystyk dokonanych w XIX i na początku XX wieku. wraz z utworzeniem Towarzystwa Ekonometrii i Komisji Cowlesa w Stanach Zjednoczonych z jednej strony oraz Wydziału Ekonomii Stosowanej na Uniwersytecie w Cambridge w Wielkiej Brytanii z drugiej.
Niemniej jednak niektórzy autorzy, tacy jak Mary Morgan czy Philippe Le Gall, starali się wykazać, że istniały przed latami 30. XX wieku programy naukowe podobne do ekonometrii, w szczególności poprzez chęć połączenia ekonomii i statystyki. W Anglii , William Stanley Jevons próbował połączyć ekonomię i statystykę w ten sposób. W Stanach Zjednoczonych, Henry Moore Ludwell uczynił podobny wysiłek w 1908 roku we Francji, Le Gall widzi pracę Augustin Cournot , z John Edmond Briaune i Jules Regnault prekursorów ekonometrii w XIX th wieku. Potem uznać drugą generację na początku XX -tego wieku z Lucien marca , Henry Bunle i Marcel Lenoir .
Pierwszą Nagrodę Nobla w dziedzinie ekonomii przyznano w 1969 r. wspólnie dwóm głównym twórcom ekonometrii: Ragnarowi Frischowi i Janowi Tinbergenowi. W latach czterdziestych Cowles Commission, grupa badawcza działająca na Uniwersytecie w Chicago, a następnie na Uniwersytecie Yale, zbudowała podwaliny metody ekonometrycznej w odniesieniu do analizy ekonomicznej, rachunku prawdopodobieństwa i statystyki matematycznej.
Wraz z utworzeniem firmy ekonometrycznej i Komisji Cowlesa ekonometria zyskała ramy instytucjonalne.
Firma ekonometryczna została założona w dniu 29 grudnia 1930w Cleveland .
W 1930 roku , Ragnar Frisch i Irving Fisher założył ekonometrycznych Society ( ekonometryczne Society ), którego głównym celem jest „promowanie badań ilościowych, które mają tendencję do dostosowania punktu widzenia teoretycznego punktu widzenia empirycznego w badaniu problemów gospodarczych” , a następnie w 1933 roku , Frisch stworzony czasopismo Econometrica, które stało się głównym wehikułem myśli ekonometrycznej.
Praca Cowles Commission for Research in Economics (grupa badawcza utworzona w 1932 roku na University of Colorado , która przeniosła się na University of Chicago, a następnie na Yale University) .
Pochodzenie terminu ekonometria przypisuje się Ragnarowi Frischowi . W redakcji pierwszego numeru czasopisma Econometrica określił cele ekonometrii: „Jej głównym celem powinna być promocja badań, które zmierzają do ujednolicenia teoretycznych i empirycznych podejść ilościowych do problemów ekonomicznych i które kierują się konstruktywnym i rygorystycznym myślenie podobne do tego, które dominuje w naukach przyrodniczych ( Frisch 1933 ). "
W 1935 r. Jan Tinbergen przedstawił pierwszy model ekonometryczny na spotkaniu Towarzystwa Ekonometrii Namur . Następnie został zatrudniony przez Ligę Narodów, aby przetestować istotność teorii cyklu koniunkturalnego i opublikował swoje wyniki w 1939 roku. John Maynard Keynes zdecydowanie sprzeciwiał się metodzie Tinbergena.
Pierwszy ważny postęp w ekonometrii pochodzi z formalnego rozwiązania problemu identyfikacji . Mówimy, że model jest identyfikowalny, jeśli wszystkie jego parametry można uzyskać z łącznego rozkładu zmiennych obserwowalnych.
Prace komisji Cowlesa skupiają się na identyfikacji i estymacji modelu równań symultanicznych.
W 1944 Trygve Haavelmo opublikował przełomowy artykuł w Econometrica zatytułowany The Probability Approach in Econometrics, w którym bronił idei, że modele ekonomiczne muszą być probabilistyczne, aby mogły być spójne z danymi.
Lata 60. to rozwój modeli opisujących działalność gospodarczą za pomocą wielkoskalowych układów równań (zwłaszcza prace Lawrence'a Kleina, laureata Nagrody Nobla w dziedzinie ekonomii w 1980 roku, Henri Theila, czy te bardziej metodologiczne Denisa Sargana).
Od połowy lat 70. metody wywodzące się z analizy szeregów czasowych głęboko przeniknęły do ekonometrii (metody George'a EP Boxa i Gwilyma M. Jenkinsa, wielowymiarowe modele dynamiczne i teoria nieprzyczynowości Clive'a Grangera i Christophera Simsa). Mikroekonometria pojawiła się również w latach 70. i 80., w szczególności dzięki pracom Zvi Grilliches, a także Daniela L. McFaddena i Jamesa J. Heckmana, laureatów Nagrody Nobla w dziedzinie ekonomii w 2000 roku.
W latach 60. i 70. rozwój technologii informatycznych doprowadził do powstania modeli makroekonomicznych przeznaczonych do celów prognostycznych . Na przykład model Brookingsa zawiera 400 równań. Po 1970 roku były używane standardowe modele, takie jak Wharton.
Rozwój mocy obliczeniowej komputerów i mikroekonomicznych baz danych pozwolił na rozwój mikroekonometrii z pracami Jamesa Tobina nad modelem tobita , Mundlakiem nad modelami z efektami stałymi (1961), pracami Jamesa Heckmana nad modelami doboru , pracami Daniela McFadden na temat modeli wyboru dyskretnego oraz prace Jamesa Heckmana i Burtona Singera na temat modeli czasu trwania (1984).
Od lat 60-tych jesteśmy świadkami narodzin ekonometrii danych panelowych . Nazywamy dane panelowe, w których obserwujemy jednostkę statystyczną (osobę, firmę, gospodarstwo domowe, państwo) w różnych momentach czasu. Dane te umożliwiają kontrolę indywidualnej heterogeniczności, której nie można zmierzyć za pomocą obserwowanych zmiennych.
Upowszechnienie prac firmy ekonometrycznej we FrancjiMarianne Fischman i Emeric Lendjel przeanalizowali zainteresowanie ekonometrią wśród członków grupy X-CRISE już w latach 30. W istocie podzielają oni z członkami społeczeństwa ekonometrycznego troskę o zrozumienie kryzysu gospodarczego. Robert Gibrat wraz z Georges Guillaume tworzy grupę roboczą ds. ekonometrii w ramach X-Crisis. Regularnie oferuje „Uwagi dotyczące ekonometrii”, dzięki czemu członkowie X-Crisis mogą być na bieżąco. François Divisia uczestniczy w firmie ekonometrycznej. Autorzy wyjaśniają jednak, że X-Crisis był bardziej miejscem upowszechniania pracy ekonometrycznej niż miejscem badań.
W badaniu opublikowanym w 2006 roku ekonomiści Kim, Morse i Zingales sklasyfikowali artykuły opublikowane w głównych czasopismach ekonomicznych, które otrzymały dużą liczbę cytowań, według tego, czy ich główny wkład był teoretyczny, empiryczny czy metodologiczny. Na początku lat 70. tylko 11% najczęściej cytowanych artykułów miało charakter empiryczny, podczas gdy pod koniec lat 90. 60% najczęściej cytowanych artykułów stanowiły badania empiryczne i ilościowe. Rozwój ten świadczy o głębokiej transformacji nauk ekonomicznych, które krytykowano w szczególności za to, że nie są tak opisowe, jak można by sądzić.
Różne dziedziny ekonometrii mają wspólną metodologię statystyczną. Bardziej szczegółowe aplikacje wykorzystują określone procedury przetwarzania danych, które omówimy w następnych dwóch sekcjach.
Statystyczne metody ekonometrii zbudowane są z modelu regresji, który jest strukturą matematyczną opisującą reakcję zmiennej na inne zmienne w obecności nieobserwowalnych elementów losowych. Niech Y będzie wielkością (na przykład popytem gospodarstwa domowego lub liczbą bezrobotnych), którą będziemy obserwować dla różnych gospodarstw domowych lub różnych okresów czasu.
Aby przezwyciężyć ograniczenia modeli regresji, opracowano ekonometrię słabo sprecyzowanych modeli, która pyta o to, jakie cechy zjawiska może być wykazane lub stłumione przez aproksymację. Inną strategią przezwyciężania ograniczeń modeli regresji jest zwiększanie złożoności badanych modeli. Modele liniowe są zastępowane na przykład wielomianami lub bardziej rozbudowanymi modelami nieliniowymi. Możemy również przyjąć, coraz częściej spotykane, podejście „nieparametryczne”.
Mimo różnych rozszerzeń model regresji nie nadaje się do estymacji modeli strukturalnych. Teoria równań równoczesnych stanowi pierwsze rozszerzenie modelu regresji, które umożliwiło uwzględnienie sytuacji równowagi; odegrała ważną rolę w ekonometrii. Modele opracowane w ramach tej teorii charakteryzują się kilkoma równaniami, takimi jak wspomniany powyżej model podaży i popytu, którego rozdzielczość umożliwia obliczenie równowagi. Bardzo schematycznie, uwzględnienie kilku równań przekształca zmienne egzogeniczne w endogeniczne. Zwykłe metody statystyczne (estymacja metodą najmniejszych kwadratów) nie pozwalają na oszacowanie równań strukturalnych i trzeba było ustalić nowe procedury statystyczne (podwójna najmniejsza liczba kwadratów, potrójna najmniejsza liczba kwadratów).
Po pracach Larsa P. Hansena w szczególności rozwinęło się dość ogólne podejście do ekonometrii strukturalnej: uogólniona metoda momentów (GMM). Każdy agent lub typ agenta jest reprezentowany jako dokonujący wyborów przez operację maksymalizacji celu, co skutkuje rozwiązaniem równania. Równanie to uzyskuje się przez skreślenie pochodnych cząstkowych względem zmiennych wyboru celu i stanowi warunek maksymalizacji pierwszego rzędu. Zakłada się, że warunek ten jest w rzeczywistości realizowany tylko średnio (stąd nazwa metody momentów), co pozwala na wprowadzenie błędów i zmiennych nieobserwowalnych. Zbiór zachowań różnych agentów jest następnie modelowany przez system warunków, z których na podstawie obserwowanych danych wyprowadza się oszacowanie nieznanych elementów. Najnowsza praca z zakresu ekonometrii rozluźnia pojęcie średniej i w bardziej złożony sposób wiąże relacje behawioralne podmiotów gospodarczych z rozkładem prawdopodobieństwa obserwowanych danych. W modelach wyboru finansowego średni zwrot z inwestycji jest niewystarczający i wprowadzamy np. prawdopodobieństwo wystąpienia rzadkich zdarzeń, takich jak bankructwo firmy czy poważny kryzys giełdowy.
Podejście strukturalne i podejście zredukowanej formyPodejście strukturalne często sprzeciwia się podejściu formy zredukowanej. W podejściu strukturalnym ekonometr zaczyna od formalnego modelu ekonomicznego i stara się zidentyfikować i oszacować parametry modelu na podstawie obserwacji określonych wielkości przewidywanych przez model. Na przykład w modelu popytu parametry funkcji użyteczności konsumenta wyznaczają krzywą popytu na rynku; obserwując wielkość popytu na różnych poziomach cen, chodzi zatem o oszacowanie parametrów funkcji użyteczności, które mogłyby spowodować powstanie tych poziomów popytu. Podobnie w modelu podaży, w którym wielkość podaży na rynku zależy w szczególności od parametrów funkcji produkcji przedsiębiorstw na tym rynku, obserwacja wielkości podaży pozwala pod pewnymi warunkami zidentyfikować parametry produkcji funkcjonować na tym rynku.
W podejściu strukturalnym model ekonomiczny przewiduje dokładną zależność między danymi obserwowanymi przez ekonometr (na przykład wielkościami popytu na określonych poziomach cen) a parametrami, które próbuje się oszacować (na przykład parametrami funkcji użyteczności konsumenta) . Obserwując jedno, możemy więc stosunkowo dokładnie oszacować drugie. Jednak ryzyko podejścia strukturalnego polega na tym, że przy innym modelu ekonomicznym te same dane dawałyby różne szacowane parametry. Jakość estymacji parametrów zależy zatem od zastosowania odpowiedniego modelu ekonomicznego, a zatem od mocnych założeń, których nie zawsze można obronić inaczej niż za pomocą argumentów wiarygodności.
W podejściu zredukowanym zamiast estymacji wszystkich równań lub parametrów modelu, ekonometr szacuje uproszczoną wersję modelu. Mniej chodzi o uzyskanie dokładnej kwantyfikacji, a bardziej o ustalenie, czy dwie wielkości lub przedmioty badań zależą od siebie pozytywnie lub negatywnie, często przyczynowo (np. czy dodatkowy rok do szkoły prowadzi do zmniejszenia ryzyka zajścia w ciążę w okresie dojrzewania) . Zaletą tego podejścia jest bycie bardziej agnostycznym, a zatem bardziej odpornym na użycie błędnego modelu ekonomicznego; z drugiej strony kwantyfikacja jest mniej dokładna i nie można koniecznie wykorzystać danych do rozróżnienia mechanizmów ekonomicznych w grze.
Celem ekonometrii teoretycznej jest określenie, jakie wnioski można wyciągnąć z danych i zestawu założeń. Problemy można podzielić na dwie szerokie klasy: problemy identyfikacyjne i problemy wnioskowania statystycznego . Problemy z identyfikacją mają na celu ustalenie, jakie wnioski można uzyskać, gdy zaobserwuje się nieskończoną ilość danych. I odwrotnie, problemy wnioskowania statystycznego (lub estymacji) mają na celu ustalenie, jakie wnioski można wyciągnąć ze skończonej liczby obserwacji.
W artykule z 1949 roku zatytułowanym „ Problemy identyfikacji w konstrukcji modelu ekonomicznego ” Tjalling Koopmans definiuje pojęcie identyfikacji jako badanie wniosków, które można wyciągnąć znając rozkład prawdopodobieństwa obserwacji.
Historycznie pojęcie identyfikacji było budowane wokół problemu jednoczesności. Problem jednoczesności pojawia się w szczególności wtedy, gdy chce się zidentyfikować krzywą podaży i krzywą popytu na podstawie obserwacji ilości wymienianych na rynku i cen.
Wśród podejść niestrukturalnych opracowano program badawczy wokół ewaluacji polityk publicznych i modelu przyczynowego Neymana-Rubina . W tym programie badawczym rozważamy bardzo prosty model ekonomiczny, w którym definiujemy dla każdej osoby dwie interesujące nas zmienne, jedną, która odpowiada przypadkowi, w którym dana osoba nie otrzymuje leczenia (tj. polityce, którą chcemy ocenić) oraz inny, który odpowiada przypadkowi, w którym dana osoba otrzymuje to leczenie. W przypadku każdej osoby obserwowana jest jedna z dwóch zmiennych, a druga ma charakter kontrfaktyczny. Model ten przypisywany jest generalnie Donaldowi Rubinowi i Jerzemu Neymanowi . W tym programie badawczym poszukuje się albo organizowania losowych eksperymentów na dużą skalę, aby ocenić efekt leczenia, albo znalezienia sytuacji quasi-eksperymentalnych pozwalających ocenić efekt leczenia w przekonujący sposób.
W literaturze dotyczącej ewaluacji polityk publicznych doświadczenia terenowe są uważane za najodpowiedniejszą metodę oceny skutków polityki publicznej. Metody te cieszą się coraz większą popularnością i, odpowiednio, są uważane za najbardziej wiarygodne do tego stopnia, że czasami mówimy o rewolucji wiarygodności , co jest terminem kontrowersyjnym.
Mikroekonometria empirycznie bada zachowanie podmiotów gospodarczych na podstawie obserwacji prowadzonych przez instytuty statystyczne, administracje lub firmy. Pierwszy typ podmiotu gospodarczego składa się z firm i badamy funkcje produkcji, które podsumowują techniczno-ekonomiczne relacje między produkowanymi ilościami a ilościami czynników produkcji (praca, surowce, kapitał itp.) lub kosztem funkcje, które wiążą koszt produkcji z produkowanymi ilościami i cenami czynników produkcji. Te drugie relacje mają bardziej ekonomiczny charakter, ponieważ obejmują strategię minimalizacji kosztów firmy. Konsumenci są drugim typem podmiotu gospodarczego; sprawdzamy, ile wydają na różne rodzaje towarów i ile oszczędzają. Funkcja popytu na dobro wyraża wydatki przeznaczane na to dobro zgodnie z jego ceną, dochodem gospodarstwa domowego, cechami społeczno-demograficznymi, ceną dóbr zastępczych itp. Ogólnie rzecz biorąc, gospodarstwo domowe jest jednostką obserwacji, ale niektóre bardzo dokładne modele badają proces podejmowania decyzji w samym gospodarstwie domowym.
Szeroko badane są różne aspekty rynku pracy. Znaczenie bezrobocia doprowadziło na przykład do stworzenia modeli czasu pozostawania bez pracy, w których czas ten zależy od cech jednostki, mechanizmu napływu ofert pracy, środków pomocy bezrobotnym oraz rodzaju bezrobocia. z bezrobocia. Rysunek 3 przedstawia przykład wyniku tego typu modelu, przedstawiając szacunkową stopę wyjścia z bezrobocia dla dwóch typów populacji. Mówiąc bardziej ogólnie, ekonometry (i demografowie) badały mechanizmy przejścia jednostek między różnymi etapami określającymi indywidualną sytuację na rynku pracy (szkolenie, stabilne lub niepewne zatrudnienie, bezrobocie, bierność zawodowa, emerytura itp.).
Szczególną uwagę zwrócono na rynek pracy kobiet, na decyzje o podjęciu pracy (modele partycypacji) oraz na poziom tej partycypacji. Badania te przeprowadzono głównie w krajach Europy Północnej, gdzie udział kobiet jest niższy, a praca w niepełnym wymiarze godzin bardziej rozwinięta niż we Francji. Ekonometry pracy są również zainteresowane mechanizmami ustalania płac, a więc rolą kwalifikacji pracowników. Ekonomia edukacji jest ważną dziedziną modelowania ekonometrycznego.
Odniesienie do elementarnego modelu rynku konkurencyjnego często nie ma znaczenia dla opisania interakcji niewielkiej liczby agentów. Następnie używamy formalizacji z teorii gier. Załóżmy na przykład, że chce się przestudiować odpowiedzi niewielkiej liczby firm na zaproszenie do składania ofert. Wykorzystamy model, który rozbija cenę oferowaną dla każdej firmy na koszt produkcji plus marżę, której wielkość zależy od strategii firmy, która rozstrzyga między wzrostem zysków a spadkiem prawdopodobieństwa zdobycia rynku .
Modele jakościowego wyboru są ważnym elementem metod statystycznych w mikroekonometrii. Zauważamy, że decyzja podmiotu gospodarczego często opiera się na dwóch lub skończonej liczbie możliwości (korzystanie z transportu publicznego lub osobistego pojazdu, kupno lub nie domu, wybór energii do ogrzewania domu itp.) . Celem badania jest zatem wyjaśnienie tego dychotomicznego lub politomicznego wyboru za pomocą zestawu zmiennych. Zbadano wiele modeli, aby poradzić sobie z jakościowymi wyborami w odniesieniu w szczególności do mikroekonomicznej teorii konsumenta. Praca Daniela McFaddena dotyczy w szczególności tego modelowania.
Ekonometr musi też często jednocześnie wyjaśniać wybór jakościowy i związaną z nim zmienną ilościową. Na przykład podczas badania zatrudnienia badana jest populacja kobiet. Niektóre kobiety pracują, a ich zarobki są widoczne. Ci, którzy nie pracują (z wyboru lub z przymusu), mają jednak potencjalną (lub ukrytą) pensję z natury nieobserwowalną. Błędem byłoby przeoczenie w badaniu wynagrodzeń faktu, że ta ostatnia jest obserwowana tylko dla pewnej kategorii pracowników; ten błąd selekcji musi być skorygowany odpowiednimi metodami statystycznymi. Metody te zostały opracowane w szczególności przez Jamesa Heckmana.
Takie przetwarzanie danych jest zwykle stosowane w statystyce, ale oryginalność ekonometrii w badaniach statystycznych polega na uwzględnianiu złych właściwości danych (dane częściowo zaobserwowane, brak odpowiedzi itp.) jako wynikające częściowo z decyzji behawioralnych podmiotów gospodarczych i jako zasadnicza charakterystyka badanego zjawiska. Jak już podkreśliliśmy, ważnym elementem tego modelowania jest wprowadzenie nieobserwowalnych zmiennych losowych, charakterystycznych dla indywidualnej heterogeniczności i wyjaśniających w szczególności błędy selekcji.
Dane makroekonomiczne lub finansowe to generalnie szeregi czasowe, czyli wielkości obserwowane w różnych okresach czasu. Celem jest analiza dynamiki rozważanych zmiennych, a dokładniej ich ewolucji, propagacji zmienności jednej z nich na inne, ich przyczynowości, ich zmienności sezonowej. Dogłębne badanie tych dynamicznych zjawisk jest istotnym elementem ekonometrii.
Najprostszym i najbardziej opisowym punktem widzenia jest traktowanie pojedynczej zmiennej obserwowanej w różnym czasie. Badamy zależności czasowe tej zmiennej, aby modelować jej wartość t jako funkcję jej osiągnięć w poprzednich okresach.
Rozwój złożonych modeli dynamicznych badających razem kilka szeregów bada wyznaczanie zmiennej na podstawie jej własnej historii i przeszłości innych wielkości. Pod tym względem autoregresyjne modele wektorowe (VAR) są bardzo popularną klasą modeli w ekonometrii.
Zbiór szeregów czasowych kwalifikuje się jako stacjonarny, jeśli mechanizm generujący te zmienne nie zmienia się w czasie. Stacjonarność implikuje na przykład, że sześciomiesięczny wpływ wzrostu cen na płace miał taki sam charakter w latach 70. i 90., co z pewnością jest fałszywe. Na ogół szeregi ekonomiczne nie spełniają warunku stacjonarności. Niestacjonarność to kolejny sposób uwzględniania specyfiki każdego okresu. Dopiero na początku lat osiemdziesiątych w badaniach ekonometrycznych na pierwszy plan wysunęło się jednoznaczne badanie niestacjonarności.
W modelach pęknięć same relacje lub parametry, które je charakteryzują, mogą ulec zmianie. Modele te odpowiadają na tak zwaną krytykę Roberta E. Lucasa (Nagroda Nobla w 1995 r.), którą można podsumować następującym argumentem: środek polityki gospodarczej będzie miał podwójny skutek; efekt bezpośredni, opisany przez relacje (jeśli dochód gospodarstwa domowego zwiększa konsumpcję) oraz wpływ na zachowania konsumentów (zmienią się kompromisy między konsumpcją a oszczędnościami), co skutkuje modyfikacją relacji. Te dwa efekty mogą się wzajemnie kompensować i utrudniać prognozowanie makroekonomiczne. Formalnie modele zerwania sprowadzają się do relacji nieliniowych, czasem nieciągłych między zmiennymi.
Lata 70. to także zakwestionowanie tradycyjnych modeli makroekonometrycznych . Zwłaszcza dlatego, że po ich nieskuteczności w wyjaśnianiu i przewidywaniu stagflacji po szokach naftowych , będą oskarżani o brak wystarczających podstaw mikroekonomicznych . Lucas pokazuje na przykład już w 1972 r . związek między oczekiwaniami podmiotów gospodarczych a zmiennością współczynników strukturalnych modeli makroekonometrycznych. Jego konkluzja jest więc, że każdy środek z polityki gospodarczej prowadzi do zmiany zachowań agentów , i że w związku z tym, te środki są w stanie licznika polityk rządowych przez ich przewidywanie. To znacznie zmniejsza zainteresowanie polityki budżetowej i monetarnej .
W ekonomii wzrostu Gregory Mankiw, David Romer i David Weil używają modelu regresji liniowej do empirycznego testowania trafności modelu Solowa . Pokazują, że model Solowa plus kapitał ludzki jest zgodny z obserwowanymi danymi.
Daron Acemoglu , Simon Johnson i James Robinson wykorzystują regresję liniową do oszacowania wpływu instytucji na obecny rozwój krajów.
Już w 1975 r. Isaac Ehrlich zastosował metody ekonometryczne, aby zmierzyć odstraszający efekt kary śmierci .
Steven Levitt używa liniowego modelu zmiennych instrumentalnych do oszacowania wpływu liczby funkcjonariuszy policji na przestępczość.
Istnieje obszerna literatura na temat wyborów edukacyjnych i szacowania prywatnych zysków z edukacji. Michael Keane i Kenneth Wolpin szacują model wyboru wykształcenia i zawodu dla kohorty amerykańskich mężczyzn urodzonych w 1979 roku. Pokazują, że ich model zapewnia spójne przewidywania z danymi.
Istnieje również wiele badań poszukujących wyznaczników sukcesu akademickiego. Wśród tych prac niektóre dotyczą wielkości klas. Joshua Angrist i Victor Lavy (w) zastosowali metodę nieciągłości regresji, aby oszacować przyczynowy wpływ wielkości klasy na osiągnięcia uczniów na podstawie danych izraelskich. Autorzy stosują zasadę Majmonidesa, zgodnie z którą w klasie nie powinno być więcej niż 40 uczniów, jako naturalny eksperyment pozwalający znaleźć różnice w wielkości klas niezależnie od poziomu uczniów.
Istotny margines ekonometrii wiąże się z estymacją funkcji produkcji. Przykładem może być artykuł Stevena Olleya i Ariéla Pakesa .
Funkcja produkcji firmy określa, w jaki sposób firma przekształca zasoby, zwane czynnikami produkcji (na przykład kapitał i praca), w gotowe produkty. Oszacowanie funkcji produkcji każdego przedsiębiorstwa pozwala zmierzyć jego produktywność, to znaczy stosunek między ilością wykorzystanych zasobów a ilością wytwarzanych towarów lub usług. Dzięki temu oszacowaniu możliwe staje się zmierzenie nie tylko średniej produktywności firm w sektorze i jej ewolucji w czasie, ale także zmierzenie różnic w produktywności, na przykład między firmami z tego samego sektora, lub d '' zbadanie wkładu każdej firmy do produktywności jej sektora lub całej gospodarki.
Ekonometryczna estymacja funkcji produkcji niekoniecznie jest prosta. Dobór czynników produkcji przez firmę nie jest niezależny od jej poziomu produktywności, co oznacza, że bezpośrednie zastosowanie metody najmniejszych kwadratów dałoby wyniki obciążone statystycznie. Aby temu zaradzić, Olley i Pakes byli pionierami podgałęzi, która proponuje inne techniki estymacji, w szczególności oparte na podejściu ze zmienną instrumentalną.
W kliometria jest ilościowa szkoła historia gospodarcza z wykorzystaniem metody ekonometrii zrozumieć historię.
Istnieje spór między zwolennikami silnego programu ekonometrii strukturalnej a zwolennikami metod quasi-eksperymentalnych i modelu przyczynowego Neymana i Rubina. Na przykład w 2010 roku w Journal of Economic Perspectives ekonometry Joshua Angrist i Jörn-Stephen Pischke bronią poglądu, że ekonometria stała się wiarygodna dzięki rozwojowi metod quasi-eksperymentalnych oraz podejściu Neymana i Rubina . Odwrotnie, Michael Keane broni ambicji programu strukturalnego i idei, że konieczne jest posiadanie modelu ekonomicznego do interpretacji szacowanych parametrów i przeprowadzania analiz ex ante polityk publicznych.