Miejska Biblioteka

Publiczna w Kobyłce

book
book

Ekonometria

Tyt. oryg.: "Introduction to econometrics ".

Autor: Maddala, G. S.




Wzorcowy podręcznik ujmujący najważniejsze problemy klasycznej i nowoczesnej ekonometrii.Zdaniem recenzentów książka:przedstawia najistotniejsze tematy z zakresu ekonometrii klasycznej i współczesnej,jest napisana w sposób jasny i precyzyjny,jest przyjazna dla osób rozpoczynających naukę ekonometrii,ułatwia dalsze studiowanie ekonometrii z podręczników na wyższym poziomie zaawansowania.Punktem wyjścia do rozważań jest

zawsze pewien problem ekonomiczny, który może być rozwiązany z wykorzystaniem określonych metod ekonometrycznych. Autor nie omawia metod dla nich samych, ale z punktuwidzenia problemów, jakie tymi metodami można rozwiązać. Polskie wydanie zawiera specjalnie przygotowany przez tłumaczy indeks.

Zobacz pełny opis
Odpowiedzialność:G.S. Maddala ; red. nauk. przekł. Marek Gruszczyński; [przekł. z jęz. ang. Marek Gruszczyński, Emilia Tomczyk, Bartosz Witkowski].
Hasła:Ekonometria
Statystyka matematyczna
Podręczniki akademickie
Adres wydawniczy:Warszawa : Wydaw. Naukowe PWN, cop. 2008.
Opis fizyczny:704 s. ; 24 cm.
Przeznaczenie:Książka przeznaczona dla kadry akademickiej i studentów uczelni ekonomicznych, uniwersytetów, politechnik i akademii rolniczych do studiowania ekonometrii i przedmiotów pokrewnych.
Skocz do:Dodaj recenzje, komentarz
Spis treści:

  1. Przedsłowie
  2. Przedmowa do drugiego wydania
  3. Przedmowa do trzeciego wydania
  4. Nekrolog G.S. Maddali
  5. Przedmowa do polskiego wydania
  6. Część pierwsza. Wprowadzenie i model regresji liniowej
  7. 1. Czym jest ekonometria
  8. Co jest w tym rozdziale
  9. 1.1. Czym jest ekonometria?
  10. 1.2. Model ekonomiczny i model ekonometryczny
  11. 1.3. Cele i metody ekonometrii
  12. 1.4. Co jest testem dla teorii ekonomicznej?
  13. Podsumowanie i plan książki
  14. 2. Podstawy statystyki i algebry macierzy
  15. Co jest w tym rozdziale
  16. 2.1. Wprowadzenie
  17. 2.2. Prawdopodobieństwo
  18. Zasady sumowania prawdopodobieństw
  19. Prawdopodobieństwo warunkowe i reguła iloczynu
  20. Twierdzenie Bayesa
  21. Operacje sumowania i mnożenia
  22. 2.3. Zmienne losowe i rozkłady prawdopodobieństwa
  23. Łączne, brzegowe i warunkowe rozkłady prawdopodobieństwa
  24. 2.4. Rozkład normalny i związane z nim inne rozkłady
  25. Rozkład normalny
  26. Rozkłady związane z rozkładem normalnym
  27. 2.5. Klasyczne wnioskowanie statystyczne
  28. 2.6. Własności estymatorów
  29. Nieobciążoność
  30. Efektywność
  31. Zgodność
  32. Inne własności asymptotyczne
  33. 2.7. Rozkłady z próby w przypadku prób pochodzących z populacji o rozkładzie normalnym
  34. 2.8. Estymacja przedziałowa
  35. 2.9. Weryfikacja hipotez
  36. 2.10. Związek między estymacją przedziałową i weryfikacją hipotez
  37. 2.11. Wnioskowanie na podstawie niezależnych testów
  38. Podsumowanie
  39. Ćwiczenia
  40. Dodatek: Algebra macierzy
  41. 3. Regresja prosta
  42. Co jest w tym rozdziale
  43. 3.1. Wprowadzenie
  44. 3.2. Specyfikacja zależności
  45. 3.3. Metoda momentów
  46. 3.4. Metoda najmniejszych kwadratów
  47. Regresja odwrotna
  48. 3.5. Wnioskowanie statystyczne w modelu regresji liniowej
  49. Przedziały ufności dla α, β i σ2
  50. Weryfikacja hipotez
  51. Regresja bez wyrazu wolnego
  52. 3.6. Analiza wariancji w modelu regresji prostej
  53. 3.7. Predykcja w modelu regresji prostej
  54. Predykcja wartości oczekiwanej
  55. 3.8. Obserwacje nietypowe
  56. 3.9. Alternatywne postacie funkcyjne równań regresji
  57. 3.10.* Predykcja odwrotna w modelu szacowanym metodą najmniejszych kwadratów
  58. 3.11.* Losowe zmienne objaśniające
  59. 3.12.* Pułapka regresji
  60. Dwuwymiarowy rozkład normalny
  61. Wynik Galtona i pułapka regresji
  62. Podsumowanie
  63. Ćwiczenia
  64. Dodatek
  65. 4. Model regresji wielorakiej
  66. Co jest w tym rozdziale
  67. 4.1. Wprowadzenie
  68. 4.2. Model z dwiema zmiennymi objaśniającymi
  69. Metoda najmniejszych kwadratów
  70. 4.3. Wnioskowanie statystyczne w modelu regresji wielorakiej
  71. Wzory dla ogólnego przypadku k zmiennych objaśniających
  72. 4.4. Interpretacja ocen parametrów w modelu regresji* 4.5. Współczynniki korelacji cząstkowej a współczynnik korelacji wielorakiej
  73. 4.6. Związek między współczynnikami korelacji prostej, cząstkowej i wielorakiej
  74. 4.7. Prognozowanie w modelu regresji wielorakiej
  75. 4.8. Analiza wariancji i weryfikacja hipotez
  76. Hipotezy zagnieżdżone i niezagnieżdżone
  77. Testy dla liniowych funkcji parametrów
  78. 4.9. Pominięcie właściwych zmiennych objaśniających i włączenie zbędnych zmiennych objaśniających
  79. Pominięcie właściwych zmiennych objaśniających
  80. Włączenie do modelu zbędnych zmiennych objaśniających
  81. 4.10. Stopnie swobody i R2
  82. 4.11. Testy stabilności
  83. Test oparty na analizie wariancji
  84. Predykcyjne testy stabilności
  85. 4.12.* Testy LR, W i LM
  86. Podsumowanie
  87. Ćwiczenia
  88. Dodatek: Model regresji wielorakiej w zapisie macierzowym
  89. Zbiory danych
  90. Część druga. Naruszenie założeń podstawowego modelu
  91. 5. Heteroskedastyczność
  92. Co jest w tym rozdziale
  93. 5.1. Wprowadzenie
  94. 5.2. Wykrywanie heteroskedastyczności
  95. Test ilorazu wiarygodności
  96. Test Goldfelda-Quandta
  97. Test Breuscha-Pagana
  98. Intuicyjne uzasadnienie testu Breuscha-Pagana
  99. 5.3. Konsekwencje heteroskedastyczności
  100. Ocena wariancji estymatora MNK w przypadku heteroskedastyczności
  101. 5.4. Rozwiązania kwestii heteroskedastyczności
  102. 5.5. Heteroskedastyczność a użycie deflatorów
  103. 5.6.* Testowanie liniowości względem log-liniowości
  104. Test Boxa-Coxa
  105. Test BM
  106. Test PE
  107. Podsumowanie
  108. Ćwiczenia
  109. Dodatek: Uogólniona metoda najmniejszych kwadratów
  110. 6. Autokorelacja
  111. Co jest w tym rozdziale
  112. 6.1. Wprowadzenie
  113. 6.2. Test Durbina-Watsona
  114. 6.3. Estymacja dla poziomów czy dla pierwszych różnic?
  115. 6.4. Techniki estymacji w przypadku występowania autokorelacji składnika losowego
  116. Metody iteracyjne
  117. Metody przeszukiwania „po kracie"
  118. 6.5. Wpływ składników losowych typu AR(1) na oceny parametrów uzyskane MNK
  119. 6.6. Dalsze uwagi dotyczące testu DW
  120. Test von Neumanna
  121. Test Berenbluta-Webba
  122. 6.7. Testy autokorelacji w modelach z opóźnioną zmienną objaśnianą
  123. Test h Durbina
  124. Alternatywny test Durbina
  125. 6.8. Uogólniony test autokorelacji wyższego rzędu: test LM
  126. 6.9. Metody postępowania w sytuacji, gdy test DW wskazuje na występowanie autokorelacji
  127. Składniki losowe inne niż AR(1)
  128. Autokorelacja spowodowana pominięciem zmiennych
  129. Autokorelacja spowodowana nieprawidłową specyfikacją dynamiki modelu
  130. Test Walda
  131. 6.10.* Trend i błądzenie przypadkowe
  132. Trendy pozorne
  133. Różnicowanie i efekty długookresowe: koncepcja kointegracji
  134. 6.11.* Modele ARCH i autokorelacja
  135. 6.12. Krótki komentarz do testu DW i testów h oraz t Durbina
  136. Podsumowanie
  137. Ćwiczenia
  138. Zbiory danych
  139. 7. Współliniowość
  140. Co jest w tym rozdziale
  141. 7.1. Wprowadzenie
  142. 7.2. Przykłady ilustrujące zagadnienie współliniowości
  143. 7.3. Wybrane miary współliniowości
  144. 7.4. Jak mierzyć współliniowość
  145. 7.5. Rozwiązania problemu współliniowości: regresja grzbietowa
  146. 7.6. Regresja względem głównych składowych
  147. 7.7. Usuwanie zmiennych
  148. 7.8. Inne rozwiązania problemu współliniowości
  149. Przekształcenie zmiennych: ilorazy lub pierwsze różnice
  150. Wykorzystanie zewnętrznych ocen parametrów
  151. Większy zbiór danych
  152. Podsumowanie
  153. Ćwiczenia
  154. Dodatek
  155. 8. Zmienne jakościowe i zmienne ucięte
  156. Co jest w tym rozdziale
  157. 8.1. Wprowadzenie
  158. 8.2. Zmienne zero-jedynkowe a zmiany wyrazu wolnego
  159. 8.3. Zmienne sztuczne a zmiany wartości współczynników kierunkowych
  160. 8.4. Zmienne sztuczne a ograniczenia nakładane na parametry różnych równań
  161. 8.5. Zmienne sztuczne a testy stabilności parametrów regresji
  162. 8.6. Wykorzystanie zmiennych sztucznych przy heteroskedastyczności i autokorelacji
  163. 8.7. Jakościowe zmienne zależne
  164. 8.8. Liniowy model prawdopodobieństwa i liniowa funkcja dyskryminacyjna
  165. Liniowy model prawdopodobieństwa
  166. Liniowa funkcja dyskryminacyjna
  167. 8.9. Model probitowy i model logitowy
  168. Problem prób niezbilansowanych
  169. Predykcja efektów zmian wartości zmiennych objaśniających
  170. Miary dopasowania
  171. 8.10. Zmienne ucięte: model tobitowy
  172. Metoda estymacji
  173. Ograniczenia modelu tobitowego
  174. Model regresji uciętej
  175. Podsumowanie
  176. Ćwiczenia
  177. 9. Modele wielorównaniowe
  178. Co jest w tym rozdziale
  179. 9.1. Wprowadzenie
  180. 9.2. Zmienne endogeniczne i zmienne egzogeniczne
  181. 9.3. Problem identyfikacji: identyfikacja przez postać zredukowaną
  182. 9.4. Konieczne i dostateczne warunki identyfikacji
  183. 9.5. Metody estymacji: metoda zmiennych instrumentalnych
  184. Pomiar R2
  185. 9.6. Metody estymacji: podwójna metoda najmniejszych kwadratów
  186. Wyznaczanie błędów standardowych
  187. 9.7. Problem normalizacji
  188. 9.8.* Metoda największej wiarygodności z ograniczoną informacją
  189. 9.9.* O zastosowaniach MNK w estymacji modeli wielorównaniowych
  190. Koncepcja identyfikacji Workinga
  191. Modele rekurencyjne
  192. Estymacja funkcji produkcji Cobba-Douglasa
  193. 9.10.* Egzogeniczność i przyczynowość
  194. Słaba egzogeniczność
  195. Superegzogeniczność
  196. Silna egzogeniczność
  197. Przyczynowość w sensie Grangera
  198. Przyczynowość i egzogeniczność w sensie Grangera
  199. Testy egzogeniczności
  200. 9.11. Problemy związane z estymacją metodami zmiennych instrumentalnych
  201. Podsumowanie
  202. Ćwiczenia
  203. Dodatek
  204. 10. Modele nieliniowe i modele oczekiwań. Normalność rozkładu składnika losowego
  205. Co jest w tym rozdziale
  206. 10.1. Wprowadzenie
  207. 10.2. Metoda Newtona-Raphsona
  208. 10.3. Nieliniowa metoda najmniejszych kwadratów
  209. Metoda Gaussa-Newtona
  210. 10.4. Modele oczekiwań
  211. 10.5. Modele oczekiwań naiwnych
  212. 10.6. Modele oczekiwań adaptacyjnych
  213. Estymacja modelu oczekiwań adaptacyjnych
  214. 10.7. Zmienne opisujące oczekiwania. Opóźnienia w dostosowaniach
  215. 10.8. Model częściowych dostosowań z oczekiwaniami adaptacyjnymi
  216. 10.9. Alternatywne modele z rozkładem opóźnień: opóźnienia wielomianowe
  217. Skończony rozkład opóźnień: opóźnienia wielomianowe
  218. Wybór stopnia wielomianu
  219. 10.10. Opóźnienia ilorazowe
  220. 10.11. Modele oczekiwań racjonalnych
  221. 10.12. Testy racjonalności
  222. 10.13. Estymacja modelu popytu i podaży z racjonalnymi oczekiwaniami
  223. 10.14. Problem autokorelacji składników losowych w modelach racjonalnych oczekiwań
  224. 10.15. Normalność rozkładu składników losowych
  225. 10.16. Przekształcenia danych
  226. Podsumowanie
  227. Ćwiczenia
  228. 11. Błędy w zmiennych
  229. Co jest w tym rozdziale
  230. 11.1. Wprowadzenie
  231. 11.2. Klasyczne rozwiązanie dla modelu jednorównaniowego z jedną zmienną objaśniającą
  232. 11.3. Model jednorównaniowy z dwiema zmiennymi objaśniającymi
  233. Dwie zmienne objaśniające: jedna mierzona z błędem
  234. Dwie zmienne objaśniające: obie podlegające błędom pomiaru
  235. 11.4. Regresja odwrotna
  236. 11.5. Metody zmiennych instrumentalnych
  237. 11.6. Zmienne zastępcze
  238. 11.7. Inne problemy
  239. Przypadek modelu wielorównaniowego
  240. Wzajemne skorelowanie błędów pomiaru oraz ich skorelowanie ze składnikami systematycznymi
  241. Podsumowanie
  242. Ćwiczenia
  243. Część trzecia. Rozszerzenia i zagadnienia specjalne
  244. 12. Diagnostyka, wybór modelu, testowanie specyfikacji
  245. Co jest w tym rozdziale
  246. 12.1. Wprowadzenie
  247. 12.2. Testy diagnostyczne oparte na resztach metody najmniejszych kwadratów
  248. Testy pominiętych zmiennych
  249. Testowanie efektów ARCH
  250. 12.3. Problemy związane z resztami metody najmniejszych kwadratów
  251. 12.4. Inne rodzaje reszt
  252. Reszty predyktywne i reszty studentyzowane
  253. Zastosowanie metody zmiennych zero-jedynkowych do wyznaczania reszt studentyzowanych
  254. Reszty BLUS
  255. Reszty rekurencyjne
  256. 12.5. DFFITS i estymacja ograniczonego wpływu
  257. 12.6. Wybór modelu
  258. Metoda weryfikacji hipotez
  259. Metoda interpretacyjna
  260. Metoda upraszczania
  261. Metoda zmiennych zastępczych
  262. Metoda poszukiwania danych
  263. Metoda konstruowania modelu po wstępnej analizie danych
  264. Metoda Hendry`ego
  265. 12.7. Dobór zmiennych objaśniających
  266. Kryterium R2 Theila
  267. Kryteria oparte na minimalizacji średniokwadratowego błędu predykcji
  268. Kryterium informacyjne Akaike`a
  269. 12.8. Statystyki F związane z różnymi kryteriami wyboru modelu
  270. Twierdzenie Bayesa i prawdopodobieństwo a posteriori w wyborze modelu
  271. 12.9. Wybór modelu według kryterium prognostycznego
  272. 12.10. Test błędu specyfikacji Hausmana
  273. Zastosowanie: testowanie błędów w zmiennych lub testowanie egzogeniczności
  274. Zastosowanie testu Hausmana do weryfikacji hipotezy o pominiętych zmiennych
  275. 12.11. Test różnicowy Plossera-Schwerta-White`a
  276. 12.12. Testy hipotez niezagnieżdżonych
  277. Test Davidsona i MacKinnona
  278. Test uniwersalny
  279. Podstawowy problem weryfikacji hipotez niezagnieżdżonych
  280. Weryfikacja hipotez a wybór modelu jako strategia badawcza
  281. Podsumowanie
  282. Ćwiczenia
  283. Dodatek
  284. 13. Wprowadzenie do analizy szeregów czasowych
  285. Co jest w tym rozdziale
  286. 13.1. Wprowadzenie
  287. 13.2. Dwie metody analizy szeregów czasowych: względem częstości i względem czasu
  288. 13.3. Szeregi czasowe stacjonarne i niestacjonarne
  289. Ścisła stacjonarność
  290. Słaba stacjonarność
  291. Własności funkcji autokorelacji
  292. Niestacjonarność
  293. 13.4. Wybrane modele szeregów czasowych
  294. Proces czysto losowy
  295. Błądzenie przypadkowe
  296. Proces średniej ruchomej
  297. Proces autoregresyjny
  298. Autoregresyjny proces średniej ruchomej
  299. Autoregresyjny zintegrowany proces średniej ruchomej
  300. 13.5. Estymacja modeli AR, MA i ARMA
  301. Estymacja modeli MA
  302. Estymacja modeli ARMA
  303. Reszty z modeli ARMA
  304. Testowanie dopasowania modelu
  305. 13.6. Podejście Boxa-Jenkinsa
  306. Prognozowanie na podstawie modeli Boxa-Jenkinsa
  307. Eliminowanie trendu: podejście klasyczne
  308. Sezonowość w modelach Boxa-Jenkinsa
  309. 13.7. Miary R2 w modelach szeregów czasowych
  310. Podsumowanie
  311. Ćwiczenia
  312. Zbiory danych
  313. 14. Autoregresja wektorowa, pierwiastki jednostkowe i kointegracja
  314. Co jest w tym rozdziale
  315. 14.1. Wprowadzenie
  316. 14.2. Autoregresja wektorowa
  317. 14.3. Problemy z modelami VAR w praktyce
  318. 14.4. Pierwiastki jednostkowe
  319. 14.5. Testy pierwiastka jednostkowego
  320. Test Dickeya-Fullera
  321. Problem autokorelacji
  322. Niska moc testów pierwiastka jednostkowego
  323. Test DF-GLS
  324. Co jest hipotezą zerową, a co alternatywną w testach pierwiastka jednostkowego?
  325. Testy, w których hipoteza zerowa mówi o stacjonarności
  326. Analiza potwierdzająca
  327. Testy pierwiastka jednostkowego dla danych panelowych
  328. Zmiany strukturalne i pierwiastki jednostkowe
  329. 14.6. Kointegracja
  330. 14.7. Regresja kointegrująca
  331. 14.8. Autoregresja wektorowa i kointegracja
  332. 14.9. Kointegracja i model korekty błędem
  333. 14.10. Testy kointegracji
  334. 14.11. Kointegracja i weryfikacja hipotezy racjonalnych oczekiwań oraz hipotezy rynku efektywnego
  335. 14.12. Ogólna ocena kointegracji
  336. Podsumowanie
  337. Ćwiczenia
  338. Tablica statystyczna
  339. 15. Analiza danych panelowych
  340. Co jest w tym rozdziale
  341. 15.1. Wprowadzenie
  342. 15.2. Model z efektami ustalonymi (model LSDV)
  343. 15.3. Model z efektami losowymi
  344. 15.4. Model z efektami ustalonymi czy model z efektami losowymi?
  345. Test Hausmana
  346. Test Breuscha i Pagana
  347. 15.5. Model SUR
  348. 15.6. Modele dynamiczne dla danych panelowych
  349. 15.7. Model z parametrami losowymi
  350. Podsumowanie
  351. 16. Teoria dużych prób
  352. Co jest w tym rozdziale
  353. 16.1. Metoda największej wiarygodności
  354. 16.2. Metody rozwiązywania równań wiarygodności
  355. 16.3. Dolna granica Rao-Cramera
  356. 16.4. Testy dużych prób oparte na MNW
  357. 16.5. UMZI i UMM
  358. Podsumowanie
  359. 17. Wnioskowanie w malej próbie: metody repróbkowania
  360. Co jest w tym rozdziale
  361. 17.1. Wprowadzenie
  362. 17.2. Metody Monte Carlo
  363. Metody Monte Carlo o zwiększonej efektywności
  364. Powierzchnie odpowiedzi
  365. 17.3. Metody repróbkowania: jackknife i bootstrap
  366. Inne zagadnienia związane z metodą bootstrap
  367. 17.4. Bootstrapowe przedziały ufności
  368. 17.5. Weryfikacja hipotez z wykorzystaniem metody bootstrap
  369. 17.6. Bootstrap reszt wobec bootstrapu danych
  370. 17.7. Składniki losowe niemające jednakowych i niezależnych rozkładów oraz modele niestacjonarne
  371. Heteroskedastyczność i autokorelacja
  372. Testy pierwiastka jednostkowego oparte na metodzie bootstrap
  373. Testy kointegracyjne
  374. 17.8. Inne zastosowania
  375. Podsumowanie
  376. Dodatki
  377. Dodatek A: Tablice statystyczne
  378. Dodatek B: Zbiory danych
  379. Dodatek C: Zbiory danych dostępne w Internecie
  380. Dodatek D: Programy komputerowe
  381. Literatura cytowana
  382. Indeks rzeczowy
  383. *

Zobacz spis treści



Sprawdź dostępność, zarezerwuj (zamów):

(kliknij w nazwę placówki - więcej informacji)

MBP w Kobyłce
Leśna 8 lokal 0.3

Sygnatura: CZYTELNIA: 33
Numer inw.: 50790
Dostępność: można wypożyczyć na 30 dni

schowekzamów

Dodaj komentarz do pozycji:

Swoją opinię można wyrazić po uprzednim zalogowaniu.