To tylko jedna z 2 stron tej notatki. Zaloguj się aby zobaczyć ten dokument.
Zobacz
całą notatkę
Klasyczna Metoda Najmniejszych kwadratów i Tw.Gaussa - Markowa Klasyczna Metoda Najmniejszych Kwadratów (KMNK) jest najczęściej stosowaną (choć nie jedyną) metodą estymacji jednorównaniowego modelu liniowego. Estymacja (szacowanie) parametrów sprowadza się do przypisania nieokreślonym liczbowo parametrom konkretnych wartości liczbowych. U podstaw es- tymacji punktowej leży twierdzenie Gaussa - Markowa. Założenia twierdzenia Gaussa - Markowa: 1. Y [ T× 1] = X [ T×K ] β [ K× 1] + ε [ T× 1] Proces generujący dane można zapisać w postaci macierzowej (gdzie k - liczba wszystkich parametrów w modelu - łącznie z wyrazem wolnym β 0, T - liczba obserwacji). Ponadto model jest liniowy wzglę- dem parametrów strukturalnych 1 2. Zmienne objaśniające są zmiennymi nielosowymi ustalanymi w powtarzających się próbach dla każdego t = 1 , 2 , . . . , T na poziomi xt 1 , xt 2 , . . . , xtk− 1 2 3. Macierz X ma pełny rząd kolumnowy ⇔ liczba zmiennych objaśniających jest mniejsza lub równa liczbie obserwacji ( k T ) 4. Odchylenia standardowe in plus i in minus redukują się E ( ε ) = 0[ T× 1] 5. Macierz kowariancji składników losowych jest równa 3 V ( ε ) = E ( ε · εT ) = σ 2 · I[ T×T ] gdzie σ 2 ∈ [0 , ∞ ) (a) wariancja składnika losowego jest stała dla wszystkich obserwacji σ 2 t = σ 2 ∀t (jednorodność wariancji) (b) obserwacje są niezależne, składniki losowe dla poszczególnych obserwacji są nieskorelowane (nie występuje autokorelacja składników losowych) 6. dodatkowo jeśli składniki losowe mają rozkład normalny εt ∼ N (0 , σ 2 · I), to mówimy że model spełnia założenia KMNRL (co jest istotne z punktu widzenia estymacji przedziałowej i testowania stosownych hipotez np. o istotności parametrów strukturalnych) Twierdzenie Gaussa Markowa jest ważne , ponieważ mówi o tym, iż w modelu klasycznej regresji liniowej najlepszym (a więc najefektywniejszym - o najmniejszej wariancji) estymatorem w klasie nieob- ciążonych estymatorów liniowych 4 jest estymator ˆ β = XT X − 1 XT Y uzyskany przy pomocy metody najmniejszych kwadratów. Własności hiperpłaszczyzny regresji: 1. W KMRL oszacowanym MNK macierz zmiennych objaśniających jest nieskorelowana z wektorem reszt. XT e = 0 Własność jest zawsze prawdziwa Dowód: Korzystamy z tezy twierdzenia Gaussa - Markowa : ˆ β = XT X − 1 XT Y Macierz XT X jest z konstrukcji niezerowa, zatem po przekształceniu mamy: XT Y − XT X ˆ β = 0 ⇔ XT ( Y − X ˆ β ) = XT ( Y − ˆ
(…)
… Klasyczna Metoda Najmniejszych kwadratów i Tw.Gaussa - Markowa
Klasyczna Metoda Najmniejszych Kwadratów (KMNK) jest najczęściej stosowaną (choć nie jedyną)
metodą estymacji jednorównaniowego modelu liniowego. Estymacja (szacowanie) parametrów sprowadza
się do przypisania nieokreślonym liczbowo parametrom konkretnych wartości liczbowych. U podstaw estymacji punktowej leży twierdzenie Gaussa…
... zobacz całą notatkę
Komentarze użytkowników (0)