regresja

Nasza ocena:

3
Pobrań: 112
Wyświetleń: 1169
Komentarze: 0
Notatek.pl

Pobierz ten dokument za darmo

Podgląd dokumentu
regresja - strona 1 regresja - strona 2

Fragment notatki:


Klasyczna Metoda Najmniejszych kwadratów i Tw.Gaussa - Markowa Klasyczna Metoda Najmniejszych Kwadratów (KMNK) jest najczęściej stosowaną (choć nie jedyną) metodą estymacji jednorównaniowego modelu liniowego. Estymacja (szacowanie) parametrów sprowadza się do przypisania nieokreślonym liczbowo parametrom konkretnych wartości liczbowych. U podstaw es- tymacji punktowej leży twierdzenie Gaussa - Markowa. Założenia twierdzenia Gaussa - Markowa: 1. Y [ T× 1] =  X [ T×K ] β [ K× 1] +  ε [ T× 1] Proces generujący dane można zapisać w postaci macierzowej (gdzie  k  - liczba wszystkich parametrów w modelu - łącznie z wyrazem wolnym  β 0,  T  - liczba obserwacji). Ponadto model jest liniowy wzglę- dem parametrów strukturalnych 1 2. Zmienne objaśniające są zmiennymi nielosowymi ustalanymi w powtarzających się próbach dla każdego  t  = 1 ,  2 , . . . , T  na poziomi  xt 1 , xt 2 , . . . , xtk− 1 2 3. Macierz X ma pełny rząd kolumnowy  ⇔  liczba zmiennych objaśniających jest mniejsza lub równa liczbie obserwacji ( k T  ) 4. Odchylenia standardowe in plus i in minus redukują się  E ( ε ) = 0[ T× 1] 5. Macierz kowariancji składników losowych jest równa 3 V  ( ε ) =  E ( ε · εT  ) =  σ 2  ·  I[ T×T ] gdzie σ 2  ∈  [0 , ∞ ) (a) wariancja składnika losowego jest stała dla wszystkich obserwacji  σ 2 t  =  σ 2 ∀t  (jednorodność wariancji) (b) obserwacje są niezależne, składniki losowe dla poszczególnych obserwacji są nieskorelowane (nie występuje autokorelacja składników losowych) 6. dodatkowo jeśli składniki losowe mają rozkład normalny  εt ∼ N (0 , σ 2  ·  I), to mówimy że model spełnia założenia KMNRL (co jest istotne z punktu widzenia estymacji przedziałowej i testowania stosownych hipotez np. o istotności parametrów strukturalnych) Twierdzenie Gaussa Markowa jest ważne , ponieważ mówi o tym, iż w modelu klasycznej regresji liniowej najlepszym (a więc najefektywniejszym - o najmniejszej wariancji) estymatorem w klasie nieob- ciążonych estymatorów liniowych 4 jest estymator ˆ β  =  XT X − 1 XT Y uzyskany przy pomocy metody najmniejszych kwadratów. Własności hiperpłaszczyzny regresji: 1. W KMRL oszacowanym MNK macierz zmiennych objaśniających jest nieskorelowana z wektorem reszt. XT e  = 0 Własność jest zawsze prawdziwa Dowód: Korzystamy z tezy twierdzenia Gaussa - Markowa : ˆ β  =  XT X − 1  XT Y Macierz  XT X  jest z konstrukcji niezerowa, zatem po przekształceniu mamy: XT Y − XT X  ˆ β  = 0  ⇔ XT  ( Y − X  ˆ β ) =  XT  ( Y −  ˆ

(…)

… Klasyczna Metoda Najmniejszych kwadratów i Tw.Gaussa - Markowa
Klasyczna Metoda Najmniejszych Kwadratów (KMNK) jest najczęściej stosowaną (choć nie jedyną)
metodą estymacji jednorównaniowego modelu liniowego. Estymacja (szacowanie) parametrów sprowadza
się do przypisania nieokreślonym liczbowo parametrom konkretnych wartości liczbowych. U podstaw estymacji punktowej leży twierdzenie Gaussa…
... zobacz całą notatkę



Komentarze użytkowników (0)

Zaloguj się, aby dodać komentarz