Wprowadzenie do statystyki - ćwiczenie 12

Nasza ocena:

5
Pobrań: 7
Wyświetleń: 658
Komentarze: 0
Notatek.pl

Pobierz ten dokument za darmo

Podgląd dokumentu
Wprowadzenie do statystyki - ćwiczenie 12 - strona 1 Wprowadzenie do statystyki - ćwiczenie 12 - strona 2 Wprowadzenie do statystyki - ćwiczenie 12 - strona 3

Fragment notatki:


ĆWICZENIA nr 12  Cel  zajęć:   Zapoznanie  z  modelem  regresji  liniowej  z  jedną  zmienną  niezależną,  estymacja  parametrów  tego  modelu,  jego  interpretacja  oraz  ocena  stopnia  dopasowania  do  danych  rzeczywistych.    Wprowadzenie teoretyczne  W pewnym uproszczeniu  modelowanie statystyczne  może być rozumiane jako ciąg kolejno  następujących  po  sobie  procedur,  których  wykonanie  prowadzi  do  wyniku,  jakim  jest   model  statystyczny . W praktyce modelowania zdarza się często, że wiele z tych procedur należy powtórzyć  wielokrotnie. Jeżeli bowiem skonstruowany model nie przejdzie pomyślnie weryfikacji statystycznej,  to  może  się  okazać,  że  badane  zjawisko  lepiej  opisuje  inna  funkcja  lub  inny  układ  zmiennych.  Wymusza to ponowną konstrukcję modelu i jego weryfikację.  Algorytm budowy modelu statystycznego jest następujący:    dobór zmiennych do modelu regresji,    wybór  analitycznej  postaci  modelu  (akcent  jest  tu  położony  głównie  na  modele  liniowe i modele transformowalne do liniowych),    estymacja parametrów modelu,    weryfikacja modelu.    Model regresji liniowej  można zapisać w następujący sposób:  ε α α α + + + + = k k x x y ... 1 1 0 ,  gdzie   y   jest   zmienną  objaśnianą   ( zależną ),  k x x x ,..., , 2 1   są   zmiennymi  objaśniającymi   ( niezależnymi ),  k α α α ,..., , 2 1   są   parametrami   modelu,  ε   jest   składnikiem  losowym   modelu.  Parametry modelu podlegają szacowaniu (estymacji) klasyczną metodą najmniejszych kwadratów.     Zastosowanie tej metody wymaga przyjęcia następujących założeń:  •  postać modelu jest liniowa lub sprowadzalna do liniowej,  •  zmienne objaśniające są wielkościami nielosowymi,  •  zmienne objaśniające są niezależne i wolne od współliniowości, czyli nie występuje między  zmiennymi dokładna zależność liniowa,  •  liczba obserwacji jest co najmniej równa liczbie szacowanych parametrów,  •  składniki losowe dla wszystkich obserwacji mają wartości oczekiwane równe zeru ( ( ) 0 = ε E )  •  składniki losowe mają skończoną wariancję równą  2 σ ,  •  kowariancje pomiędzy składnikami losowymi są równe zeru, tzn. nie występuje autokorelacja  składnika losowego,  •  składniki losowe nie są skorelowane ze zmiennymi objaśniającymi,  •  składnik losowy ma rozkład normalny  ( ) σ , 0 N .           

(…)


oraz współczynnika determinacji.
3. Za pomocą pakietu Excel sprawdzić poprawność obliczeń wykonanych w zadaniu 2.
Źródła:
Krysicki W., Bartos J., Dyczka W., Królikowska K., Wasilewski M. „Rachunek prawdopodobieństwa i
statystyka matematyczna w zadaniach – część II: Statystyka matematyczna”, PWN, Warszawa 2004
Kukuła K. „Elementy statystyki w zadaniach”, PWN, Warszawa 2003
Magiera R. „Modele i metody statystyki…
…௜ − ‫ݕ‬௜ ,

gdzie ‫ ݕ‬oznacza wartość prognozy. Wariancje resztowe wyznaczanie są następująco:

ܵ
ଶ ሺ݁ሻ


௜ୀଵ
௜ୀଵ
1
1
=
෍ሺ‫ݕ‬௜ − ‫ݕ‬௜ ሻଶ =

෍ ݁௜ଶ
݊−2
݊−2
Im mniejszą wartość przyjmuje powyższy parametr, tym lepszą ocenę otrzymuje weryfikowany
model. W celu określenia dopasowania modelu liniowego do danych empirycznych, oblicza się
współczynnik zbieżności oraz współczynnik determinacji. Współczynnik…
... zobacz całą notatkę



Komentarze użytkowników (0)

Zaloguj się, aby dodać komentarz