1. Szeregi czasowe



Pobieranie 132.88 Kb.
Data08.05.2016
Rozmiar132.88 Kb.
1. Szeregi czasowe

Dana jest zmienna losowa i jej wartości: Y1 , Y2 , ... , Yn

Niech Yt = E(Yt) + t dla t = 1,2,...,n

Zbiór punktów dla {t, Yt } dla t = 1,2,..,n nazywamy szeregiem czasowym


Opis szeregu:

Jeżeli E(Yt) = f(t)*a(t) to model multiplikatywny

Jeżeli E(Yt) = f(t)+a(t) to szereg czasowy jest addytywny

f(t) – funkcja trendu

a(t) – funkcję wahań sezonowych(sezonowość)
T - jest zbiorem indeksów najczęściej dyskretnych. (np. data w formacie yymmdd )
Składniki szeregu czasowego:

1 – trend – stała tendencja rozwojowa – Tt

2 – wahania sezonowe – miesięczne, kwartalne, roczne - Si

3 – wahania cykliczne – duży okres, trudno określić - Ci

4 – wahania przypadkowe – składnik nieregularny (błąd) - Et
Dekompozycja szeregu czasowego (wyodrębnienie składników )

modele:

multiplikatywny: Yi = Ti *Si*Ci*Et (zmienna amplituda)

addytywny: Yi = Ti + Si + Ci+Et (stała amplituda i trend)
Wygładzenie szeregu czasowego:

Eliminacja przypadkowych wahań. Analiza trendu w modelu nie zmieniającym wahań okresowych. Stosujemy tutaj (najczęściej) prostą lub krzywą regresji. Metodą najmniejszych kwadratów estymujemy współczynniki i wyznaczamy trend



Estymujemy a0 i a1

Trend liniowy:

Trend potęgowy:

Trend wykładniczy: .
2. Wygladzanie wykladnicze

Wygładzenie wykładnicze – przydatne do prognozowania szeregów nie mających wyraźnego trendu i wahań sezonowych - gdy są tylko wahania losowe. Wygładzamy przez wpływ ostatnich wartości szeregu na prognozę, w stosunku do wpływu bardziej odległych obseracji.


Jest to metoda, w której prognoza oparta jest na średniej ważonej aktualnych i historycznych wartości szeregu. Największą waga nadana jest bieżącej obserwacji i mniejsza waga poprzedniej. Wagi zmniejszają się geometrycznie w miarę cofania się w czasie.
Stosuje się gdy nie ma wyraźnie zarysowanego trendu i sezonowości.
Prognoza:

gdzie to level
Im większa wartość tym szybciej szereg prognoz reaguje na zmiany wartości szeregu oryginalnego. Im mniejsza wartość tym mniej prognoza jest wrażliwa na zmiany wartości zmiennej Zt
Gdy szereg jest gladki to bierzemy małe, a gdy nieregularny to bierzemy duże. Sposób wyboru podyktowany przez błedy. Najważniejzy błąd średniokwadratowy.
Gdy =1 to (patrzy na ostatni)

Gdy =0 to (patrzy na to co się zdażyło dalej w historii)


3. Anova- jednoczynnikowa i dwuczynnikowa- hipotezy

Jednoczynnikowa

Analiza wariancji to technika postępowania przy badaniu wpływu jakiegoś czynnika na przypadkowe wyniki (Badamy czy czynnik α wpływa na zmienną objaśnianą X). Jenoczynnikowa analiza wariancji zajmuje się testowaniem równości średnich


Hipoteza:

Jeśli średnio rzecz biorąc średnie są równe to czynnik A nie ma wpływu na zmienną objaśnioną X.


Założenia Analizy Wariancji:

  1. Próbki są niezależne

  2. Próbki pochodzą z populacji o rozkładzie normalnym

  3. Wariancje od rozkładów odpowiadających poszczególnym poziomom są sobie równe.

Jeśli założenia nie są spełnione to stosujemy test rangowy Kruskala-Wallisa, dla nieparametrycznej ANOVY.



Xijj-ta obserwacja na i-tym poziomie

µ – niezmienna i stała wielkość równa dla wszystkich poziomów

αi – wpływ i tego poziomu

εij – składnik losowy (błąd)
Jeśli założenie są spełnione to ANOVA:

  • jeśli H przyjmuje to koniec obserwacji,

  • jeśli odrzucamy H to porównanie wielokrotne.

Tablica Anovy

Źródło zmienności

Suma kwadratów odchyleń

Liczba stopni swobody

Średni kwadrat odchyleń

Statystyka testowa

p-value

Różnice międzygrupowe

SSA

r-1

MSA=SSA/(r-1)

F=MSA/MSE




Różnice wewnątrz grupowe

SSE

n-r

MSE=SSE/(n-r)

ogółem

SST=SSA+SSE

n-1









sum-squere-total – całkowita suma kwadratów odchyleń. Czyli suma różnic wszystkich wartości Xij od oczekiwanej wartości X



sum-squere-error –suma kwadratów odchyleń wartości cechy od średnich grupowych. Czyli suma różnic wszystkich Xij od oczekiwanej wartości z grupy Xi



sum-squere-A –suma kwadratów odchyleń wartości średnich grupowych cechy A od średniej ogólnej. Czyli suma różnic wszystkich średnich z grupy i Xi od oczekiwanej wartości ze wszystkich obserwacji



Estymator nieobciążony wariancji ogólnej.



Estymator nieobciążony wariancji ogólnej. Nie musi być nieobciążony, jednak jeśli H – jest prawdziwe, to jest nieobciążony.


Dwuczynnikowa

Badamy czy czynniki α, β wpływa na zmienną objaśnianą X, czy zachodzi miedzy nimi interakcja, czy wpływa tylko jeden czynnik.


Hipotezy:







H – czynnik α nie wpływa

K – wpływa



H – czynnik β nie wpływa

K – wpływa



H – nie ma interakcji

K – są interakcje


Jeśli założenia nie są spełnione to stosujemy test rangowy Kruskala-Wallisa, dla nieparametrycznej ANOVY.





µ – niezmienna i stała wielkość równa dla wszystkich poziomów

k – nr. obserwacji

αi – wpływ i tego poziomu czynnika α

β j – wpływ j tego poziomu czynnika β

γij – wpływ interakcji czynnika α z i-tego poziomu, i czynnika β z j-tego poziomu.

εijk – składnik losowy (błąd)



Źródło zmienności

Suma kwadratów odchyleń

Liczba stopni swobody

Średni kwadrat odchyleń

Statystyka testowa

p-value

A

SSA

r-1

MSA=SSA/(r-1)

T1=MSA/MSE

T2=MSB/MSE

T3=MSAB/MSE





B

SSB

s-1

MSB=SSB/(s-1)

Interakcje

SSAB

(r-1)(s-1)

MSAB=SSAB/(r-1)(s-1)

błąd

SSE

r * s * (n-r)

MSE=SSE/rs(n-r)

ogółem

SST

r * s *(n-1)






SST = SSA + SSB +SSAB + SSE







sum-squere-total – całkowita suma kwadratów odchyleń. Czyli suma różnic wszystkich wartości Xij od oczekiwanej wartości X



sum-squere-error –suma kwadratów odchyleń odpowiadająca efektom losowym



sum-squere-A –suma kwadratów odchyleń wartości średnich grupowych cechy A od średniej ogólnej.



sum-squere-B –suma kwadratów odchyleń wartości średnich grupowych cechy B od średniej ogólnej.



Suma kwadratów odchyleń wynikająca z interakcji


Wzory:

Średnia ogólna:



Średnia dla i-tego poziomu czynnika



Średnia dla j-tego poziomu czynnika



Średnia w kratce i,j




4. Estymacja jadrowa, jadro, funkcje jadrowe

Jądrem nazywamy funkcję KR => R spełniające warunki:



  1. K(x) > 0





  2. K – symetryczne względem zera


Estymatorem jądrowym nazywamy funkcję postaci:

gdzie:


h – stała (zwana szerokością pasma, parametrem wygładzającym)

K – jądro

X1 , ... , Xn – próba

ma takie same własności analityczne (różniczkowość , całkowitość) jak funkcja K.


Estymacja nieparametryczna:

  • estymacja gęstości rozkładu – powszechnie stosowanym kryterium jest scałkowany błąd średniokwadratowy



- badany estymator

f – estymowana gęstość



  • Najprostszym estymatorem gęstości jest HISTOGRAM

(Jeśli X1 ,...., Xn jest próbą losową, to estymator zapisujemy

(x) =

- szerokość klasy

Gdy histogram jest estymatorem gęstości to zawsze jest to funkcja nieciągła.

Inny sposób estymowania gęstości rozkładu to estymatory jądrowe:

5. Indeksy sezonowe (model multiplikatywny, addytywny) - kryteria

Niech : zi – wahania sezonowe w i-tej obserwacji, ilość sezonów k ,



n – ilość pomiarów danego sezonu.

średnia wartość wahań sezonowych w i-tym sezonie - Si’ = ( zi + zi+k +…+ zi+(n-1)*k) * 1/n

suma średnich wahań sezonowych Si’ (dla i od 1 do k) , ss = (Si + Si+1’+…+Sk )

index sezonowy dla i tego sezonu, Si = Si’* ( k / ss )

(czyli jego średnia sezonowa pomnożona przez, liczbę sezonów dzielonych przez sumę średnich sezonowych )

Indexy sezonowe w modelu multiplikatywnym: Yi = Ti *Si*Ci
Index Si mówi o ile poziom zjawiska (wydobycie węgla itp.) jest w i-tym obrazie wyższy bądź niższy od poziomu zjawiska opisanego przez trend.

(Si – 1)*100% - wyraża nam stosunek procentowy, zwiększenia lub zmniejszenia zjawiska w stosunku do trendu.

indeks sezonowy = średnia dla sezonu * (liczba skladowych sezonu) / suma średnich
Indexy sezonowe w modelu addytywnym: Yi = Ti + Si + Ci

Index Si mówi o ile wartość danego zjawiska (wydobycie węgla itp.) jest w i-tym obrazie wyższy bądź niższy od poziomu zjawiska opisanego przez trend.

indeks sezonowy = średnia dla sezonu + |suma średnich| / liczba skladowych sezonu
- wartość trendu prognozujemy z równania regresyjnego trendu

- estymujemy indeksami sezonowymi

- składowa cykliczna


1992

Zima

1992

Wiosna

1992

Lato

1992

Jesień

1993

Zima

1993

Wiosna

1993

Lato

1993

Jesień

średnia dla sezonu = średnia z zimy, wiosny, lata i jesieni z danego roku (np. 1992)

liczba składowych sezonu = 4 (zima, wiosna, lato, jesień)

suma średnich = średnia z zim 1992 i 1993 + średnia wiosen 1992 i 1993 itd



6. Karty kontrolne (np, p, c) - granica i odchylenie, jak sa tworzone

Badane kartami cechy powinny mieć rozkład normalny.

Do oceny liczbowej ( pomiary wielkości fizycznych ):

X – R, gdy liczność próbki <= 9

X – S, gdy liczność próbki >= 10

(i zmodyfikowana karta X – S, dla próbek o różnej liczności )


Do oceny kontrolnej:

- wyznaczanie liczby egzemplarzy wadliwych ( 1 obiekt = max 1 wada):



p – udział (np. %) egzemplarzy wadliwych w próbkach równolicznych lub zmiennych (np. różne ilości pacjentów w miesiącu)

np – liczba egzemplarzy wadliwych w próbkach równolicznych

- suma wystąpień zjawiska na obszarze:



c – rozmiar obszaru stały lub nieznany

u – rozmiar obszaru zmienny

CL – średnia wartość

UCL, LCL - granice pasma.
Karta p – frakcja jednostek niezgodnych

Karta frakcji jednostek niezgodnych. Gdyby znana byla dopuszczalna frakcja jednostek niezgodnych p kontrolowanego procesu, wowczas odpowiednia karta kontrolna wygladalaby: UCL=p+3*sqrt(p(1-p)/n; CL=p; LCL=p-3*sqrt(p(1-p)/n

W przypadku, gdy wielkosc frakcji p nie jest znana, estymujemy ja na podstawie obserwacji 20-30 probek o tej samej liczebnosci n. Niech m oznacza liczbe probek, natomiast Di liczbe jednostek niezgodnych w i-tej probce. Wowczas rakcja jednostek niezgodnych wynosi: p=Di/n
Dla p – dopuszczalnej frakcji jednostek niezgodnych.

Jeśli p nie jest znane to estymujemy z 20-30 próbek o liczności n:



, gdzie

gdzie Di – liczba jednostek niezgodnych w i-tej próbce, więc pi to frakcja niezgodnych jednostek w próbce i

Otrzymujemy kartę p:

Uwaga: Gdy otrzymamy LCL < 0 to LCL = 0;


Karta np - liczba jednostek niezgodnych

Jeśli p nie jest znane to szacujemy je tak samo jak w karcie p. Otrzymujemy wówczas:





Karta cliczba niezgodności

Często liczba niezgodności zaobserwowanych w ustalonym czasie ma rozkład Poissona, c jest wartością oczekiwaną liczby niezgodności.



Ponieważ w rozkładzie Poissona wartość oczekiwana i wariancja są sobie równe, to karta c ma postać



Gdy nieznany c to szacujemy z 20-30 próbek. ( ciliczba niezgodności w i-tej próbce)



Otrzymujemy kartę c:



Uwaga: Gdy otrzymamy LCL < 0 to LCL = 0;



Karta u – liczba niezgodności na jednostkę - próbki o n liczności.

ui – będzie liczbą niezgodności na jednostkę w i-tej próbce

zatem u jest to średnia liczba niezgodności na jednostkę oszacowaną na podstawie m próbek





a karta u wygląda następująco:



Karta u – liczba niezgodności na jednostkę - próbki o różnej liczności.

ui – będzie liczbą niezgodności na jednostkę w i-tej próbce

zatem u jest to średnia liczba niezgodności na jednostkę oszacowaną na podstawie m próbek





a karta u wygląda następująco:

Uwaga: Granice liczymy oddzielnie dla każdej próbki, jeśli próbki nie są równoliczne to granice nie są ciągłe.


7. Jednoetapowe wyznaczanie kart

- karta p - karta frakcji jednostek niezgodnych - UCL=p+3*sqrt(p(1-p))/n; CL=p; LCL=p-3*sqrt(p(1-p)/n

- karta np - karta liczby jednostek niezgodnych - UCL=np+3*sqrt(np(1-p)); CL=np; LCL=np-3*sqrt(np(1-p)

- karta c - karta liczby niezgodnosci - UCL=c+3*sqrt(c); CL=c; LCL=c-3*sqrt(c)

- karta u - karta liczby niezgodnosci na jednostke - UCL=u+3*sqrt(u/n); CL=u; LCL=u-3*sqrt(u/n)

bayers
8. Metoda najmniejszych kwadratow - wyprowadzic wzor

Jest to najstarsza metoda konstruowania estymatorow.

Idea metody najmniejszych kwadratow jest nastepujaca: jeśli na podstawie proby (x1,x2,…,xn) szacuje się wartosc srednia m populacji to można opisac xi=m+εi, i=1,…,n

gdzie εi jest odchyleniem zmiennyj Xi od m.

Należy oczekiwac ze odchylenia te sa male gdyz obserwacje dostarczaja pewnych informacji o m. Stad, jako estymatora sredniej m, można uzyc takiej wielkosci m, która minimalizuje sume:
Estymator – rozsadne oszacowanie wartosci parametru. Estymatorem Tn parametry p rozkladu populacji generalnej nazywamy statystyke z proby Tn=t(X1,X2,…) która sluzy do oszacowania wartosci tego parametru. Rozklad estymatora jest zdeteminowany przez rozklad zmiennej losowej X a przy tym jest zalezny od parametru p.

9. Wspolczynnik R^2 (współczynnik determinacji)

Wspolczynnik R^2 - inaczej wspolczynnik determinacji R^2 = SSR/SST, albo 1 - SSE/SST.

uzywa sie go do okreslania poprawnosci modelu regersyjnego, a okresla on w jakim stopniu model regresyjny odpowiada za zmiennosc badaniej funckji. im wiekszy tym lepszy, w sumie juz od 0.8 do 1 przyjuje sie model.

Własności współczynnika determinacji:

  1. R2 = 1 jeżeli dla i= 1,2,...,n

  2. R2 = 0 jeżeli Zmienna X nie ma wpływu na Y



współczynnik determinacji wyrażamy w procentach. Oznacza jaki % zmienności zmienej zależnej Y zostaje wyjaśniony przez regresję liniową zmiennej X

Fakt:


gorzej dopasowane lepiej dopasowane



SSR – zmienność wyjaśniona przez model regresji

SSE – zmienność niewyjaśniona

SST – zmienność całkowita


10. Średnia Winsorowska

Powstaje w wyniku obliczenia średniej z próby z której usunięto obserwacji najmniejszych i obserwacji największych, przy czym zastąpiono usunięte najmniejsze , najmniejszą z pozostałych i największe usunięte, największą z pozostałych.




  1. porządkowanie próby

  2. ucięcie k – obserwacji z obu stron

  3. odcięte obserwacje uzupełniamy o k+1 obserwacja na początku, i n-k’tą na końcu

  4. Liczymy średnią



11. Plan badań wg. oceny alternatywnej

W tzw jednostopniowym planie badania, decyzja o przyjeciu badz odrzuceniu partii podejmowana jest w zaleznosci od tego czy d>c, czy tez d<=c, gdzie d-liczba elementow wadliwych, c-dopuszczalna liczba elementow wadliwych


12. Srednia ruchoma

Nieparzysty okres wygładzania:



m – okres wygładzania

m = 2q + 1

Np. dla m = 3: q = 1, Yt = ( 1 / 3 ) * ( Yt-1+Yt+Yt+1) – więc będzie teraz wartością średnią z obserwacji jej poprzedzającej, jej samej i następnej. Przy czym w wygładzonym szeregu pomijamy pierwsze i ostatnie q obserwacji.

Parzysty okres wygładzania:



m – okres wygładzania

m = 2q

Przy czym w wygładzonym szeregu pomijamy pierwsze i ostatnie q obserwacji.


13. Srednia ucieta

Powstaje w wyniku obliczenia średniej z próby z której usunieto obserwacji najmniejszych i obserwacji największych. Srednia ucięta dla = 1 wynosi 4,25

Krok po krou


  1. Porządkowanie próby

  2. Odcięcie obserwacji krańcowych (% obserwacji, lub k obserwacji) [przeważnie 1-2%]
    k – jeśli znamy liczność próby. k:= max{ k <= n* α }

  3. Liczymy średnią



15. Regresja liniowa

Regresja – statystyczne metody modelowania związków między zmiennymi


Prosta regresja liniowa – modelowanie związków między dwiema zmiennymi: zmienną zależną (Y) i zmienną niezależną (X). Model którym się posługujemy zakłada że między X i Y zachodzi liniowy związek. Na wykresie rozproszenia zauważamy wzrost Y w odpowiedzi na wzrost X.
Szacowanie (estymacja) parametrów metodą najmniejszych kwadratów. Daje ona najlepsze nieobciążone estymatory parametrów regresji.

Y = b0 + b1X + e

Wtedy równaniem linii regresji jest:

Znajdujemy b0 i b1 minimalizujące SSE:



Linia regresji przechodzi przez punkt




Przebieg regresji liniowej:

  1. Znaleźć funkcję y=f(x) (dopasowanie modelu)

  2. Sprawdzić:

  1. Wsp. Korelacji

  2. Test istotności dla wsp. Kierunkowego b

H: B=0

K: H



  1. analiza wariancji

H: nie istnieje zależnośc miedzy X i Y

K: H



  1. test istotności dla wsp. Korelacji

H: =0

K: H

e) czy resety mają rozkład normalny
16. Regresja wieloraka

Jeśli zakldamay liniowy związek między zmienną zależną Y, a zbiorem kilku niezależnych zmiennych lyb gdy zakładany związek między zmiennymi nieliniowymi, wtedy stosujemy metodę zwaną regresją wiloraką.


Założenia:

  1. Dla każdej obserwacji błąd(skladnik) losowy ma rozkład normalny o średniej=0 i standardowym odchyleniu  oraz jest niezależny od składników losowych związanych z wszystkimi innymi obserwacjami i jest niezależny od innych błędów losowych.

  2. W ramach analizy regresji zmienne Xi, uważamy za wielkości których wartości są ustalone, podczas gdy w ramach analizy korelacji zmienne Xi są traktowane jako wielkości losowe. W każdym przypadku zmienne Xi są niezależne od błędu losowego . Gdy zakładamy, że wartości Xi są wartościami ustalonymi, to przyjmujemy, że dotyczy to wszystkich k zmiennych i że jedynym źródłem losowości zmiennych Y jest składnik losowy .

Kroki badania dopasowania:



  1. R2  100%

  2. analiza wariacji

H: a1= a2=...= 0

K: a1<>0 lub a2<>0



  1. testy istotności

H: a1=0

K: a1<>0



  1. czy resety mają rozkąłd normalny


17. Problem decyzyjny

Problem decyzyjny to pojęcie z zakresu teorii decyzji, oznaczające sytuację problemową, w której podmiot (decydent) staje przed koniecznością wyboru jednego z przynajmniej dwóch możliwych wariantów działania.

Sformułowanie problemu decyzyjnego jest zazwyczaj pierwszym krokiem do zbudowania modelu decyzyjnego. Dobrze sformułowany problem powinien szczegółowo definiować:
    * decydenta lub decydentów
    * warunek ograniczający decyzję
    * zbiór decyzji dopuszczalnych
    * kryteria oceny decyzji

Proces Decyzyjny:


  1. Sformułuj jasno problem decyzyjny ( sytuacja w której podmiot – decydent - staje przed wyborem jednego z przynajmniej dwóch wariantów działania )

  2. Wylicz wszystkie możliwe decyzje ( różne możliwe warianty działania dla decydenta)

  3. Zidentyfikuj wszystkie możliwe stany natury ( czyli każde z możliwych następstw wariantu decyzyjnego, niezależne od decydenta, ale mające wpływ na wypłatę )

  4. Określ wypłatę dla każdej możliwej sytuacji (czyli komórce na przecięciu decyzji/stan natury)

  5. Wybierz stosowny model matematyczny problemu decyzyjnego

  6. Zastosuj wybrany model i podejmij decyzję.

Zbiór możliwych decyzji (akcji)

Zbiór stanów natury



Wypłata (korzyść)
Strata możliwości

Przy danym stanie natury θj strata możliwości związana z decyzją ai jest równa maksymalnej wypłacie w stanie natury θj minus wypłatą w stanie wij odpowiadającą j-temu stanowi natury i i-tej decyzji ai





Decyzja ak dominuje decyzję ai (nie jest gorsza od ai), jeżeli



Decyzja ak ściśle dominuje decyzję ai (jest lepsza od ai), jeżeli



oraz



Decyzja ak jest równoważna decyzji ai , jeżeli



Decyzja ak jest dopuszczalna jeśli nie istnieje decyzja ściśle ją dominująca.

Kryteria wyboru decyzji optymalnych


Podejmowanie decyzji w warunkach pewności

(tylko 1 stan natury)

Decyzja optymalną jest decyzja która odpowiada maksymalnej wypłacie.


Podejmowanie decyzji w warunkach ryzyka

Znany jest rozkład prawdopodobieństwa wystąpienia poszczególnych stanów natury. (teoretyczne założenia, badania empiryczne przeprowadzone w przeszłości, subiektywna ocena decydenta)





Kryteria wyboru w warunkach ryzyka:

- maksymalizacja oczekiwanej wypłaty (oczekiwana oznacza ze mnożysz ją przez prawdopodobieństwo)

liczysz EMV dla wierszy, sumując wypłaty mnożone przez prawdopodobieństwo ich zajścia.

wybierasz maksymalną z oczekiwanych wypłat (maksymalne EMV z wszystkich wierszy)



- minimalizacja oczekiwanej straty możliwości (obliczanie tablicy strat możliwości)

liczysz EOL dla wierszy, sumując straty mnożone przez prawdopodobieństwo ich zajścia.

wybierasz minimalną z oczekiwanych strat możliwości





Podejmowanie decyzji w warunkach niepewności:

Nie dysponujemy żadnymi informacjami o prawdopodobieństwie.


Kryteria wyboru w warunkach niepewności:

- kryterium maksymaksowe (MaxMax)

decyzją optymalną jest ta której odpowiada maksymalna wypłata

(wybierasz maksymalna wypłatę z każdego wiersza, i z nich wybierasz maksymalna)



- kryterium maksyminowe (MaxMin)

decyzją optymalną jest ta której odpowiada maksymalna z minimalnych wypłat

(wybierasz minimalną wypłatę z każdego wiersza, i z nich wybierasz maksymalną)


- kryterium Laplace’a

decyzja której odpowiada maksymalna oczekiwana wypłata

(liczysz średnią wypłatę z każdego wiersza (decyzji) i wybierasz największą z nich)



m – ilość stanów natury

- kryterium Hurwicza

decyzja której odpowiada maksymalna wartość oceny Hurwicza

ocenę dla decyzji ai liczymy używając współczynnika α [0,1] (‘stopnia optymizmu’)

( mnożymy maksymalną wypłatę w wierszu przez współczynnik α, i dodajemy do niej minimalną wypłatę w wierszu pomnożoną przez (1 – α) – z tak powstałych ocen wierszy(decyzji) wybieramy maksymalną )

- kryterium Savage’a (minmaxowe, MinMax)

decyzja której odpowiada minimalna z maksymalnych strat możliwości.

(liczymy tablice strat możliwości. W niej z wierszy wybieramy maksymalną wartość , a następnie z wybranych wartości wybieramy minimalną)




18. Analizy wariancji

Analiza wariancji jest metodą analizy danych eksperymentalnych, służy do oceny wpływu jednego lub większej liczby czynników klasyfikacyjnych na badane zjawisko. Jest to metoda statystyki matematycznej, bazująca na porównaniu wariancji. Jednym z częściej rozwiązywanych za jej pomocą problemów jest analiza czynników zewnętrznych wpływających na wynik przeprowadzonego doświadczenia.


To zbiór metod statystycznych, służących do badania obserwacji, które zależą od jednego lub wielu działających równocześnie czynników. Metody te służą wyjaśnieniu w jakim stopniu czynniki te wpływają na wyniki obserwacji. Analiza wariancji została zapoczątkowana w latach dwudziestych przez Ronalda Fishera.

Modele analizy wariancji można podzielić na:



  • modele jednoczynnikowe - wpływ każdego czynnika jest rozpatrywany oddzielnie, tą klasą zagadnień zajmuje się jednoczynnikowa analiza wariancji

  • modele wieloczynnikowe - wpływ różnych czynników jest rozpatrywany łącznie, tą klasą zagadnień zajmują się wieloczynnikowe analizy wariancji

Według kryterium podział modeli przebiega następująco:

  • model efektów stałych - obserwacje są z góry podzielone na kategorie

  • model efektów losowych - kategorie mają charakter losowy

  • model mieszany - część kategorii jest ustalona, a część losowa

19. Metoda sumy kwadratow odchylen - wyprowadzic wzor

KLASYCZNA METODA NAJMNIEJSZYCH KWADRATÓW





Idea

Wyznaczyć takie wartości ocen parametrów strukturalnych a0,...,ak, aby suma kwadratów odchyleń wartości zaobserwowanych zmiennej objaśnianej (wartości empirycznych) od wartości teoretycznych była jak najmniejsza .


Założenia (warunki stosowania KMNK)


Dane są obserwacje na zmiennej objaśnianej i zmiennych objaśniających.

Y

X1

Xl

Xm

Y1

X11



X1m

Y2

X21



X2m

...







Yn

X



Xnm

Warunek 1

Pomiędzy zmienną objaśnianą i zmiennymi objaśniającymi zachodzi zależność liniowa zakłócona tylko składnikiem losowym tzn.

(Y= X+)

Warunek 2

Zmienne objaśniające Xj (j=1,2,…,m) są nielosowe.

Warunek 3

Zmienne objaśniające są liniowo niezależne (są nie skorelowane).

Warunek 4

Składniki losowe i (i=1,2,…,n) są niezależnymi zmiennymi losowymi o wartości oczekiwanej 0 i stałej wariancji równej 2.

E(i)=0 , i=1,2,…,n

D2(i)= 2

cov(i, t)=0 , it
Model spełniający te cztery warunki nazywamy klasycznym modelem liniowym.
Wektor ocen parametrów strukturalnych

a=(XTX)-1XTY


Jeśli liczę KMNK – macierze, to muszę dopisać kolumnę jedynek. Jeśli ją wpiszę z przodu to a0 jest wyrazem pierwszym a jeśli odwrotnie – ostatnim.

et= y-y^

Y^=X*a

Ocena wariancji składnika losowego



n- liczba obserwacji zmiennej objaśnianej

m- liczba szacowanych parametrów strukturalnych
, gdzie k- liczba zmiennych objaśniających modelu

Macierz wariancji i kowariancji ocen parametrów strukturalnych wynosi D2(a)= Se2(XTX)-1



Wszystkie czynniki na głównej przekątnej są potrzebne do obliczenia standardowych błędów szacunku parametrów strukturalnych. Stosuje się to do badania istotności parametrów strukturalnych w weryfikacji. Wyniki szacowania modelu można zapisać następująco


REGLINP

Liczba wierszy zawsze równe 5, liczba kolumn równa liczbie szacowanych parametrów. Wiersz pierwszy to oceny parametrów strukturalnych, wiersz drugi to standardowe błędy ocen parametrów strukturalnych. R2- współczynnik determinacji. Se- odchylenie standardowe reszty; informuje o ile wartości empiryczne zmiennej objaśnianej różnią się przeciętnie od wartości teoretycznych. F- statystyka Fishera-Snedecora, df- liczba stopni swobody, ssreg- regresyjna suma kwadratów, ssresid- resztowa suma kwadratów.









©absta.pl 2016
wyślij wiadomość

    Strona główna