Thursday 19 October 2017

Flytting Gjennomsnitt Prosess Stasjonær


Vurder den uendelige rekkefølge MA prosessen definert av ytepsilonta (epsilon epsilon.), Hvor a er en konstant og epsilonene er i. i.d. N (0, v) tilfeldig variabel. Hva er den beste måten å vise at yt er nonstationary Jeg vet at jeg trenger å se på egenskapene polynomiske karakteristiske røtter og deretter vurdere om de er utenfor enhetens krets, men hva er den beste måten å nærme seg dette problemet på Skal jeg prøve å omskrive den uendelige rekkefølgen MA-prosessen som en endelig AR-prosess, eller er det lettere å jobbe MA-prosessen spurte 19 okt 13 kl 21: 11. Hva er stasjonær autoregressiv (AR), glidende gjennomsnittlig (MA) og stasjonær blandet (ARMA ) prosesser Stasjonær autoregressiv (AR) prosess Stasjonære autoregressive (AR) prosesser har teoretiske autokorrelasjonsfunksjoner (ACFs) som forfall mot null, i stedet for å kutte til null. Autokorrelasjonskoeffisientene kan alternere i tegn ofte, eller vise et bølgelignende mønster, men i alle tilfeller svinger de av mot null. AR-prosessene med rekkefølge p har derimot teoretiske partielle autokorrelasjonsfunksjoner (PACF) som kuttes til null etter lag p. (Lagslengden til den endelige PACF-spissen tilsvarer AR-rekkefølgen av prosessen, s.) Flytende gjennomsnittlig (MA) - prosess De teoretiske ACF-ene av MA (glidende gjennomsnitt) prosesser med ordre q kuttet av til null etter lag q, MA-ordren av prosessen. Men deres teoretiske PACFer forfall mot null. (Laglengden til den endelige ACF-spissen er MA-rekkefølgen av prosessen, q.) Stasjonær blandet (ARMA) prosess Stasjonær blandet (ARMA) prosesser viser en blanding av AR og MA egenskaper. Både den teoretiske ACF og PACF svinger av mot null. Opphavsrett 2016 Minitab Inc. Alle rettigheter Reservert. En kort introduksjon til moderne tidsseriedefinisjon En tidsserie er en tilfeldig funksjon x t av et argument t i et sett T. Med andre ord er en tidsserie en familie av tilfeldige variabler. x t-1. x t. x t1. som tilsvarer alle elementene i settet T, hvor T skal være et tallbart, uendelig sett. Definisjon En observert tidsserie t t e T o T regnes som en del av en realisering av en tilfeldig funksjon x t. Et uendelig sett med mulige realiseringer som kunne ha blitt observert kalles et ensemble. For å si ting strengere er tidsserien (eller tilfeldig funksjon) en reell funksjon x (w, t) av de to variablene w og t, hvor wW og t T. Hvis vi fastsetter verdien av w. vi har en reell funksjon x (t w) av tiden t, som er en realisering av tidsseriene. Hvis vi fikser verdien av t, har vi en tilfeldig variabel x (w t). For et gitt tidspunkt er det en sannsynlighetsfordeling over x. Dermed kan en tilfeldig funksjon x (w, t) betraktes som enten en familie av tilfeldige variabler eller som en familie av realisasjoner. Definisjon Vi definerer distribusjonsfunksjonen til den tilfeldige variabelen w gitt t 0 som P o) x (x). På samme måte kan vi definere fellesfordelingen for n tilfeldige variabler. Poengene som skiller tidsserieanalyse fra vanlige statistiske analyser er følgende. (1) Avhengigheten av observasjoner på forskjellige kronologiske tidspunkter spiller en viktig rolle. Med andre ord er rekkefølgen av observasjoner viktig. I vanlig statistisk analyse antas det at observasjonene er gjensidig uavhengige. (2) Domenet til t er uendelig. (3) Vi må gjøre en innledning fra en realisering. Realiseringen av den tilfeldige variabelen kan bare observeres en gang på hvert tidspunkt. I multivariat analyse har vi mange observasjoner på et begrenset antall variabler. Denne kritiske forskjellen krever antagelsen om stationaritet. Definisjon Den tilfeldige funksjonen x t sies å være strengt stasjonær dersom alle de endelige dimensjonsfordelingsfunksjonene som definerer x t forblir de samme selv om hele gruppen av poeng t 1. t 2. t n forskyves langs tidsaksen. Det er, hvis for noen heltall t 1. t 2. t n og k. Grafisk kan man forestille realiseringen av en strengt stasjonær serie som å ha ikke bare det samme nivået i to forskjellige intervaller, men også den samme fordelingsfunksjonen, helt ned til parametrene som definerer den. Forutsetningen om stasjonar gjør våre liv enklere og mindre kostbare. Uten stasjonæritet måtte vi prøve prosessen ofte på hvert tidspunkt for å bygge opp en karakterisering av distribusjonsfunksjonene i den tidligere definisjonen. Stasjonar betyr at vi kan begrense vår oppmerksomhet til noen av de enkleste numeriske funksjonene, det vil si fordelingens øyeblikk. De sentrale øyeblikkene er gitt ved Definisjon (i) Middelverdien av tidsserien t er det første ordens øyeblikk. (ii) Autokovariansfunksjonen av t er det andre øyeblikket om middelverdien. Hvis ts har du variansen av x t. Vi vil bruke til å betegne autokovariansen til en stasjonær serie, hvor k betegner forskjellen mellom t og s. (iii) Autokorrelasjonsfunksjonen (ACF) av t er Vi vil bruke til å betegne autokorrelasjonen til en stasjonær serie, hvor k angir forskjellen mellom t og s. (iv) Den delvise autokorrelasjonen (PACF). f kk. er sammenhengen mellom z t og z tk etter at de har fjernet sin gjensidige lineære avhengighet av de mellomliggende variablene z t1. z t2. z tk-1. En enkel måte å beregne den delvise autokorrelasjonen mellom z t og z tk er å kjøre de to regresjonene og deretter beregne korrelasjonen mellom de to restvektorer. Eller, etter å måle variablene som avvik fra deres middel, kan den delvise autokorrelasjonen bli funnet som LS-regresjonskoeffisienten på z t i modellen der punktet over variabelen indikerer at det måles som en avvik fra dens gjennomsnitt. (v) Yule-Walker-ligningene gir et viktig forhold mellom de delvise autokorrelasjonene og autokorrelasjonene. Multipliser begge sider av ligning 10 ved z tk-j og ta forventninger. Denne operasjonen gir oss følgende forskjellsligning i autocovariances eller, når det gjelder autokorrelasjoner Denne tilsynelatende enkle representasjonen er virkelig et kraftig resultat. Nemlig, for j1,2. k kan vi skrive hele systemet av ligninger, kjent som Yule-Walker-ligningene. Fra lineær algebra vet du at matrisen av r s er fullstendig rangert. Derfor er det mulig å anvende Cramers regel suksessivt for k1,2. å løse systemet for de delvise autokorrelasjonene. De tre første er Vi har tre viktige resultater på strengt stasjonære serier. Implikasjonen er at vi kan bruke en hvilken som helst endelig realisering av sekvensen til å estimere gjennomsnittet. Sekund . hvis t er strengt stasjonær og E t 2 lt da Implikasjonen er at autokovariansen bare avhenger av forskjellen mellom t og s, ikke deres kronologiske punkt i tid. Vi kunne bruke noen par intervaller i beregningen av autokovariansen så lenge tiden mellom dem var konstant. Og vi kan bruke en hvilken som helst begrenset realisering av dataene til å estimere autocovariances. For det tredje er autokorrelasjonsfunksjonen i tilfelle strenge stasjonar gitt av Implikasjonen er at autokorrelasjonen bare avhenger av forskjellen mellom t og s, og igjen kan de estimeres ved en endelig realisering av dataene. Hvis målet vårt er å estimere parametere som er beskrivende av de mulige realisasjonene av tidsserien, er kanskje streng stasjonærhet for begrensende. For eksempel, hvis gjennomsnitt og covariances av x t er konstant og uavhengig av kronologisk punkt i tid, er det kanskje ikke viktig for oss at fordelingsfunksjonen er den samme for ulike tidsintervaller. Definisjon En tilfeldig funksjon er stasjonær i bred forstand (eller svakt stasjonær eller stasjonær i Khinchins-forstand eller kovarians stasjonær) hvis m 1 (t) m og m 11 (t, s). Strenge stasjonar innebærer ikke i seg selv svak stasjonaritet. Svak stabilitet betyr ikke strenge stasjonar. Strenge stasjonar med E t 2 lt innebærer svak stasjonaritet. Ergodiske teoremer er opptatt av spørsmålet om de nødvendige og tilstrekkelige forholdene for å gjøre innfall fra en enkelt realisering av en tidsserie. I utgangspunktet koker det seg for å anta svak stasjonæritet. Teorem Hvis t er svakt stasjonær med gjennomsnittlig m og kovariansfunksjon, så er det for noen gitt e gt 0 og h gt 0 det eksisterer et tall T o slik at for alle T gt T o. hvis og bare hvis dette er nødvendig og tilstrekkelig betingelse er at autocovariances dør ut, i hvilket tilfelle prøven er en konsistent estimator for populasjonsmiddelet. Corollary Hvis t er svakt stasjonær med E tk xt 2 lt for noen t, og E tk xtx tsk x ts er uavhengig av t for noe heltall s, så hvis og bare hvis hvor A konsekvens av sammenhengen er antakelsen om at xtx tk er svakt stasjonær. Den ergotiske setningen er ikke mer enn en lov av store tall når observasjonene er korrelerte. Man kan på dette punkt spørre om de praktiske implikasjonene av stasjonar. Den vanligste bruken av bruk av tidssergeteknikker er å modellere makroøkonomiske data, både teoretisk og atoretisk. Som et eksempel på den tidligere, kan man ha en multiplikator-akselerator modell. For at modellen skal være stasjonær, må parameterne ha visse verdier. En test av modellen er da å samle de relevante dataene og estimere parametrene. Hvis estimatene ikke stemmer overens med stasjonar, må man revurdere enten den teoretiske modellen eller statistisk modell eller begge deler. Vi har nå nok maskiner til å begynne å snakke om modellering av univariate tidsseriedata. Det er fire trinn i prosessen. 1. bygge modeller fra teoretisk ogor erfaringskunnskap 2. identifisere modeller basert på dataene (observerte serier) 3. tilpasse modellene (estimere parametrene til modellen / modellene) 4. sjekke modellen Hvis det i fjerde trinn ikke er vi fornøyd, vi går tilbake til første trinn. Prosessen er iterativ til ytterligere kontroll og respektering gir ingen ytterligere forbedring i resultatene. Diagrammatisk definisjon Enkelte enkle operasjoner inkluderer følgende: Backshift operatøren Bx tx t-1 Foroveroperatøren Fx tx t1 Forskjellen operatør 1 - B xtxt - x t-1 Differansen operatøren oppfører seg på en måte som stemmer overens med konstanten i en uendelig serie . Det vil si at dets inverse er grensen til en uendelig sum. Nemlig, -1 (1-B) -1 1 (1-B) 1BB 2. Integreringsoperatøren S -1 Siden det er invers av differanseoperatøren, tjener integrasjonsoperatøren til å konstruere summen. MODELL BUILDING I denne delen gir vi en kort gjennomgang av de vanligste typene av tidsseriemodeller. På grunnlag av kunnskap om datagenereringsprosessen velger man en klasse av modeller for identifisering og estimering fra mulighetene som følger. Definisjon Anta at Ex t m er uavhengig av t. En modell som med egenskapene kalles den autoregressive bestillingsmodellen p, AR (p). Definisjon Hvis en tidsavhengig variabel (stokastisk prosess) tilfredsstiller, t, er det sagt å tilfredsstille Markov-egenskapen. På LHS er forventningen betinget av den uendelige historie x t. På RHS er det betinget av kun en del av historien. Fra definisjonene er en AR (p) - modell sett til å tilfredsstille Markov-eiendommen. Ved hjelp av backshift-operatøren kan vi skrive vår AR-modell som teorem En nødvendig og tilstrekkelig betingelse for at AR (p) - modellen skal være stasjonær, er at alle røttene til polynomet ligger utenfor enhetens sirkel. Eksempel 1 Vurder AR (1) Den eneste roten av 1 - f 1 B 0 er B 1 f 1. Forutsetningen for stasjonar krever det. Hvis da ser den observerte serien ut veldig frenetisk. F. eks vurdere hvor den hvite støyperioden har en normal fordeling med null-middel og en varians av en. Observasjonene bytter tegn med nesten alle observasjoner. Hvis derimot, vil den observerte serien bli mye jevnere. I denne serien har en observasjon en tendens til å ligge over 0 hvis forgjengeren var over null. Variansen av e t er s e 2 for alle t. Variansen av x t. når det er null, er gitt av Siden serien er stasjonær kan vi skrive. Derfor er autokovariansfunksjonen til en AR (1) - serie, uten å miste generalitet m 0 For å se hvordan dette ser ut som AR-parametrene, vil vi gjøre bruk av det faktum at vi kan skrive xt som følger Multiplikasjon med x tk og ta forventninger Merk at autocovariances dør ut som k vokser. Autokorrelasjonsfunksjonen er autokovariansen dividert med variansen av den hvite støybegrepet. Eller,. Ved bruk av tidligere Yule-Walker-formler for de delvise autokorrelasjonene vi har For en AR (1) dør autokorrelasjonene eksponentielt og de delvise autokorrelasjonene viser en spike ved ett lag og er null deretter. Eksempel 2 Vurder AR (2) Det tilhørende polynomet i lagoperatøren er. Røttene kunne bli funnet ved hjelp av den kvadratiske formelen. Røttene er når røttene er ekte, og følgelig vil serien falle eksponentielt som svar på et sjokk. Når røttene er komplekse og serien vil vises som en dempet skiltbølge. Stasjonarsteorien pålegger følgende forhold på AR-koeffisientene Autokovariansen for en AR (2) - prosess, med null-middel, er Deling gjennom av variansen av xt gir autokorrelasjonsfunksjonen Siden vi kan skrive Tilsvarende for andre og tredje autokorrelasjoner Den andre Autokorrelasjoner løses for rekursivt. Deres mønster styres av røttene til den andre ordens lineære forskjellligning Hvis røttene er ekte, vil autokorrelasjonene synke eksponentielt. Når røttene er komplekse, vil autokorrelasjonene vises som en dempet sinusbølge. Ved hjelp av Yule-Walker-ligningene, er de delvise autokorrelasjoner igjen, de autokorrelasjoner dør sakte ut. Den delvise autokorrelasjonen derimot er ganske særpreget. Den har pigger på en og to lags og er null etterpå. Stilling Hvis x t er en stasjonær AR (p) prosess, kan den tilsvarende skrives som en lineær filtermodell. Det vil si at polynomet i backshift-operatøren kan være omvendt og AR (p) skrevet som et bevegelig gjennomsnitt av uendelig rekkefølge i stedet. Eksempel Anta at z t er en AR (1) prosess med null gjennomsnitt. Det som er sant for den nåværende perioden må også være aktuelt for tidligere perioder. Dermed ved rekursiv substitusjon kan vi skrive Square begge sider og ta forventninger høyre side forsvinner som k siden f 1. Derfor summen konvergerer til z t i kvadratisk gjennomsnitt. Vi kan omskrive AR (p) modellen som et lineært filter som vi vet å være stasjonære. Autokorrelasjonsfunksjonen og partiell autokorrelasjon Generelt antar at en stasjonær serie z t med gjennomsnittlig null er kjent for å være autoregressiv. Autokorrelasjonsfunksjonen til en AR (p) er funnet ved å ta forventningene til og deles gjennom av variansen av z t Dette forteller oss at r k er en lineær kombinasjon av tidligere autokorrelasjoner. Vi kan bruke dette ved å bruke Cramers regel til (i) å løse for f kk. Spesielt kan vi se at denne lineære avhengigheten vil forårsake f kk 0 for k gt p. Dette karakteristiske trekk ved autoregressive serier vil være svært nyttig når det gjelder identifisering av en ukjent serie. Hvis du har enten MathCAD eller MathCAD Explorer, kan du eksperimentere interactivley med noen for AR (p) ideene presentert her. Flytte gjennomsnittsmodeller Vurder en dynamisk modell der serien av interesse bare avhenger av en del av historien om den hvite støyperioden. Diagrammatisk kan dette være representert som Definisjon Anta at t er en ukorrelert sekvens av i. i.d. tilfeldige variabler med null gjennomsnittlig og endelig varianse. Deretter er en flytende gjennomsnittlig prosess av orden q, MA (q), gitt ved teoremet: En glidende gjennomsnittlig prosess er alltid stasjonær. Bevis: I stedet for å starte med et generelt bevis vil vi gjøre det for et bestemt tilfelle. Anta at z t er MA (1). Deretter . Selvfølgelig har en t null og endelige varians. Middelet av z t er alltid null. Autocovariances vil bli gitt av Du kan se at gjennomsnittet av den tilfeldige variabelen ikke er avhengig av tid på noen måte. Du kan også se at autokovariansen bare er avhengig av offset s, ikke på hvor i serien vi starter. Vi kan bevise det samme resultatet mer generelt ved å begynne med, som har den alternative glidende gjennomsnittlige representasjonen. Tenk først variansen av z t. Ved rekursiv substitusjon kan du vise at dette er lik Summen vi vet er en konvergent serie, slik at variansen er endelig og er uavhengig av tiden. Kovarianene er, for eksempel, Du kan også se at auto covariances avhenger bare av de relative punktene i tid, ikke det kronologiske tidspunktet. Vår konklusjon fra alt dette er at en MA () - prosess er stasjonær. For den generelle MA (q) prosessen blir autokorrelasjonsfunksjonen gitt av Den delvise autokorrelasjonsfunksjonen vil dø ut jevnt. Du kan se dette ved å invertere prosessen for å få en AR () - prosess. Hvis du har enten MathCAD eller MathCAD Explorer, kan du eksperimentere interaktivt med noen av MA (q) ideene presentert her. Mixed Autoregressive - Moving Average Models Definisjon Anta at t er en ukorrelert sekvens av i. i.d. tilfeldige variabler med null gjennomsnittlig og endelig varianse. Deretter gis en autoregressiv, bevegelig gjennomsnittsprosessordre (p, q), ARMA (p, q) av Roter til den autoregressive operatøren må alle ligge utenfor enhetens sirkel. Antall ukjente er pq2. P og q er åpenbare. De 2 inkluderer prosessnivået, m. og variansen av det hvite støybegrepet, sa 2. Anta at vi kombinerer våre AR - og MA-representasjoner slik at modellen er og koeffisientene normaliseres slik at bo 1. Da kalles denne representasjonen en ARMA (p, q) hvis røtter av (1) alle ligger utenfor enhetens sirkel. Anta at y t måles som avvik fra gjennomsnittet slik at vi kan slippe en o. da er autokovariansfunksjonen avledet fra hvis jgtq da MA-vilkårene faller ut i forventning om å gi. Det vil si, autokovariansfunksjonen ser ut som en typisk AR for lags etter at q de dør jevnt etter q, men vi kan ikke si hvordan 1,2,133, q vil se ut Vi kan også undersøke PACF for denne klassen av modellen. Modellen kan skrives som Vi kan skrive dette som en MA (inf) prosess som tyder på at PACFene dør sakte. Med noen aritmetikk kunne vi vise at dette skjer bare etter de første p-pigger bidratt av AR-delen. Empirisk lov I virkeligheten kan en stasjonær tidsserie vel være representert av p 2 og q 2. Hvis virksomheten din skal gi en god tilnærming til virkeligheten og godheten til passform er kriteriet ditt, så foretrekkes en fortapt modell. Hvis interessen din er prediktiv effektivitet, er den parsimoniske modellen foretrukket. Eksperimenter med ARMA-ideene presentert ovenfor med et MathCAD-regneark. Autoregressive Integrere Flytte Gjennomsnittsmodeller MA filter AR filter Integrere filter Noen ganger er prosessen eller serien vi prøver å modellere ikke stasjonær i nivåer. Men det kan være stasjonært i, for eksempel, første forskjeller. Det er, i sin opprinnelige form, kanskje ikke autocovariances for serien ikke være uavhengig av det kronologiske tidspunktet. Men hvis vi bygger en ny serie som er de første forskjellene i den opprinnelige serien, oppfyller denne nye serien definisjonen av stasjonar. Dette er ofte tilfelle med økonomiske data som er svært trended. Definisjon Anta at z t ikke er stasjonær, men z t - z t-1 tilfredsstiller definisjonen av stasjonar. Også, den hvite støybegrepet har endelig mål og varians. Vi kan skrive modellen som dette heter en ARIMA (p, d, q) modell. p identifiserer rekkefølgen til AR-operatøren, d identifiserer strømmen på. q identifiserer rekkefølgen til MA-operatøren. Hvis røttene til f (B) ligger utenfor enhetens sirkel, kan vi omskrive ARIMA (p, d, q) som et lineært filter. Dvs. Det kan skrives som en MA (). Vi forbeholder oss diskusjonen om deteksjon av enhetsrøtter for en annen del av forelesningsnotatene. Tenk på et dynamisk system med x t som en inngangsserie og y t som en utgangsserie. Diagrammatisk vi har Disse modellene er en diskret analogi av lineære differensialligninger. Vi antar følgende forhold hvor b indikerer en ren forsinkelse. Husk det (1-B). Gjør denne substitusjonen, modellen kan skrives Hvis koeffisientpolynomet på y t kan inverteres, kan modellen skrives som V (B) kalles impulsresponsfunksjonen. Vi vil komme over denne terminologien igjen i vår senere diskusjon av vektorgotoregressive. kointegrerings - og feilkorrigeringsmodeller. MODELL IDENTIFIKASJON Etter å ha bestemt seg for en klasse av modeller, må man nå identifisere rekkefølgen av prosessene som genererer dataene. Det vil si at man må gjøre beste gjetninger når det gjelder rekkefølgen av AR - og MA-prosessene som kjører den stasjonære serien. En stasjonær serie kjennetegnes fullstendig av sine middel - og autokonferanser. Av analytiske grunner jobber vi vanligvis med autokorrelasjoner og delvise autokorrelasjoner. Disse to grunnleggende verktøyene har unike mønstre for stasjonære AR - og MA-prosesser. Man kunne beregne utvalgsestimater av autokorrelasjon og delvise autokorrelasjonsfunksjoner og sammenligne dem med tabulerte resultater for standardmodeller. Eksempel Autokovarians Funksjon Eksempel Autokorrelasjonsfunksjon Prøve-delvise autokorrelasjoner vil være Bruke autokorrelasjoner og delvise autokorrelasjoner er ganske enkelt i prinsippet. Anta at vi har en serie z t. med null betyr, som er AR (1). Hvis vi skulle kjøre regresjonen av z t2 på z t1 og z t, ville vi forvente å finne at koeffisienten på z t ikke var forskjellig fra null siden denne delvise autokorrelasjonen burde være null. På den annen side bør autokorrelasjonene for denne serien falle eksponentielt for økende lag (se AR (1) eksempelet ovenfor). Anta at serien er virkelig et bevegelige gjennomsnitt. Autokorrelasjonen skal være null overalt, men ved første lag. Den delvise autokorrelasjonen burde dø eksponentielt. Til og med fra vår veldig overskyede tromme gjennom grunnleggende tidsserier, er det tydelig at det er en dualitet mellom AR og MA prosesser. Denne dualiteten kan oppsummeres i følgende tabell.

No comments:

Post a Comment