Moving Genomsnittet Autoregressiva Modeller
Autoregressiv Moving Average ARMA (p, q) Modeller för Time Series Analysis - Del 2 I del 1 ansåg vi den autoregressiva modellen för order p, även känd som AR (p) - modellen. Vi introducerade det som en förlängning av den slumpmässiga promenadmodellen i ett försök att förklara ytterligare seriell korrelation i finansiella tidsserier. I slutändan insåg vi att det inte var tillräckligt flexibelt för att verkligen fånga all autokorrelation i stängningskursen för Amazon Inc. (AMZN) och SampP500 US Equity Index. Den främsta orsaken till detta är att båda dessa tillgångar är villkorligt heteroskedastiska. vilket innebär att de är icke-stationära och har perioder av varierande varians eller volatilitetsklypning, vilket inte beaktas av AR (p) - modellen. I framtida artiklar kommer vi så småningom att bygga upp till de autoregressiva integrerade rörliga genomsnittsmodellerna (ARIMA), liksom de villkorligt heteroskedastiska modellerna för ARCH och GARCH-familjerna. Dessa modeller kommer att ge oss våra första realistiska försök att prognostisera tillgångspriser. I den här artikeln kommer vi dock att introducera Moving Average of Order q-modellen, känd som MA (q). Det här är en del av den mer allmänna ARMA-modellen och som sådan behöver vi förstå det innan vi går vidare. Jag rekommenderar starkt att du läser de tidigare artiklarna i Time Series Analysis-samlingen om du inte har gjort det. De kan alla hittas här. Moving Average (MA) Modeller av order q En Moving Average-modell liknar en autoregressiv modell, förutom att istället för att vara en linjär kombination av tidigare tidsserier, är det en linjär kombination av tidigare vita ljudvillkor. Intuitivt innebär detta att MA-modellen ser sådana slumpmässiga vita bruschocker direkt vid varje aktuellt värde av modellen. Detta står i kontrast till en AR (p) modell, där de vita bruschockerna endast ses indirekt. Via regression på tidigare villkor i serien. En viktig skillnad är att MA-modellen bara kommer att se de senaste q-chockerna för en viss MA (q) - modell, medan AR (p) - modellen tar hänsyn till alla tidigare chocker, om än på en svagare sätt. Definition Matematiskt är MA (q) en linjär regressionsmodell och strukturerad på AR (p): Moving Average Modell av order q En tidsseriemodell,, är en rörlig genomsnittsmodell av order q. MA (q), om: börja xt wt beta1 w ldots betaq w slut Var är vitt brus med E (wt) 0 och varians sigma2. Om vi betraktar Backward Shift Operator. (Se en föregående artikel) kan vi skriva om ovanstående som en funktion phi av: börja xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Vi kommer att använda phi-funktionen i senare artiklar. Andra ordningens egenskaper Som med AR (p) är medelvärdet av en MA (q) - process noll. Detta är lätt att se som medelvärdet är helt enkelt en summa av medel för vita ljudvillkor, som alla är själva noll. Börja text enspace mux E (xt) summa E (wi) 0 sluta starttext enspace sigma2w (1 beta21 ldots beta2q) sluttext enspace rhok kvar 1 text enspace k 0 summa betai beta sumq beta2i text enspace k 1, ldots, q 0 text enspace k gt q slutet till höger. Var beta0 1. Kommer nu att generera några simulerade data och använda den för att skapa korrelogram. Detta kommer att göra ovanstående formel för rhok något mer konkret. Simuleringar och korrelogram Låt oss börja med en MA (1) - process. Om vi ställer beta1 0,6 får vi följande modell: Som med AR (p) modellerna i föregående artikel kan vi använda R för att simulera en sådan serie och sedan plotta korrelogrammet. Eftersom weve hade en hel del övning i den tidigare tidsserieanalysartikeln för att utföra tomter, skriver jag R-koden i sin helhet, istället för att dela upp den: Utgången är enligt följande: Som vi såg ovan i formeln för rhok , För k gt q bör alla autokorrelationer vara noll. Sedan q 1 borde vi se en signifikant topp vid k1 och sedan obetydliga toppar efter det. På grund av provtagningsperspektivet borde vi dock förvänta oss att vi ser 5 (marginellt) signifikanta toppar på en provautokorrelationsplot. Detta är just vad korrelogrammet visar oss i det här fallet. Vi har en signifikant topp vid k1 och då obetydliga toppar för k gt 1, förutom vid k4 där vi har en marginellt signifikant topp. Faktum är att detta är ett användbart sätt att se om en MA (q) - modell är lämplig. Genom att titta på korrelogrammet för en viss serie kan vi se hur många sekventiella icke-nollflaggor finns. Om q finns så kan vi legitimt försöka passa en MA (q) modell till en viss serie. Eftersom vi har bevis från våra simulerade data om en MA (1) - process, skulle vi nu försöka passa en MA (1) modell till våra simulerade data. Tyvärr finns det inte ett ekvivalent ma-kommando till kommandot för autoregressiv modell ar i R. Istället måste vi använda det mer generella arima-kommandot och sätta de autogegrativa och integrerade komponenterna till noll. Vi gör detta genom att skapa en 3-vektor och ställa in de två första komponenterna (de autogressiva och integrerade parametrarna) till noll: Vi får några användbara resultat från arima-kommandot. För det första kan vi se att parametern har uppskattats som hatt 0.602, vilket ligger mycket nära det verkliga värdet av beta1 0,6. För det andra beräknas standardfelarna redan för oss, vilket gör det enkelt att beräkna konfidensintervaller. För det tredje får vi en beräknad varians, loggbarhet och Akaike Information Criterion (nödvändig för modelljämförelse). Den stora skillnaden mellan arima och ar är att arima uppskattar en avlyssningsperiod eftersom den inte subtraherar seriens medelvärde. Därför måste vi vara försiktiga när vi utför prognoser med arima-kommandot. Tja tillbaka till den här tiden senare. Som en snabb check skulle beräkna konfidensintervaller för hatt: Vi kan se att 95 konfidensintervallet innehåller det äkta parametervärdet på beta1 0,6 och så kan vi döma modellen en bra passform. Självklart bör detta förväntas, eftersom vi simulerade data i första hand. Hur förändras saker om vi ändrar tecknet bet1 till -0,6? Gör samma analys: Produktionen är enligt följande: Vi kan se att vid k1 har vi en signifikant topp i korrelogrammet, förutom att det visar negativ korrelation, som vi förväntar oss av en MA (1) modell med negativ första koefficient. Än en gång är alla toppar bortom k1 obetydliga. Låt oss passa en MA (1) modell och uppskatta parametern: hat -0.730, vilket är en liten underskattning av beta1 -0.6. Slutligen kan vi beräkna konfidensintervallet: Vi kan se att det sanna parametervärdet för beta1-0.6 finns inom 95 konfidensintervallet, vilket ger oss bevis på en bra modellpassform. Låt oss gå igenom samma procedur för en MA (3) - process. Den här gången borde vi förvänta oss signifikanta toppar vid k och obetydliga toppar för k gt 3. Vi ska använda följande koefficienter: beta1 0,6, beta2 0,4 och beta3 0,2. Låt oss simulera en MA (3) - process från denna modell. Ive ökade antalet slumpmässiga prover till 1000 i denna simulering, vilket gör det lättare att se den verkliga autokorrelationsstrukturen, på bekostnad av att originalserien blir svårare att tolka: Produktionen är enligt följande: Som förväntat är de första tre toppar signifikanta . Men så är det fjärde. Men vi kan legitimt föreslå att detta kan bero på provtagning, eftersom vi förväntar oss att vi ser att 5 av topparna är signifikanta bortom kq. Låt oss nu passa en MA (3) modell till data för att försöka uppskatta parametrar: Uppskattningarna hatt 0.544, hatt 0.345 och hatt 0.298 ligger nära de sanna värdena beträffande beta10.6, beta20.4 och beta30.3. Vi kan också producera konfidensintervaller med hjälp av respektive standardfel. I varje fall innehåller 95 konfidensintervaller det sanna parametervärdet och vi kan dra slutsatsen att vi har en bra passform med vår MA (3) modell, vilket borde förväntas. Finansiella data I del 1 ansåg vi Amazon Inc. (AMZN) och SampP500 US Equity Index. Vi monterade AR (p) - modellen på båda och fann att modellen inte kunde effektivt fånga komplexiteten i seriekorrelationen, särskilt i SampP500-gjutet, där långminneseffekter tycks vara närvarande. Jag brukar inte plotta diagrammen igen för priser och autokorrelation, istället hänvisar jag till föregående inlägg. Amazon Inc. (AMZN) Låt oss börja försöka passa ett urval av MA (q) modeller till AMZN, nämligen med q in. Som i del 1, använd använd kvant kvant för att ladda ner de dagliga priserna för AMZN och konvertera dem sedan till en logg returnerar flödet av stängningskurser: Nu när vi har loggen returnerar vi kan använda arima-kommandot för att passa MA (1), MA (2) och MA (3) modeller och beräkna sedan parametrarna för varje. För MA (1) har vi: Vi kan plotta resterna av den dagliga avkastningen och den monterade modellen: Observera att vi har några signifikanta toppar vid lags k2, k11, k16 och k18, vilket indikerar att MA (1) modellen är osannolikt att det inte är en bra passform för AMZN-loggens retur, eftersom det inte ser ut som en realisering av vitt brus. Låt oss prova en MA (2) modell: Båda uppskattningarna för betakoefficienterna är negativa. Låt oss granska resterna igen: Vi kan se att det finns nästan ingen autokorrelation i de första lagren. Vi har emellertid fem marginellt signifikanta toppar vid lags k12, k16, k19, k25 och k27. Detta tyder på att MA (2) modellen tar mycket av autokorrelationen men inte alla långminneseffekter. Vad sägs om en MA (3) modell Återigen kan vi plotta resterna: MA (3) residualplot ser nästan identisk ut med MA-modellen (2). Det här är inte förvånande, det var att lägga till en ny parameter till en modell som tydligen förklarat bort mycket av korrelationerna vid kortare lags men det har inte mycket effekt på längre sikt. Allt detta bevis tyder på det faktum att en MA (q) modell sannolikt inte är användbar för att förklara all seriekorrelation i isolation. åtminstone för AMZN. SampP500 Om du kommer ihåg, i del 1 såg vi att den första orderens avvikande dagliga avkastningsstruktur för SampP500 hade många signifikanta toppar vid olika lager, både korta och långa. Detta gav bevis för både villkorlig heteroskedasticitet (dvs volatilitetsklypning) och långminneseffekter. Det leder oss att dra slutsatsen att AR (p) modellen inte var tillräcklig för att fånga all den autokorrelation som är närvarande. Som vi har sett ovan var MA (q) - modellen otillräcklig för att fånga ytterligare seriekorrelation i resterna av den monterade modellen till den första orderens olika dagliga loggprisserie. Vi ska nu försöka anpassa MA (q) modellen till SampP500. Man kan fråga varför vi gör detta är om vi vet att det inte är troligt att det passar bra. Det här är en bra fråga. Svaret är att vi behöver se exakt hur det inte passar bra, för det här är den ultimata processen vi kommer att följa när vi möter mycket mer sofistikerade modeller, som är potentiellt svårare att tolka. Låt oss börja med att skaffa data och konvertera den till en första ordningens olika serie av logaritmiskt omformade dagliga stängningskurser som i föregående artikel: Vi ska nu passa en MA (1), MA (2) och MA (3) modell för att serien, som vi gjorde ovan för AMZN. Låt börja med MA (1): Låt oss göra en översikt över resterna av denna monterade modell: Den första signifikanta toppen uppträder vid k2, men det finns många fler vid k in. Detta är tydligt inte en realisering av vitt brus och så måste vi avvisa MA (1) modellen som en potentiell bra passform för SampP500. Förbättrar situationen med MA (2) Låt oss återigen göra en översikt över resterna av denna monterade MA (2) modell: Medan toppen vid k2 har försvunnit (som vi förväntar oss) kvarstår vi fortfarande med de signifikanta toppar vid Många längre lags i resterna. Återigen finner vi att MA (2) modellen inte är en bra passform. För MA (3) - modellen borde vi förvänta oss att ser mindre seriell korrelation vid k3 än för MA (2), men än en gång borde vi också förvänta oss ingen minskning av ytterligare lager. Slutligen gör vi en översikt över resterna av denna monterade MA (3) modell: Detta är just det vi ser i korrelogrammet av rester. Därför är MA (3), som med de andra modellerna ovan, inte en bra passform för SampP500. Nästa steg Weve undersökte nu två stora tidsseriemodeller i detalj, nämligen den autogressiva modellen för order p, AR (p) och sedan Moving Average of order q, MA (q). Weve sett att de båda kan förklara bort några av autokorrelationen i resterna av första orderens olika dagliga logpriser på aktier och index, men volatilitetsklypning och långminneseffekter kvarstår. Det är äntligen dags att rikta vår uppmärksamhet på kombinationen av dessa två modeller, nämligen det autoregressiva rörliga genomsnittet av order p, q, ARMA (p, q) för att se om det kommer att förbättra situationen ytterligare. Vi måste dock vänta tills nästa artikel för en fullständig diskussion. Just Getting Started With Quantitative TradingA RIMA står för Autoregressive Integrated Moving Average-modeller. Univariate (single vector) ARIMA är en prognosteknik som projekterar framtida värden för en serie baserad helt på egen tröghet. Dess huvudsakliga tillämpning är inom området för prognoser på kort sikt som kräver minst 40 historiska datapunkter. Det fungerar bäst när dina data uppvisar ett stabilt eller konsekvent mönster över tiden med ett minimum av outliers. Ibland kallas Box-Jenkins (efter de ursprungliga författarna), är ARIMA vanligtvis överlägsen exponentiell utjämningsteknik när data är rimligt långa och korrelationen mellan tidigare observationer är stabil. Om data är korta eller mycket flyktiga, kan en viss utjämningsmetod fungera bättre. Om du inte har minst 38 datapunkter, bör du överväga någon annan metod än ARIMA. Det första steget i att tillämpa ARIMA-metodiken är att kontrollera stationäriteten. Stationäritet innebär att serien förblir på en ganska konstant nivå över tiden. Om det finns en trend, som i de flesta ekonomiska eller affärsapplikationer, är dina data INTE stationära. Uppgifterna bör också visa en konstant varians i sina fluktuationer över tiden. Detta syns lätt med en serie som är väldigt säsongsbetonad och växer i snabbare takt. I så fall blir uppgångarna och nedgångarna i säsongsalden mer dramatiska över tiden. Utan att dessa stationaritetsförhållanden är uppfyllda kan många av beräkningarna associerade med processen inte beräknas. Om en grafisk del av data indikerar icke-stationaritet, bör du skilja på serien. Differentiering är ett utmärkt sätt att omvandla en icke-stationär serie till en stationär. Detta görs genom att subtrahera observationen under den aktuella perioden från föregående. Om denna omvandling görs bara en gång till en serie, säger du att uppgifterna först har skiljats. Denna process eliminerar i huvudsak trenden om din serie växer med en ganska konstant takt. Om den växer i ökande takt kan du tillämpa samma procedur och skillnad data igen. Dina uppgifter skulle då bli annorlunda. Autokorrelationer är numeriska värden som indikerar hur en dataserie är relaterad till sig själv över tiden. Närmare bestämt mäter det hur starkt datavärdena vid ett visst antal perioder från varandra är korrelerade med varandra över tiden. Antalet perioder ibland kallas vanligtvis lagret. Till exempel mäter en autokorrelation vid lag 1 hur värdena 1 period från varandra korreleras med varandra i serien. En autokorrelation vid lag 2 mäter hur data två perioder från varandra korreleras genom hela serien. Autokorrelationer kan sträcka sig från 1 till -1. Ett värde nära 1 indikerar en hög positiv korrelation medan ett värde nära -1 innebär en hög negativ korrelation. Dessa åtgärder utvärderas oftast genom grafiska tomter som kallas korrelagram. Ett korrelagram plottar autokorrelationsvärdena för en given serie i olika lags. Detta kallas autokorrelationsfunktionen och är mycket viktigt i ARIMA-metoden. ARIMA-metoden försöker beskriva rörelserna i en stationär tidsserie som en funktion av vad som kallas autoregressiva och rörliga genomsnittsparametrar. Dessa kallas AR parametrar (autoregessiva) och MA parametrar (glidande medelvärden). En AR-modell med endast 1 parameter kan skrivas som. X (t) A (1) X (t-1) E (t) där X (t) tidsserier som undersöks A (1) den autoregressiva parametern av ordning 1 X (t-1) (T) modellens felperiod Detta betyder helt enkelt att vilket givet värde X (t) som kan förklaras med någon funktion av dess tidigare värde, X (t-1), plus något oförklarligt slumpmässigt fel, E (t). Om det uppskattade värdet av A (1) var .30, skulle nuvärdet av serien vara relaterat till 30 av dess värde 1 period sedan. Naturligtvis kan serien vara relaterad till mer än bara ett tidigare värde. Exempelvis X (t) A (1) X (t-1) A (2) X (t-2) E (t) Detta indikerar att serievärdet är en kombination av de två omedelbart föregående värdena, X (t-1) och X (t-2), plus något slumpmässigt fel E (t). Vår modell är nu en autoregressiv modell av ordning 2. Flytta genomsnittliga modeller: En andra typ av Box-Jenkins-modell kallas en rörlig genomsnittsmodell. Även om dessa modeller ser mycket ut som AR-modellen är konceptet bakom dem ganska annorlunda. Flytta genomsnittsparametrar relaterar vad som händer i period t endast till de slumpmässiga fel som inträffade under tidigare tidsperioder, dvs E (t-1), E (t-2) osv. Snarare än till X (t-1), X T-2), (Xt-3) som i de autoregressiva tillvägagångssätten. En glidande medelmodell med en MA-term kan skrivas enligt följande. X (t) - B (1) E (t-1) E (t) Termen B (1) kallas en MA i ordning 1. Negativt tecken framför parametern används endast för konventionen och skrivs vanligen Ut automatiskt efter de flesta datorprogram. Ovanstående modell säger helt enkelt att ett givet värde av X (t) är direkt relaterat till det slumpmässiga felet i föregående period, E (t-1) och till den aktuella felperioden E (t). Som i fråga om autregressiva modeller kan de rörliga genomsnittsmodellerna utvidgas till högre orderstrukturer som täcker olika kombinationer och glidande medellängder. ARIMA-metoden möjliggör också att modeller ska byggas som innehåller både autoregressiva och rörliga genomsnittsparametrar tillsammans. Dessa modeller kallas ofta blandade modeller. Även om detta ger ett mer komplicerat prognosverktyg kan strukturen verkligen simulera serien bättre och ge en mer exakt prognos. Rena modeller innebär att strukturen bara består av AR eller MA parametrar - inte båda. Modellerna som utvecklas genom detta tillvägagångssätt kallas vanligen ARIMA-modeller eftersom de använder en kombination av autoregressiv (AR), integration (I) - hänvisar till omvänd process för differentiering för att producera prognosen och rörliga genomsnittliga (MA) - operationer. En ARIMA-modell anges vanligtvis som ARIMA (p, d, q). Detta representerar ordningen för de autogegressiva komponenterna (p), antalet differentieringsoperatörer (d) och den högsta ordningen för den glidande medelfristen. Till exempel betyder ARIMA (2,1,1) att du har en andra ordning med automatisk reglering med en första ordning som rör en genomsnittlig komponent vars serie har avvikits en gång för att inducera stationäritet. Plocka rätt specifikation: Det största problemet i klassiska Box-Jenkins försöker bestämma vilken ARIMA-specifikation som ska användas - i. e. Hur många parametrar för AR och MA som ska ingå. Det är så mycket av Box-Jenkings 1976 som ägnades åt identifieringsprocessen. Det berodde på grafisk och numerisk utvärdering av provautokorrelationen och partiella autokorrelationsfunktioner. Tja, för dina grundläggande modeller är uppgiften inte för svår. Var och en har autokorrelationsfunktioner som ser på ett visst sätt. Men när du går upp i komplexitet är mönstren inte så lätt detekterade. För att göra saker svårare representerar dina data bara ett urval av den underliggande processen. Det betyder att provtagningsfel (outliers, mätfel etc.) kan snedvrida den teoretiska identifieringsprocessen. Det är därför som traditionell ARIMA-modellering är en konst snarare än en science.2.1 Moving Average Models (MA-modeller) Tidsseriemodeller som kallas ARIMA-modeller kan innefatta autoregressiva termer och eller rörliga genomsnittsvillkor. I vecka 1 lärde vi oss en autoregressiv term i en tidsseriemodell för variabeln x t är ett fördröjt värde av x t. Till exempel är en lag 1-autoregressiv term x t-1 (multiplicerad med en koefficient). Denna lektion definierar glidande medelvärden. En glidande medelfrist i en tidsseriemodell är ett tidigare fel (multiplicerat med en koefficient). Låt (wt overset N (0, sigma2w)), vilket betyder att w t är identiskt oberoende fördelade, var och en med en normal fördelning med medelvärde 0 och samma varians. Den första ordningens rörliga genomsnittsmodell, betecknad med MA (1) är (xt mu wt theta1w) Den andra ordens rörliga genomsnittsmodellen, betecknad med MA (2) är (xt mu wt theta1w theta2w) , betecknad med MA (q) är (xt mu wt theta1w theta2w prickar thetaqw) Anm. Många läroböcker och programvara definierar modellen med negativa tecken före villkoren. Detta ändrar inte de allmänna teoretiska egenskaperna hos modellen, även om den ändrar de algebraiska tecknen på uppskattade koefficientvärden och (unsquared) termer i formler för ACF och variationer. Du måste kontrollera din programvara för att kontrollera om negativa eller positiva tecken har använts för att korrekt beräkna den beräknade modellen. R använder positiva tecken i sin underliggande modell, som vi gör här. Teoretiska egenskaper hos en tidsserie med en MA (1) modell Observera att det enda nonzero-värdet i teoretisk ACF är för lag 1. Alla andra autokorrelationer är 0. Således är ett prov ACF med en signifikant autokorrelation endast vid lag 1 en indikator på en möjlig MA (1) modell. För intresserade studenter är bevis på dessa egenskaper en bilaga till denna handout. Exempel 1 Antag att en MA (1) modell är x t10 w t, 7 w t-1. Var (överskridande N (0,1)). Således är koefficienten 1 0,7. Den teoretiska ACF ges av En plot av denna ACF följer. Den visade ploten är den teoretiska ACF för en MA (1) med 1 0,7. I praktiken ger ett prov vanligen vanligtvis ett så tydligt mönster. Med hjälp av R simulerade vi n 100 provvärden med hjälp av modellen x t 10 w t .7 w t-1 där vikt N (0,1). För denna simulering följer en tidsserieplot av provdata. Vi kan inte berätta mycket från denna plot. Provet ACF för den simulerade data följer. Vi ser en spik vid lag 1 följt av allmänt icke-signifikanta värden för lags över 1. Observera att provet ACF inte matchar det teoretiska mönstret för den underliggande MA (1), vilket är att alla autokorrelationer för lags över 1 kommer att vara 0 . Ett annat prov skulle ha en något annorlunda prov ACF som visas nedan, men skulle troligen ha samma breda funktioner. Terapeutiska egenskaper hos en tids serie med en MA (2) modell För MA (2) modellen är teoretiska egenskaper följande: Observera att de enda nonzero-värdena i teoretisk ACF är för lags 1 och 2. Autokorrelationer för högre lags är 0 . En ACF med signifikanta autokorrelationer vid lags 1 och 2, men icke-signifikanta autokorrelationer för högre lags indikerar en möjlig MA (2) modell. Iid N (0,1). Koefficienterna är 1 0,5 och 2 0,3. Eftersom det här är en MA (2), kommer den teoretiska ACF endast att ha nonzero-värden endast vid lags 1 och 2. Värdena för de två icke-oberoende autokorrelationerna är A-plot av den teoretiska ACF följer. Såsom nästan alltid är fallet kommer provdata inte att fungera så perfekt som teori. Vi simulerade n 150 provvärden för modellen x t 10 w t .5 w t-1 .3 w t-2. Var vet N (0,1). Tidsserierna av data följer. Som med tidsserien för MA (1) provdata kan du inte berätta mycket för det. Provet ACF för den simulerade data följer. Mönstret är typiskt för situationer där en MA (2) modell kan vara användbar. Det finns två statistiskt signifikanta spikar vid lags 1 och 2 följt av icke-signifikanta värden för andra lags. Observera att provet ACF på grund av provtagningsfel inte exakt matchade det teoretiska mönstret. ACF för General MA (q) Modeller En egenskap hos MA (q) modeller är generellt att det finns icke-oberoende autokorrelationer för de första q-lagsna och autokorrelationerna 0 för alla lags gt q. Icke-unikhet av samband mellan värden på 1 och (rho1) i MA (1) Modell. I MA (1) - modellen, för något värde av 1. Den ömsesidiga 1 1 ger samma värde. Använd exempelvis 0,5 för 1. Och använd sedan 1 (0,5) 2 för 1. Du får (rho1) 0,4 i båda fallen. För att tillfredsställa en teoretisk restriktion kallad invertibility. Vi begränsar MA (1) - modellerna till att ha värden med absolutvärdet mindre än 1. I exemplet just givet är 1 0,5 ett tillåtet parametervärde, medan 1 10,5 2 inte kommer att. Inverterbarhet av MA-modeller En MA-modell sägs vara omvändbar om den är algebraiskt ekvivalent med en konvergerande oändlig ordning AR-modell. Med konvergeringen menar vi att AR-koefficienterna minskar till 0 när vi flyttar tillbaka i tiden. Omvändbarhet är en begränsning programmerad i tidsserierprogramvara som används för att uppskatta koefficienterna för modeller med MA-termer. Det är inte något vi söker efter i dataanalysen. Ytterligare information om invertibilitetsbegränsningen för MA (1) - modeller ges i bilagan. Avancerad teorinotation. För en MA (q) modell med en specificerad ACF finns det endast en inverterbar modell. Det nödvändiga villkoret för invertibilitet är att koefficienterna har värden så att ekvationen 1- 1 y-. - q y q 0 har lösningar för y som faller utanför enhetens cirkel. R-kod för exemplen I exempel 1 ritade vi den teoretiska ACF av modellen x t10 wt. 7w t-1. och sedan simulerade n 150 värden från denna modell och plottade provtidsserierna och provet ACF för de simulerade data. R-kommandona användes för att plotta den teoretiska ACF: acfma1ARMAacf (mac (0.7), lag. max10) 10 satser av ACF för MA (1) med theta1 0,7 lags0: 10 skapar en variabel som heter lags som sträcker sig från 0 till 10. plot (lags, acfma1, xlimc (1,10), ylabr, typh, huvud ACF för MA (1) med theta1 0,7) abline (h0) adderar en horisontell axel till plottet Det första kommandot bestämmer ACF och lagrar det i ett objekt Namnet acfma1 (vårt val av namn). Plot-kommandot (3: e kommandot) tomter jämförs med ACF-värdena för lags 1 till 10. ylab-parametern markerar y-axeln och huvudparametern lägger en titel på plotten. För att se de numeriska värdena för ACF använder du bara kommandot acfma1. Simuleringen och tomterna gjordes med följande kommandon. xcarima. sim (n150, lista (mac (0.7))) Simulerar n 150 värden från MA (1) xxc10 lägger till 10 för att göra medelvärdet 10. Simulering standardvärden betyder 0. plot (x, typeb, mainSimulated MA (1) data) acf (x, xlimc (1,10), mainACF för simulerad provdata) I exempel 2 ritade vi teoretisk ACF av modellen xt 10 wt5 w t-1, 3 w t-2. och sedan simulerade n 150 värden från denna modell och plottade provtidsserierna och provet ACF för de simulerade data. De R-kommandon som användes var acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 plot (lags, acfma2, xlimc (1,10), ylabr, typh, huvud ACF för MA (2) med theta1 0,5, theta20.3) abline (h0) xcarima. sim (n150, lista (mac (0,5, 0,3)) xxc10 plot (x, typeb, huvudsimulerad MA (2) serie) acf (x, xlimc (1,10) mainACF för simulerade MA (2) data) Bilaga: Bevis för egenskaper hos MA (1) För intresserade studenter, här är bevis för teoretiska egenskaper för MA (1) modellen. Varians: (text (xt) text (mu wt theta1 w) 0 text (wt) text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) När h 1, föregående uttryck 1 w 2. För varje h 2, föregående uttryck 0 . Orsaken är att, per definition av vägtons oberoende. E (w k w j) 0 för någon k j. Vidare, eftersom w t har medelvärdet 0, E (wjwj) E (wj2) w2. För en tidsserie, Applicera detta resultat för att få ACF ges ovan. En inverterbar MA-modell är en som kan skrivas som en oändlig ordning AR-modell som konvergerar så att AR-koefficienterna konvergerar till 0 när vi rör sig oändligt tillbaka i tiden. Visa väl omvändbarhet för MA (1) modellen. Vi ersätter sedan förhållandet (2) för w t-1 i ekvation (1) (3) (zt wt theta1 (z-tetww) wt theta1z-tet2w) Vid tid t-2. Ekvation (2) blir vi då ersättningsförhållande (4) för w t-2 i ekvation (3) (zt wt theta1z-teteta21w wt theta1z-teteta21 (z-tetww) wt theta1z-theta12z theta31w) Om vi skulle fortsätta Oändligt), skulle vi få oändlig ordning AR-modellen (zt wt theta1z-theta21z theta31z-tetaka41z punkter) Observera dock att om koefficienterna som multiplicerar lagren av z ökar (oändligt) i storlek när vi flyttar tillbaka i tid. För att förhindra detta behöver vi 1 lt1. Detta är förutsättningen för en inverterbar MA (1) modell. Oändlig ordning MA-modell I vecka 3 ser du att en AR (1) - modell kan konverteras till en oändlig ordning MA-modell: (xt - mu wt phi1w phi21w prickar phik1 w dots sum phij1w) Denna summering av tidigare vita ljudvillkor är känd Som kausalrepresentation av en AR (1). Med andra ord är x t en speciell typ av MA med ett oändligt antal termer som går tillbaka i tiden. Detta kallas en oändlig ordning MA eller MA (). En ändlig ordning MA är en oändlig ordning AR och någon ändlös ordning AR är en oändlig ordning MA. Minns i vecka 1 noterade vi att ett krav på en stationär AR (1) är att 1 lt1. Låter beräkna Var (x t) med hjälp av kausalrepresentationen. Det här sista steget använder ett grundläggande faktum om geometriska serier som kräver (phi1lt1) annars skiljer serien. Navigation8.4 Flytta genomsnittsmodeller I stället för att använda tidigare värden för prognosvariabeln i en regression använder en rörlig genomsnittsmodell tidigare prognosfel i en regressionsliknande modell. Y c et theta e theta e dots theta e, där et är vitt brus. Vi hänvisar till detta som en MA (q) modell. Naturligtvis observerar vi inte värdena på et, så det är inte riktigt regression i vanligt bemärkande. Observera att varje värde av yt kan betraktas som ett viktat glidande medelvärde av de senaste prognosfelen. Rörliga genomsnittsmodeller ska emellertid inte förväxlas med glidande medelutjämning som vi diskuterade i kapitel 6. En rörlig genomsnittsmodell används för att prognosera framtida värden medan den genomsnittliga utjämningen används för att uppskatta trendcykeln för tidigare värden. Figur 8.6: Två exempel på data från rörliga genomsnittsmodeller med olika parametrar. Vänster: MA (1) med y t 20e t 0.8e t-1. Höger: MA (2) med y t e t-e t-1 0.8e t-2. I båda fallen distribueras e t normalt vitt brus med medel noll och varians en. Figur 8.6 visar vissa data från en MA (1) modell och en MA (2) modell. Ändring av parametrarna theta1, prickar, thetaq resulterar i olika tidsseriemönster. Liksom med autoregressiva modeller ändrar variansen av felet termen enbart seriens skala, inte mönstren. Det är möjligt att skriva en stationär AR (p) modell som en MA (infty) modell. Med hjälp av upprepad substitution kan vi exempelvis visa detta för en AR (1) - modell: begin yt amp phy1y et amp phi1 (phi1y e) et amp phy12y phi1e et amp phi13y phi12e phi1e et amptext end Tillhandahållet -1 lt phi1 lt 1, värdet av phi1k blir mindre eftersom k blir större. Så småningom uppnår vi yt och phi1 phi12 e phi13 e cdots, en MA (infty) - process. Det omvända resultatet hålls om vi lägger några begränsningar på MA parametrarna. Då kallas MA-modellen inverterbar. Det vill säga att vi kan skriva någon inverterbar MA (q) process som en AR (infty) - process. Omvändbara modeller är inte bara för att vi ska kunna konvertera från MA-modeller till AR-modeller. De har också vissa matematiska egenskaper som gör dem enklare att använda i praktiken. Invertibilitetsbegränsningarna liknar stationaritetsbegränsningarna. För en MA (1) modell: -1lttheta1lt1. För en MA (2) modell: -1lttheta2lt1, theta2theta1 gt-1, theta1-teteta1 1. Mer komplicerade förhållanden håller för qge3. Igen kommer R att ta hand om dessa hinder vid beräkning av modellerna.
Comments
Post a Comment