Friday 10 November 2017

Tidsvarierende Autoregressiv Bevegelige Gjennomsnittet Modeller For Kovarians Estimering


Covariansestimering i tid med varierende ARMA-prosesser Vis abstrakt Skjul abstrakt ABSTRAKT: Dette papiret vurderer å estimere en kovariansmatrise av p-variabler fra n observasjoner ved enten å binde eller tappe prøvekovariansmatrisen, eller estimere en båndet versjon av invers av kovariansen. Vi viser at disse estimatene er konsistente i operatørstandarden så lenge som (log p) nto0, og oppnå eksakte priser. Resultatene er jevne over noen ganske naturlige velkondisjonerte familier av kovariansmatriser. Vi presenterer også en analog av den gaussiske hvite støymodellen og viser at dersom befolkningskovariansen er innebygd i den modellen og med god kondisjon, vil de båndede tilnærmingene gi konsistente estimater av egenverdiene og tilhørende egenvektorer i kovariansmatrisen. Resultatene kan utvides til jevne versjoner av banding og til ikke-gaussiske distribusjoner med tilstrekkelig korte haler. En resampling-tilnærming foreslås for å velge båndparameteren i praksis. Denne tilnærmingen er illustrert numerisk på både simulerte og virkelige data. Artikkel Apr 2008 Peter J. Bickel Elizaveta Levina Vis abstrakt Skjul abstrakt ABSTRAKT: I dette papiret foreslår vi en ny regresjonstolkning av Cholesky-faktoren til kovariansmatrisen, i motsetning til den velkjente regresjonstolkningen av Cholesky-faktoren av den inverse kovariansen, som fører til en ny klasse av regulariserte kovariansestimatorer som passer for høydimensjonale problemer. Regulering av Cholesky-faktoren av kovariansen via denne regresjonstolkningen resulterer alltid i en positiv bestemt estimator. Spesielt kan man oppnå en positiv bestemt banded estimator av kovariansmatrisen til samme beregningskostnad som den populære banded estimatoren foreslått av Bickel og Levina (2008b), som ikke garantert er positiv bestemt. Vi etablerer også teoretiske sammenhenger mellom banding av Cholesky-faktorer i kovariansmatrisen og dens inverse og begrensede maksimale sannsynlighetsestimering under båndbegrensningen, og sammenligne numerisk ytelse av flere metoder i simuleringer og på et sonardataeksempel. Fulltekst Artikkel Apr 2009 Adam J. Rothman Elizaveta Levina Ji Zhu Vis abstrakt Skjul abstrakt ABSTRAKT: Covariance-matrisen spiller en sentral rolle i multivariate statistisk analyse. Det er gjort betydelige framskritt for nylig på å utvikle både teori og metodikk for å estimere store kovariansmatriser. Imidlertid er en minimax teori ennå ikke utviklet. I dette papiret etablerer vi de optimale konvergensnivåene for å estimere kovariansmatrisen både under operatørstandarden og Frobenius-normen. Det er vist at optimale prosedyrer under de to normene er forskjellige, og følgelig er matrisestimering under operatørstandarden fundamentalt forskjellig fra vektorestimering. Minimumax-øvre bundet er oppnådd ved å bygge en spesiell klasse av avtagende estimatorer og ved å studere deres risikoprodukter. Et sentralt skritt for å oppnå den optimale konvergensgraden er avledningen av minimax nedre bundet. Den tekniske analysen krever nye ideer som er ganske forskjellige fra de som brukes i de mer konvensjonelle funksjonsevalueringsproblemer. Kommentar: Publisert på dx. doi. org10.121409-AOS752 Statistikkannonser (imstat. orgaos) ved Institutt for matematisk statistikk (imstat. org) Fulltekst Artikkel Okt 2010 T. Tony Cai Cun-Hui Zhang Harrison H . ZhouTime Varierende Autoregressive Moving Gjennomsnittlig Modeller for Covariance Estimering SitSuch et kriterium er viktig og nyttig for å avgjøre om bandingsteknikken er en passende strategi. Andre kovariansestimeringsmetoder, som for eksempel modellering av kovariansmatrisen som en tidsmessig autoregressiv glidende gjennomsnittlig (ARMA) modell 8, krever også testing for å avgjøre om modellen passer godt. Noen nylige hypotesetest for bandedness finner du i 6. quot. Konferansepapir Mar 2016 IEEE Transaksjoner på Signalbehandling Zhenghan Zhu Steven M. Kay forutsatt at de konkrete strukturer er valgt for å være lineære eller affine. De mest populære eksemplene er slike modeller som Toeplitz Abramovich et al. (2007) Asif og Moura (2005) Fuhrmann (1991) Kavcic og Moura (2000) Roberts og Ephraim (2000) Snyder et al. (1989) Soloveychik og Wiesel (2014) Sun et al. (2015) Wiesel et al. (2013), gruppesymmetrisk Shah og Chandrasekaran (2012) Soloveychik og Wiesel (2016), sparsomme Banerjee et al. (2008) Ravikumar et al. (2011) Rothman et al. (2008), lav rangering Fan et al. (2008) Johnstone og Lu (2009) Lounici et al. (2014) og mange andre. Ikke-lineære strukturer er også ganske vanlig i tekniske applikasjoner. sitat Vis abstrakt Skjul abstrakt ABSTRAKT: Vi vurderer Gaussisk og robust kovariansestimering, forutsatt at den ekte kovariansmatrisen er Kronecker-produktet av to nedre dimensjonale firkantmatriser. I begge tilfeller definerer vi estimatene som løsninger for begrensede maksimal sannsynlighetsprogrammer. I det robuste tilfellet vurderer vi Tylerx27s estimator definert som en maksimal sannsynlighet estimator for en bestemt distribusjon på en sfære. Vi utvikler tette tilstrekkelige forhold for eksistensenes eksistens og unikhet og viser at i Gaussian tilfelle med den ukjente middelfrac frac 2 er det nesten sikkert nok til å garantere eksistensen og uniktheten, hvor p og q er dimensjonene til Kronecker produktfaktorer av den sanne kovariansen. I robust tilfelle med den gjennomsnittlige kjente er det tilsvarende tilstrekkelige antall prøver maksfrac frac 1. Artikkel des 2015 Ilya Soloveychik Dmitry Trushin quotUnder denne hypotesen, blir to GLRT-baserte detektorer avledet, og resultatanalysen på ekte data avslører overlegenhet av den foreslåtte detektorer med hensyn til deres ikke-bayesiske kolleger når treningssettet er lite. Den bayesiske rammen kan også brukes sammen med strukturinformasjonen om interferenskovariansmatrisen 11 som vist i 12, hvor forstyrrelsen er modellert som en flerkanals auto-regressiv prosess med en tilfeldig krysskanalkovariansmatrise (se også 13, 14) . I radarapplikasjoner, hvor systemer er utstyrt med en rekke sensorer, oppstår strukturell informasjon om interferenskovariansmatrisen fra utnyttelse av spesifikke klasser av geometrier. citerer Vis abstrakt Skjul abstrakt ABSTRAKT: Vi adresserer adaptiv radar deteksjon av mål innebygd i jordklump dominert miljø karakterisert av en symmetrisk strukturert strømspektral tetthet. På designstadiet utnytter vi spektrumsymmetrien for interferensen til å komme opp med beslutningsordninger som er i stand til å kapitalisere a-priori-informasjonen på kovariansstrukturen. Til dette formål beviser vi at deteksjonsproblemet ved hånden kan formuleres i form av ekte variabler, og deretter bruker vi designprosedyrer med utgangspunkt i GLRT, Rao-testen og Wald-testen. Spesifikt oppnås estimatene av de ukjente parametrene under måltilstedeværelseshypotesen gjennom en iterativ optimaliseringsalgoritme hvis konvergens - og kvalitetsgaranti er grundig bevist. Resultatanalysen, både på simulert og på virkelige radardata, bekrefter overlegenhet av de betraktede arkitekturene over sine konvensjonelle motparter som ikke utnytter rotasjonsspektralsymmetrien. Fulltekst Artikkel Nov 2015 Antonio De Maio Danilo Orlando Chengpeng Hao Goffredo FogliaAutoregressive Moving Gjennomsnittlig ARMA (p, q) Modeller for Time Series Analysis - Del 1 I den siste artikkelen så vi på tilfeldige turer og hvit støy som grunnleggende tidsseriemodeller for visse finansielle instrumenter, som for eksempel daglige aksje - og aksjeindekspriser. Vi fant at i noen tilfeller var en tilfeldig turmodell utilstrekkelig til å fange instrumentets full autokorrelasjonsadferd, noe som motiverer mer sofistikerte modeller. I de neste par artiklene skal vi diskutere tre typer modeller, nemlig den autoregressive (AR) rekkefølgen p, Moving Average (MA) - modellen av rekkefølge q og den blandede Autogressive Moving Average (ARMA) - modellen av ordre p , q. Disse modellene vil hjelpe oss med å forsøke å fange opp eller forklare mer av seriell korrelasjon tilstede innenfor et instrument. Til slutt vil de gi oss et middel til å prognostisere fremtidige priser. Det er imidlertid velkjent at økonomiske tidsserier har en eiendom kjent som volatilitetsklynging. Det vil si at volatiliteten til instrumentet ikke er konstant i tide. Det tekniske uttrykket for denne oppførselen er kjent som betinget heteroskedastisitet. Siden AR, MA og ARMA-modellene ikke er betinget heteroskedastiske, det vil si, de tar ikke hensyn til volatilitetsklynging, vil vi til slutt trenge en mer sofistikert modell for våre spådommer. Slike modeller inkluderer den Autogressive Conditional Heteroskedastic (ARCH) modellen og Generalized Autogressive Conditional Heteroskedastic (GARCH) modell, og de mange varianter av disse. GARCH er spesielt kjent i kvantfinansiering og brukes primært til finansielle tidsseriemuleringer som et middel til å estimere risiko. Men som med alle QuantStart-artikler, vil jeg bygge opp til disse modellene fra enklere versjoner, slik at vi kan se hvordan hver ny variant endrer vår prediktive evne. Til tross for at AR, MA og ARMA er relativt enkle tidsseriemodeller, er de grunnlaget for mer kompliserte modeller som det autoregressive Integrated Moving Average (ARIMA) og GARCH-familien. Derfor er det viktig at vi studerer dem. En av våre første handelsstrategier i tidsserien artikkelserie vil være å kombinere ARIMA og GARCH for å kunne forutsi priser n perioder på forhånd. Vi må imidlertid vente til vi har diskutert både ARIMA og GARCH separat før vi søker dem til en ekte strategi. Hvordan skal vi fortsette? I denne artikkelen skal vi skissere noen nye tidsseriekonsepter som har behov for de gjenværende metodene, nemlig streng stasjonar og Akaike informasjonskriterium (AIC). Etter disse nye konseptene følger vi det tradisjonelle mønsteret for å studere nye tidsseriemodeller: Begrunnelse - Den første oppgaven er å gi en grunn til at det var interessert i en bestemt modell, som quants. Hvorfor innfører vi tidsseriemodellen Hvilke effekter kan det fange Hva får vi (eller mister) ved å legge til i ekstra kompleksitet Definisjon - Vi må gi den fulle matematiske definisjonen (og tilhørende notasjon) av tidsseriemodellen for å minimere noen tvetydighet. Second Order Properties - Vi vil diskutere (og i noen tilfeller avlede) andre rekkefølgeegenskapene til tidsseriemodellen, som inkluderer dens gjennomsnitt, dens varians og autokorrelasjonsfunksjonen. Korrelogram - Vi vil bruke andreordegenskapene til å plotte et korrelogram av en realisering av tidsseriemodellen for å visualisere sin oppførsel. Simulering - Vi vil simulere realisasjoner av tidsseriemodellen og tilpasse modellen til disse simulasjonene for å sikre at vi har nøyaktige implementeringer og forstå monteringsprosessen. Virkelige finansielle data - Vi vil tilpasse tidsseriemodellen til ekte økonomiske data og vurdere korrelogrammet for residuene for å se hvordan modellen står for seriell korrelasjon i den opprinnelige serien. Prediksjon - Vi vil skape n-trinns prognoser for tidsseriemodellen for bestemte realisasjoner for å til slutt produsere handelssignaler. Nesten alle artiklene jeg skriver på tidsseriemodeller vil falle inn i dette mønsteret, og det vil tillate oss å enkelt sammenligne forskjellene mellom hver modell som vi legger til ytterligere kompleksitet. Gikk å begynne med å se på strenge stasjonar og AIC. Strenkt stasjonær Vi ga definisjonen av stasjonar i artikkelen om seriell korrelasjon. Men fordi vi skal komme inn i riket til mange finansielle serier med ulike frekvenser, må vi sørge for at våre (eventuelle) modeller tar hensyn til tidsvarierende volatilitet i disse seriene. Spesielt må vi vurdere deres heteroskedastisitet. Vi kommer over dette problemet når vi prøver å passe visse modeller til historiske serier. Generelt kan ikke alle serielle korrelasjonene i restene av monterte modeller regnes uten å ta hensyn til heteroskedasticitet. Dette bringer oss tilbake til stasjonar. En serie er ikke stasjonær i variansen hvis den har tidsvarierende volatilitet, per definisjon. Dette motiverer en mer streng definisjon av stasjonar, nemlig strenge stasjonar: Strenkt Stasjonær Serie En tidsseriemodell, er strengt stasjonær hvis den felles statistiske fordelingen av elementene x, ldots, x er den samme som for xm, ldots, xm, forall ti, m. Man kan tenke på denne definisjonen som at distribusjonen av tidsseriene er uendret for noe abradorært skift i tid. Spesielt er gjennomsnittet og variansen konstant i tide for en strengt stasjonær serie, og autokovariansen mellom xt og xs (si) avhenger kun av den absolutte forskjellen mellom t og s, t-s. Vi vil revidere strenge stasjonære serier i fremtidige innlegg. Akaike Information Criterion Jeg nevnte i tidligere artikler at vi til slutt måtte vurdere å velge mellom separate beste modeller. Dette gjelder ikke bare tidsserieanalyse, men også maskinlæring og, mer generelt, statistikk generelt. De to viktigste metodene vi skal bruke (for tiden) er Akaike Information Criterion (AIC) og Bayesian Information Criterion (som vi fortsetter videre med våre artikler om Bayesian Statistics). Tenk kort AIC, som det vil bli brukt i del 2 av ARMA artikkelen. AIC er i hovedsak et verktøy for å hjelpe til med valg av modell. Det vil si at hvis vi har et utvalg av statistiske modeller (inkludert tidsserier), anslår AIC kvaliteten på hver modell i forhold til de andre som vi har tilgjengelig. Det er basert på informasjonsteori. som er et svært interessant, dypt tema som vi dessverre ikke kan gå for mye detaljert om. Det forsøker å balansere kompleksiteten til modellen, som i dette tilfellet betyr antall parametere, med hvor godt det passer dataene. Kan gi en definisjon: Akaike Information Criterion Hvis vi tar sannsynligheten for en statistisk modell, som har k parametere, og L maksimerer sannsynligheten. da er Akaike-informasjonskriteriet gitt av: Den foretrukne modellen, fra et utvalg av modeller, har gruppens minium AIC. Du kan se at AIC vokser ettersom antall parametere, k, øker, men reduseres dersom den negative logg-sannsynligheten øker. I hovedsak straffes det modeller som er overfit. Vi skal skape AR, MA og ARMA modeller av varierende ordrer, og en måte å velge den beste modellen passer til et bestemt datasett er å bruke AIC. Dette er det som går bra i neste artikkel, først og fremst for ARMA-modeller. Autoregressive (AR) Modeller av rekkefølge p Den første modellen skulle vurdere, som danner grunnlaget for del 1, er den autoregressive rekkefølgen p, ofte forkortet til AR (p). I forrige artikkel vurderte vi tilfeldig gang. hvor hvert term, xt er avhengig bare av forrige term, x og en stokastisk hvit støy term, wt: Den autoregressive modellen er ganske enkelt en forlengelse av den tilfeldige gange som inkluderer termer lenger tilbake i tid. Strukturen til modellen er lineær. det er modellen avhenger lineært på de forrige vilkårene, med koeffisienter for hvert begrep. Det er her den regressive kommer fra i autoregressive. Det er i hovedsak en regresjonsmodell der de foregående betingelsene er prediktorer. Autoregressiv Ordermodell p En tidsseriemodell,, er en autoregressiv bestillingsmodell p. AR (p), hvis: begynn xt alfa1 x ldots alfa x wt sum p alphai x wt ende Hvor er hvit støy og alphai i mathbb, med alphap neq 0 for en p-order autoregressiv prosess. Hvis vi vurderer Backward Shift Operator. (se forrige artikkel) så kan vi omskrive ovennevnte som en funksjon theta av: start tappa () xt (1 - alfa1 - alfa2 2 - ldots - alfap) xt wt ende Kanskje det første å legge merke til om AR (p) modellen er at en tilfeldig spasertur bare er AR (1) med alfa1 lik enhet. Som nevnt ovenfor er den autogressive modellen en forlengelse av den tilfeldige gange, så dette gir mening Det er greit å foreta forutsigelser med AR (p) - modellen, når som helst t, som en gang vi har bestemt alfa-koeffisientene, er vårt estimat blir bare: start hatten t alpha1 x ldots alphap x end Derfor kan vi lage fremskritt prognoser ved å produsere lue, lue, lue osv. opp til lue. Faktisk, når vi vurderer ARMA-modellene i del 2, vil vi bruke R-forutsig-funksjonen for å skape prognoser (sammen med standardfeil konfidensintervallbånd) som vil hjelpe oss med å produsere handelssignaler. Stasjonar for autoregressive prosesser En av de viktigste aspektene ved AR (p) modellen er at den ikke alltid er stasjonær. Faktisk er stasjonariteten til en bestemt modell avhengig av parametrene. Jeg har rørt på dette før i en tidligere artikkel. For å avgjøre om en AR (p) prosess er stasjonær eller ikke, må vi løse den karakteristiske ligningen. Den karakteristiske ligningen er rett og slett den autoregressive modellen, skrevet i bakoverskiftform, satt til null: Vi løser denne ligningen for. For at den spesielle autoregressive prosessen skal være stasjonær, trenger vi alle de absolutte verdiene for røttene til denne ligningen for å overskride enhet. Dette er en ekstremt nyttig egenskap og lar oss raskt beregne om en AR (p) prosess er stasjonær eller ikke. La oss vurdere noen eksempler for å gjøre denne ideen konkret: Tilfeldig Walk - AR (1) prosessen med alpha1 1 har den karakteristiske ligningen theta 1 -. Klart dette har rot 1 og som sådan er ikke stasjonær. AR (1) - Hvis vi velger alpha1 frac, får vi xt frac x wt. Dette gir oss en karakteristisk ligning på 1 - frac 0, som har en rot 4 gt 1 og så denne spesielle AR (1) prosessen er stasjonær. AR (2) - Hvis vi setter alpha1 alpha2 frac så får vi xt frac x frac x wt. Den karakteristiske ligningen blir - frac () () 0, som gir to røtter på 1, -2. Siden dette har en rotasjonsenhet er det en ikke-stationær serie. Imidlertid kan andre AR (2) - serier være stasjonære. Øvrige ordreegenskaper Middelet av en AR (p) prosess er null. Autocovariances og autocorrelations er imidlertid gitt av rekursive funksjoner, kjent som Yule-Walker-ligningene. De fullstendige egenskapene er gitt nedenfor: start mux E (xt) 0 end begynnelsen gammak sum p alphai gamma, enspace k 0 ende begynn rhok sum p alphai rho, enspace k 0 end Merk at det er nødvendig å vite alfa parameterværdier før beregne autokorrelasjoner. Nå som vi har oppgitt andre rekkefølgeegenskaper, kan vi simulere ulike ordrer av AR (p) og plotte de tilsvarende korrelogrammene. Simuleringer og korrelogrammer Lar oss begynne med en AR (1) prosess. Dette ligner en tilfeldig spasertur, bortsett fra at alfa1 ikke trenger lik enhet. Vår modell skal ha alpha1 0,6. R-koden for å lage denne simuleringen er gitt som følger: Legg merke til at vår for-løp utføres fra 2 til 100, ikke 1 til 100, som xt-1 når t0 ikke er indexerbar. På samme måte for høyere rekkefølge AR (p) prosesser, må t være fra p til 100 i denne sløyfen. Vi kan plotte realiseringen av denne modellen og det tilhørende korrelogramet ved hjelp av layoutfunksjonen: Lar oss nå forsøke å tilpasse en AR (p) - prosess til de simulerte dataene vi nettopp har generert, for å se om vi kan gjenopprette de underliggende parametrene. Du kan huske at vi har utført en lignende prosedyre i artikkelen om hvit støy og tilfeldige turer. Som det viser seg, gir R en nyttig kommando for å passe autoregressive modeller. Vi kan bruke denne metoden for å fortelle oss den beste rekkefølgen p av modellen (som bestemt av AIC ovenfor) og gi oss parameterestimater for alphai, som vi da kan bruke til å danne konfidensintervall. For fullstendighet, la oss gjenskape x-serien: Nå bruker vi ar-kommandoen til å passe en autoregressiv modell til vår simulerte AR (1) prosess, ved å bruke maksimal sannsynlighet estimering (MLE) som monteringsprosedyre. Vi vil først trekke ut best oppnådde rekkefølge: Ar-kommandoen har vellykket fastslått at vår underliggende tidsseriemodell er en AR (1) prosess. Vi kan da få estimatene for alfa-parameteren (e): MLE-prosedyren har gitt et estimat, hat 0,523, noe som er litt lavere enn den ekte verdien av alpha1 0,6. Til slutt kan vi bruke standardfeilen (med asymptotisk varianse) til å konstruere 95 konfidensintervaller rundt den underliggende parameteren (e). For å oppnå dette, oppretter vi bare en vektor c (-1,96, 1,96) og multiplikerer den ved standardfeilen: Den ekte parameteren faller innenfor 95 konfidensintervallet, som vi forventer av det faktum at vi har generert realiseringen fra modellen spesifikt . Hva med om vi endrer alfa1 -0.6 Som før kan vi passe en AR (p) modell ved å bruke ar: Igjen gjenoppretter vi den riktige rekkefølgen av modellen, med et veldig godt estimat -0.597 av alpha1-0.6. Vi ser også at den sanne parameteren faller innenfor 95 konfidensintervallet igjen. La oss legge til litt mer kompleksitet i våre autoregressive prosesser ved å simulere en ordningsmodell 2. Spesielt vil vi sette alpha10.666, men også sette alpha2 -0.333. Heres den fulle koden for å simulere og plotte realiseringen, så vel som korrelogrammet for en slik serie: Som før kan vi se at korrelogrammet er forskjellig fra hvitt støy, som vi forventer. Det er statistisk signifikante topper ved k1, k3 og k4. Igjen skulle vi bruke ar-kommandoen til å passe en AR (p) modell til vår underliggende AR (2) realisering. Prosedyren er lik den samme som for AR (1) passform: Den riktige rekkefølgen er gjenopprettet, og parameteren estimerer hat 0.696 og hat -0.395 er ikke for langt unna de ekte parameterverdiene til alpha10.666 og alpha2-0.333. Legg merke til at vi mottar en konvergensvarselmelding. Legg merke til at R faktisk bruker arima0-funksjonen til å beregne AR-modellen. I tillegg læres i etterfølgende artikler, AR (p) modeller er ganske enkelt ARIMA (p, 0, 0) modeller, og dermed er en AR-modell et spesielt tilfelle av ARIMA uten Moving Average (MA) komponent. Vel, bruk også arima-kommandoen for å skape konfidensintervaller rundt flere parametere, og derfor har vi ikke forsømt å gjøre det her. Nå som vi har opprettet noen simulerte data, er det på tide å bruke AR (p) - modellene til tidsserier for finansielle eiendeler. Financial Data Amazon Inc. La oss begynne med å oppnå aksjekursen for Amazon (AMZN) ved hjelp av quantmod som i den siste artikkelen: Den første oppgaven er å alltid plotte prisen for en kort visuell inspeksjon. I så fall bruker du de daglige sluttkursene: Du merker at quantmod legger til noe formatering for oss, nemlig datoen og et litt finere diagram enn de vanlige R-diagrammene: Vi skal nå ta den logaritmiske avkastningen til AMZN og deretter den første rekkefølgeforskjellen i serien for å konvertere den opprinnelige prisserien fra en ikke-stationær serie til en (potensielt) stasjonær en. Dette gjør at vi kan sammenligne epler med epler mellom aksjer, indekser eller andre eiendeler, for bruk i senere multivariate statistikker, for eksempel ved beregning av en kovariansmatrise. Hvis du vil ha en detaljert forklaring på hvorfor loggavkastning er å foretrekke, ta en titt på denne artikkelen over på Quantivity. Lar lage en ny serie, amznrt. å holde våre differenced log returnerer: Igjen, kan vi plotte serien: På dette stadiet vil vi plotte korrelogrammet. Var ser for å se om den forskjellige serien ser ut som hvit støy. Hvis det ikke er det, er det uforklarlig seriell korrelasjon, noe som kan forklares av en autoregressiv modell. Vi ser en statistisk signifikant topp på k2. Derfor er det en rimelig mulighet for uforklarlig seriell korrelasjon. Vær oppmerksom på at dette kan skyldes prøvetrykkspenning. Som sådan kan vi prøve å montere en AR (p) - modell til serien og produsere konfidensintervaller for parametrene: Montering av den autoregressive modellen til den første rekkefølgen forskjellig serie loggpriser produserer en AR (2) modell med hatt -0,0278 og hat -0,0687. Ive leverer også den aysmptotiske variansen slik at vi kan beregne standardfeil for parametrene og produsere konfidensintervaller. Vi vil se om null er en del av 95-konfidensintervallet, som om det er, det reduserer vår tillit til at vi har en sann underliggende AR (2) prosess for AMZN-serien. For å beregne konfidensintervallene på 95-nivået for hver parameter, bruker vi følgende kommandoer. Vi tar kvadratroten til det første elementet i den asymptotiske variansmatrisen for å produsere en standardfeil, og deretter opprette konfidensintervall ved å multiplisere den med -1,96 og 1,96 for henholdsvis 95-nivået: Merk at dette blir mer grei når du bruker arima-funksjonen , men vent godt til del 2 før du introduserer det riktig. Dermed kan vi se at for alfa1 er null inne i konfidensintervallet, mens for alfa2 null ikke er inneholdt i konfidensintervallet. Derfor bør vi være veldig forsiktig med å tenke at vi virkelig har en underliggende generativ AR (2) modell for AMZN. Spesielt legger vi merke til at den autoregressive modellen ikke tar hensyn til volatilitetsklynging, noe som fører til klynging av seriell korrelasjon i økonomiske tidsserier. Når vi vurderer ARCH - og GARCH-modellene i senere artikler, tar vi hensyn til dette. Når vi kommer til å bruke hele arima-funksjonen i neste artikkel, vil vi gjøre forutsigelser av den daglige loggprisserien for å tillate oss å skape handelssignaler. SampP500 US Equity Index Sammen med individuelle aksjer kan vi også vurdere US Equity Index, SampP500. Lar oss bruke alle tidligere kommandoer til denne serien og produsere tomtene som før: Vi kan plotte prisene: Som før, skape vel den første ordensforskjellen mellom loggens sluttpriser: Nok en gang kan vi plotte serien: Det er klart fra dette diagrammet at volatiliteten ikke er stasjonær i tide. Dette gjenspeiles også i korrelogrammet. Det er mange topper, inkludert k1 og k2, som er statistisk signifikante utover en hvit støymodell. I tillegg ser vi bevis på langminnet prosesser som det er noen statistisk signifikante topper ved k16, k18 og k21: Til slutt vil vi trenge en mer sofistikert modell enn en autoregressiv bestillingsmodell p. Men på dette stadiet kan vi fortsatt prøve å tilpasse en slik modell. Lar se hva vi får hvis vi gjør det: Å bruke ar produserer en AR (22) modell, det vil si en modell med 22 ikke-null parametere. Hva forteller dette? Det er indikativt at det er sannsynligvis mye mer kompleksitet i seriell korrelasjon enn en enkel lineær modell av tidligere priser kan egentlig stå for. Vi visste imidlertid dette allerede fordi vi kan se at det er betydelig seriell korrelasjon i volatiliteten. Tenk for eksempel den svært volatile perioden rundt 2008. Dette motiverer det neste settet med modeller, nemlig Moving Average MA (q) og Autoregressive Moving Average ARMA (p, q). Vel lær om begge disse i del 2 i denne artikkelen. Som vi gjentatte ganger nevner, vil disse til slutt lede oss til modellene ARIMA og GARCH, som begge vil gi en bedre passform til Samp500s serielle korrelasjonskompleksitet. Dette vil gjøre det mulig for oss å forbedre våre prognoser vesentlig og til slutt produsere mer lønnsomme strategier. Bare Komme i gang med kvantitativ TradingTime-varierende ARMA stabil prosess estimering ved hjelp av sekvensiell Monte Carlo Cite denne artikkelen som: Huang, R. Zheng, H. Kuruoglu, EE SIViP (2013) 7: 951. doi: 10.1007s11760-011-0285-x Ulike tidsseriedata i applikasjoner som strekker seg fra telekommunikasjon til økonomisk analyse og fra geofysiske signaler til biologiske signaler, viser ikke-stationære og ikke-gaussiske egenskaper. - Stabile distribusjoner har vært populære modeller for data med impulsive og ikke-symmetriske egenskaper. I dette arbeidet presenterer vi tidsvarierende autoregressive bevegelige gjennomsnittlige stabile prosesser som en potensiell modell for et bredt spekter av data, og vi foreslår en metode for å spore de tidsvarierende parametrene i prosessen med - stabil distribusjon. Teknikken er basert på sekvensiell Monte Carlo, som har antatt en bred popularitet i ulike applikasjoner der dataene eller systemet er ikke-stasjonært og ikke-gaussisk. - Stabile prosesser Tidsvarierte prosesser Sekventielle Monte Carlo Referanser Miyanaga Y. Miki N. Nagai N. Adaptiv identifisering av en tidsvarig ARMA-talemodell. i: IEEE Trans. Acoust. Talesignalprosess. 34 (3), 423433 (1986) CrossRef Google Scholar Mobarakeh A. Rofooei F. Ahmadi G. Simulering av jordskjelvsposter ved hjelp av tidsvarierende ARMA (2,1) modell. Probab. Eng. Mech. 17 (1), 1534 (2002) CrossRef Google Scholar Refan, M. Mohammadi, K. Mosavi, M. Tidsmessig ARMA-behandling på lave kostnader GPS-mottakerdata for å forbedre stillingsnøyaktigheten. I: Prosedyrer av asiatisk GPS (2002) Patomaki, L. Kaipio, J. Karjalainen, P. Sporing av ikke-stationære EEG med røttene til ARMA-modellene. I: IEEE 17 Årlig Konferanse Engineering In Medicine and Biology Society, vol. 2, s. 877878 (1995) Zielinski J. Bouaynaya N. Schonfeld D. ONeill W. Tid-avhengig ARMA-modellering av genomiske sekvenser. BMC Bioinform. 9 (Suppl 9), S14 (2008) CrossRef Google Scholar Kuruoglu E. Zerubia J. Modellering av radarbilder med syntetisk blenderåpning med generalisering av Rayleigh-distribusjonen. i: IEEE Trans. Bildeprosess. 13 (4), 527533 (2004) CrossRef Google Scholar Bloch K. Arce G. Median korrelasjon for analyse av genuttrykksdata. Signalprosess. 83. 811823 (2003) MATH CrossRef Google Scholar Pesquet-Popescu B. Pesquet J. Syntese av bidimensjonale alfa-stabile modeller med langvarig avhengighet. Signalprosess. 82. 19271940 (2002) MATH CrossRef Google Scholar Rosario M. Garroppo G. Giordano S. Procissi G. Testing alfa-stabile prosesser for å fange køenes adferd hos bredbånds teletrafiknett. Signalprosess. 82. 18611872 (2002) MATH CrossRef Google Skolar Lvy P. Calcul des Probabilits. Gauthier-Villars, Paris (1925) MATH Google Scholar Mandelbrot B. Variasjonen av visse spekulative priser. J. Bus. 36 (4), 394419 (1963) CrossRef Google Scholar Gallardo J. Makrakis D. Orozco-Barbosa L. Bruk av alfa-stabile selvlignende stokastiske prosesser for modellering av trafikk i bredbåndsnett. Utføre. Eval. 40 (13), 7198 (2000) MATH CrossRef Google Scholar Bates, S. Mclaughlin, S. Tester den gaussiske antagelsen for selvlignende teletraffimodeller. I: Prosesser i IEEE Signal Processing Workshop på høyere ordre statistikk, s. 444447 (1997) Samorodnitsky G. Taqqu M. Stabile ikke-gaussiske tilfeldige prosesser: Stokastiske modeller med uendelig variasjon (Stokastisk modellering). Chapman amp HallCRC, London (1994) MATH Google Scholar Davis R. Knight K. Liu J. m-estimering for autoregresjoner med uendelig varians. Stoch. Prosess. Appl. 40. 145180 (1992) MathSciNet MATH CrossRef Google Scholar Nikias C. Shao M. Signalbehandling med Alpha-stabile distribusjoner og applikasjoner. Wiley-Interscience, New York (1995) Google Scholar Lombardi M. Godsill S. On-line Bayesian estimering av signaler i symmetrisk alfa-stabil støy. i: IEEE Trans. Signalprosess. 54 (2), 775779 (2006) CrossRef Google Scholar Kuruoglu E. Nonlinear least lp-norm filters for nonlinear autoregressive alpha-stable processes. Digit. Signal Process. 12 (1), 119142 (2002) CrossRef Google Scholar Salas-Gonzalez D. Kuruoglu E. Ruiz D. Modelling with mixture of symmetric stable distributions using Gibbs sampling. Signal Process. 90 (3), 774783 (2010) MATH CrossRef Google Scholar Gencaga D. Ertuzun A. Kuruoglu E. Modeling of non-stationary autoregressive alpha-stable processes by particle filters. Digit. Signal Process 18 (3), 465478 (2008) CrossRef Google Scholar Gencaga D. Kuruoglu E. Ertuzun A. Yildirim S. Estimation of time-varying AR SS processes using Gibbs sampling. Signal Process. 88 (10), 25642572 (2008) MATH CrossRef Google Scholar Haas, M. Mittnik, S. Paolella, M. Steudee, S. Stable Mixture GARCH Model. National centre of competence in research financial valuation and risk management. National Centre of Competence in Research Financial Valuation and Risk Management Working Paper No. 257 Crisan D. Particle Filters-A Theoretical Perspective. Springer, New York (2001) Google Scholar Doucet A. Godsill S. Andrieu C. On sequential Monte Carlo sampling methods for Bayesian filtering. Stat. Comput. 10 (3), 197208 (2000) CrossRef Google Scholar Djuric P. Kotecha J. Zhang J. Huang Y. Ghirmai T. Bugallo M. Miguez J. Particle filtering. in: IEEE Signal Process. Mag. 20 (5), 1938 (2003) CrossRef Google Scholar Jachan M. Matz G. Hlawatsch F. Time-frequency ARMA models and parameter estimators for underspread nonstationary random processes. in: IEEE Trans. Signal Proc. 55 . 43664381 (2007) MathSciNet CrossRef Google Scholar Haseyama M. Kitajima H. An ARMA order selection method with fuzzy reasoning. Signal Process. 81 (6), 13311335 (2001) MATH CrossRef Google Scholar Capp, O. Moulines, E. Rydn, T. Inference in Hidden Markov Models. Springer series in Statistics, pp. 209244 (2005) Douc, R. Capp, O. Moulines, E. Comparison of resampling schemes for particle filtering. In: Proceedings of the 4th International Symposium on Image and Signal Processing Analysis, pp. 6469 (2005) Copyright information Springer-Verlag London Limited 2011 Authors and Affiliations Renke Huang 1 Hao Zheng 2 Email author Ercan E. Kuruoglu 3 Email author 1. School of Electrical and Computer Engineering Georgia Institute of Technology Atlanta USA 2. School of Electrical and Computer Engineering Georgia Institute of Technology Savannah USA 3. Images and Signals Laboratory Institute of Science and Technology of Information, A. Faedo Italian National Council of Research (ISTI-CNR) Pisa Italy About this article

No comments:

Post a Comment