Apostila de Análise de Séries Temporais Autor: Prof. Manoel Ivanildo Silvestre Bezerra DMEC/ FCT / UNESP Curso de Estatística
Disciplina Semestral - 2006
Sumário 1 Introdução
4
1.1 Exemplos de séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Ob jetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Estacionariedade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Conceitos Básicos
4 5 6 7
2.1 Proce ocesso Estocá ocástico . . . . . . . . . . . . . . . 2.2 2.2 Espe Especi cificaçã ação de um Proc rocesso sso Esto Estocá cásstic tico . . . 2.3 Médias e Covariâncias . . . . . . . . . . . . . . 2.3.1 Propriedades da Esper perança . . . . . . . 2.3.2 Propriedades da Variância . . . . . . . . 2.3.3 Propriedades da Covariân iância . . . . . . 2.3. 2.3.44 Prop ropried riedad ades es da Corr orrelaçã laçãoo . . . . . . . 2.3. 2.3.55 Outr Outras as Prop Propri ried edad ades es Impo Import rtan ante tess . . . . 2.4 Exemplos . . . . . . . . . . . . . . . . . . . . . 2.4. 2.4.11 Exem xemplo 1: O passei sseioo alea aleató tórrio . . . . . 2.4. 2.4.22 Exem Exempl ploo 2: (Mé (Médi diaa-Mó Móvvel de orde ordem m 1) . 2.5 2.5 Esta Estaci cion onar arie ieda dade de para para um Proce Process ssoo Estoc Estocás ásti tico co 2.5.1 Ruído Branco . . . . . . . . . . . . . . . 2.6 A Função de Auto Autoccorr orrela elação ção Amost ostral ral . . . . . 2.7 Exercícios . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
3.1 Mode odelo com Média constante . . . . . . . . . . . . . . . . 3.2 Método odo de Regressão . . . . . . . . . . . . . . . . . . . . . 3.2.1 Tendência Linear . . . . . . . . . . . . . . . . . . . 3.2. 3.2.22 Tend endênci ênciaa Ciclí iclícca ou Sazon zonal . . . . . . . . . . . . 3.2.3 Tendência Cosseno . . . . . . . . . . . . . . . . . . 3.3 Sazonalidade . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 3.3.1 Sazon Sazonali alidad dadee deter determin miníst ística ica - método método de regres regressão são 3.4 Análise Residual . . . . . . . . . . . . . . . . . . . . . . . 3.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
3 Modelos de Decomposição
7 8 8 9 9 9 10 10 10 10 12 12 13 14 14 17
4 Modelos de Suavização Exponencial
4.1 4.1 Mod Modelos elos para para séri séries es loca localm lmen ente te cons consta tanntes tes . . . . . . . . . . . . 4.1. 4.1.11 Médi édias Móvei óveiss Simp imples les (MMS) MS) . . . . . . . . . . . . . . 4.1. 4.1.22 Sua Suaviza vizaçã çãoo Expo Expone nenc ncia iall Sim Simples ples (SES (SES)) . . . . . . . . . . 4.2 4.2 Model Modelos os para para séri séries es que que apre aprese senntam tam Tendê endênc ncia ia . . . . . . . . . 4.2.1 4.2.1 Suav Suaviza ização ção Expone Exponenci ncial al Bipara Biparamét métric ricaa de Holt Holt (SEH) (SEH) . 4.3 Mode odelos para séries sazonais . . . . . . . . . . . . . . . . . . . . 4.3.1 4.3.1 Suav Suaviza ização ção Exponen Exponencia ciall Sazona Sazonall de HoltHolt-Win Winter terss (HW) (HW)
1
17 18 18 19 19 19 21 22 22 23
. . . . . . .
. . . . . . .
. . . . . . .
23 23 24 25 25 25 25
[email protected]
SUMÁRIO
5 Mo Modelos de Box-Jenkins para Séries Estacionárias
27
5.1 Proce ocesso Linear Geral . . . . . . . . . . . . . . . . . . 5.2 Mode odelo Médias-Móveis (MA(q)) . . . . . . . . . . . . 5.2.1 O modelo MA(1) . . . . . . . . . . . . . . . . . 5.2.2 O Modelo MA(q) . . . . . . . . . . . . . . . . . 5.3 Mode odelo Autoregressivo AR(p) . . . . . . . . . . . . . . 5.3.1 O Modelo AR(1) . . . . . . . . . . . . . . . . . 5.3.2 O Modelo AR(2) . . . . . . . . . . . . . . . . . 5.3. 5.3.33 O Proc rocesso esso Aut Autoreg oregrressi essivvo gera gerall . . . . . . . . 5.4 5.4 O Model Modeloo Auto Autore regr gres essi sivvo-Mé o-Médi dias as Móve Móveis is ARMA ARMA(p (p,q ,q)) 5.4.1 O modelo ARMA(1,1) . . . . . . . . . . . . . . 5.5 Invertibilidade . . . . . . . . . . . . . . . . . . . . . . 5.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . .
. . . .. . . . . .. . .. . . . . . . . .. . . . . .. . . . . . . .
. . . . . . . . . . . .
. . .. . . .. .. . . . . .. .. .. . . . .
. . . . . . . . .. . . . . .. . . . . . . . .
6 Modelos para Séries Temporais Não-Estacionárias
39
6.1 O Modelo Autoregre Autoregressiv ssivo-In o-Integr tegradoado-Médi Médias-M as-Móve óveis is ARIMA(p, ARIMA(p,d,q) d,q) . 6.1.1 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.2 6.1.2 Algum Algumas as Transfo ransform rmaçõ ações es para para torn tornar ar a séri sériee Esta Estacio cionár nária ia . . 6.2 Formas do Mode odelo ARIMA . . . . . . . . . . . . . . . . . . . . . . . 6.2. 6.2.11 Form orma da Equaç quação ão Dife iferen renças ças . . . . . . . . . . . . . . . . . . 6.2. 6.2.22 Form orma de Choqu oques Ale Aleató atórios rios . . . . . . . . . . . . . . . . . . 6.2. 6.2.33 Termo ermo cons consta tannte no Mode Modelo lo ARIM ARIMA A. .. .. .. .. .. .. . 6.3 Construção dos Mode odelos ARIMA . . . . . . . . . . . . . . . . . . . . 6.3. 6.3.11 Funçã unçãoo de Autoc Autocor orre rela laçã çãoo Parc Parcia iall (fac (facp) p) . . . . . . . . . . . . 6.3.2 6.3.2 A Fun Função ção de Autocor Autocorrel relaçã açãoo Parc Parcial ial Amostr Amostral al (fapa) (fapa) . . . . . 6.4 6.4 Iden Idendi dificação (ou Especificaçã cação) o) dos Mode Modelo loss ARIM ARIMA A .. .. .. .. 6.4.1 Procedimento . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Inter Intervvalo de Confiança ança para ara a FAC Amostr stral . . . . . . . . . . . . . 6.6 Exercícos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Estimação dos Parâmetros
. . . . .. . . . . .. .. . . . . .. . . . . .. .. .. .. . .
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
8 Diagnóstico do Modelo
Análise Residual . . . . . . . Autoco ocorrelação dos Resíduos O Teste de Box-Pierce . . . . Exercícios . . . . . . . . . . .
39 40 40 41 41 41 41 42 43 44 44 44 45 46 47
7.1 Estimativas Prelimina inares . . . . . . . . . . . . . . . . . . . . . 7.1.1 Proce ocessos AR(p) . . . . . . . . . . . . . . . . . . . . . 7.1.2 Processos MA(q) . . . . . . . . . . . . . . . . . . . . 7.1.3 Proce ocessos ARMA(p,q) . . . . . . . . . . . . . . . . . . 7.2 O Método odo dos Momentos . . . . . . . . . . . . . . . . . . . . 7.2.1 Mode odelo Autoregressivo . . . . . . . . . . . . . . . . . . 7.2.2 Mode odelos Médias-Móveis . . . . . . . . . . . . . . . . . 7.2.3 Modelos ARMA . . . . . . . . . . . . . . . . . . . . . 7.2. 7.2.44 Esti Estima mati tivvas da Variâ ariânc ncia ia do Ruíd Ruídoo . . . . . . . . . . . 7.3 Esti Estim mativ tivas de Mínim ínimoos Quadr adrados ados . . . . . . . . . . . . . . . 7.3.1 Mode odelos Autoregressivos . . . . . . . . . . . . . . . . . 7.3.2 Mode odelos Médias Móveis . . . . . . . . . . . . . . . . . 7.3. 7.3.33 Model Modelos os Auto Autore regr gres essi sivo voss-Mé Médi dias as-M -Móv óvei eiss . . . . . . . . 7.4 7.4 Esti Estima mati tivvas de Máxi Máxima ma Veros erossi simi milh lhan ança ça . . . . . . . . . . . . 7.5 Mínimo Mínimoss Quad Quadrad rados os Não-C Não-Cond ondici iciona onall para para o Modelo Modelo ARMA ARMA 7.6 Prop Proprried iedades ades das Estim stimat ativ ivas as . . . . . . . . . . . . . . . . . . 7.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 8.2 8.3 8.4
27 28 29 29 30 30 31 33 34 34 36 37
47 47 47 48 48 48 49 49 49 50 50 52 53 53 55 55 56 58
. . . .
. . . . 2
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
58 59 59 60
[email protected]
SUMÁRIO
9 Previsão com Modelos ARIMA
61
9.1 9.1 Cálc Cálcul uloo da Prev Previs isão ão de Erro Erro Quad Quadrá ráti tico co Médi Médioo Míni Mínimo mo . . . . . . . 9.2 Tendência Determinística . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Previsão ARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.1 Modelo AR(1) . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.2 Erro de Previsão . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.3 Modelo MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.4 Erro de Previsão . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.5 O Caminho Aleatório . . . . . . . . . . . . . . . . . . . . . . 9.3.6 Erro de Previsão . . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Mod Modelo elo ARM ARMA Esta stacion cionár ário io - Caso aso Geral eral . . . . . . . . . . . . . . . 9.4.1 Mode odelo ARMA(1,1) . . . . . . . . . . . . . . . . . . . . . . . 9.5 Mod Modelos elos Nãoão-Estac staciionár onário ioss ARIM ARIMA A .. ... ... ... .. ... .. 9.5.1 Mode odelo ARIMA(1,1,1) . . . . . . . . . . . . . . . . . . . . . . 9.5.2 Erro de Previsão . . . . . . . . . . . . . . . . . . . . . . . . . 9.6 Atualização das Previsões . . . . . . . . . . . . . . . . . . . . . . . . 9.7 Inter Intervvalo de Confiança para Previsão . . . . . . . . . . . . . . . . . . 9.8 Transformações e Previsões . . . . . . . . . . . . . . . . . . . . . . . 9.9 9.9 Resu Resumo mo de Prev Previs isõe õess para para algu alguns ns Model Modelos os ARIM ARIMA A . . . . . . . . . . 9.9. 9.9.11 AR(1 AR(1): ): Z t − µ = φ (Z t 1 − µ) + at . . . . . . . . . . . . . . . 9.9. 9.9.22 MA(1 MA(1): ): Z t = µ + at − θat 1 . . . . . . . . . . . . . . . . . . . 9.9.3 IMA(1,1) IMA(1,1) com termo termo const constan ante: te: Z t = Z t 1 + θ0 + at − θat 1 9.9.4 9.9.4 IMA(2, IMA(2,2): 2): Z t = 2Z t 1 − Z t 2 + θ0 + at − θ1 at 1 − θ2 at 2 . . 9.10 Exe Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . −
−
−
−
−
−
−
−
10 Modelos Sazonais
61 61 62 62 63 64 64 65 65 66 66 66 67 67 67 68 68 69 69 70 70 70 70 72
10.1 0.1 10.2 10.3 10.4 10.5 0.5 10.6 10.7 0.7
Sazo azonalid alidaade Deter terminís inísttica ica . . . . . . Identificação . . . . . . . . . . . . . . . Est Estimação . . . . . . . . . . . . . . . . Pre Previsão . . . . . . . . . . . . . . . . . Sazo azonalid alidaade Esto Estocá cást stic icaa . . . . . . . . Identificação, Estimação e Verificação Exem Exempplos los de Model odelos os Sazon azonai aiss . . . . 10.7.1 Exemplo 1 . . . . . . . . . . . . 10.7.2 Exemplo 2 . . . . . . . . . . . . 10.7.3 Exemplo 3 . . . . . . . . . . . . 10.7.4 Exemplo 4 . . . . . . . . . . . . 10.7.5 Exemplo 5 . . . . . . . . . . . . 10.7.6 Exemplo 6 . . . . . . . . . . . . 10.7.7 Exemplo 7 . . . . . . . . . . . . 10.7.8 Exemplo 8 . . . . . . . . . . . . 10.8 Exe Exercícios . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
72 73 73 73 74 74 75 75 75 75 75 76 76 76 77 77
A Esperança Condicional
79
B Predição de Erro Quadrático Médio Mínimo
80
3
Capítulo 1
Introdução Uma série temporal é qualquer conjunto de observações ordenadas no tempo. Alguns exemplos são citados abaixo: a) Estimativas trimestrais do Produto Interno Bruto (PIB); b) Valores diários da temperatura em Presidente Prudente; c) Índices diários da bolsa de valores de São Paulo; d) Quantidade anual de chuva na cidade do Recife; e) Um registro de marés no porto de Santos. Nos exemplos de a) a d) temos séries temporais discretas, enquanto que e) é um exemplo de série contínua. Podemos obter uma série temporal discreta a partir da amostragem de uma série temporal contínua considerando intervalos de tempos iguais, ∆t. Assim para analisar a série e) será necessário amostrá-la, convertendo-a e observando-a no intervalo de tempo [0, T ], supondo uma série discreta com N pontos, onde N = ∆T t (T horas). Existem dois enfoques utilizados na análise de séries temporais. Em ambos, o objetivo é construir modelos para estas séries. No primeiro enfoque, a análise é feita no domínio temporal e os modelos propostos são modelos paramétricos (com um número finito de parâmetros). No segundo, a análise é conduzida no domínio de frequências e os modelos propostos são modelos não-paramétricos . Dentre os modelos paramétricos temos, por exemplo, os modelos ARIMA, que serão estudados neste curso nos próximos capítulos. No domínio de frequências temos a análise espectral , que tem inúmeras aplicações em ciências físicas e engenharia, principalmente na engenharia elétrica, e que consiste em decompor a série dada em componentes de frequências e onde a existência do espectro é a característica fundamental. Este tipo de análise não será estudado nestas notas de aulas, para detalhes o aluno deve consultar Jenkins e Watts (1968), Koopmans (1974), Morettin (1979), Marple (1987) e Kay (1988).
1.1
Exemplos de séries
Exemplo1: Vamos supor que desejamos medir a temperatura do ar, de um local,
durante 24 horas, poderíamos obter um grá fico semelhante a figura abaixo:
4
[email protected]
CAPÍTULO 1. INTRODUÇÃO
Figura 1.1: Temperatura do ar, de dado local, durante 24 horas. Cada curva do gráfico é chamada de trajetória ou série temporal ou função amostral. No gráfico acima Z (j) (t) é o valor da temperatura no instante t, para a j − e´sima trajetória ( j-ésimo dia de observação). Para cada t fixo, teremos os valores de uma variável aleatória Z (t) que terá certa distribuição de probabilidade . Na realidade o que chamamos de série temporal , é uma parte de uma trajetória, dentre muitas que poderiam ter sido observadas. O parâmetro t pode ser função de algum outro parâmetro físico como por exemplo: espaço e volume. Exemplo 2:Seja Z (t) = [Z 1 (t), Z 2 (t), Z 3 (t)]0
(1.1)
um vetor (r × 1) e ( p × 1) onde as três componentes denotam, a altura, a temperatura e a pressão de um ponto no oceano, respectivamente, e t=(tempo, latitude, longitude), ou seja, uma série multivariada (r=3) e multidimensional (p=3). Exemplo 3: Seja Z (t) o número de acidentes ocorridos em rodovias do estado de São Paulo, por mês. Neste exemplo r=1 e p=2, com t=(mês, rodovia).
1.2
Objetivos
Dada uma série temporal {Z (t1 ),...,Z (tN )} , observada nos instantes t1 ,...,tN , podemos estar interessados em: i) Investigar o mecanismo gerador da série temporal; ii) Fazer previsões de valores futuros da série; podendo ser a curto ou longo prazo; iii) Descrever apenas o comportamento da série através de grá ficos; iv) Procurar periodicidades relevantes nos dados. Em todos estes casos podemos construir modelos probabilísticos ou estocásticos, tanto no domínio do tempo como no domínio da freqüência, por exemplo: um sinal aleatório com freqüência medida em Hz. Devemos construir modelos simples e com menor número de parâmetros possíveis.
5
[email protected]
1.3
CAPÍTULO 1. INTRODUÇÃO
Estacionariedade
Uma série temporal é estacionária quando ela se desenvolve aleatoriamente, no tempo, em torno de uma média constante, re fletindo alguma forma de equilíbrio estável. Entretanto, a maior parte das séries que encontramos na prática apresenta alguma forma de não estacionariedade. As séries econômicas apresentam em geral tendências lineares positivas ou negativas. Podemos ter, também, uma forma de não-estacionariedade explosiva, como o crescimento de uma colônia de bactérias. A classe dos modelos ARIMA (autoregressivos-integrados-médias-móveis), serão capaz de descrever de maneira satisfatória séries estacionárias e não-estacionárias, mas que não apresentam comportamento explosivo. Este tipo de estacionariedade é chamado homogêneo; a série pode ser estacionária, flutuando ao redor de um nível, por um certo tempo, depois mudar de nível e flutuar ao redor de um novo nível e assim por diante, ou então mudar de inclinação, ou ambas as coisas. A figura 1.2 ilustra esta forma de não-estacionariedade.
Figura 1.2: Série não estacionária quanto ao nível e inclinação. Como a maioria dos procedimentos de análise estatística de séries temporais supõem que estas sejam estacionárias, devemos transformar os dados originais, se estes não formam uma série estacionária. A transformação mais comum consiste em tomar diferenças sucessivas da série original, até se obter uma série estacionária. A primeira diferença de Z t é definida por ∆Z t = Z t
− Z t
1,
−
(1.2)
a segunda diferença é: 2
Z t ∆ Z t 2 ∆ Z t ∆
2
= ∆ [∆Z t ] = ∆ [Z t − Z t = ∆Z t − ∆Z t 1 = Z t − 2Z t 1 + Z t 2
1]
−
(1.3)
−
−
−
£ ¤
De modo geral, a n − e´sima diferença de Z t é ∆n Z t = ∆ ∆n 1Z t . Em situações normais, será suficiente tomar uma ou duas diferenças para que a série se torne estacionária. −
6
Capítulo 2
Conceitos Básicos Neste capítulo vamos descrever os conceitos básicos utilizados dentro da teoria dos modelos de séries temporais. Inicialmente vamos introduzir os conceitos de processos estocásticos, média e função de covariância, processo estacionário, e função de autocorrelação.
2.1
Processo Estocástico
Seja T um conjunto arbritário. Um processo estocástico é uma família Z = {Z t , t ∈ T } tal que, para cada t ∈ T, Z t é uma variável aleatória (v.a.) de finida num espaço de probabilidades ( Ω, A, P ) . O conjunto T é normalmente tomado como o conjunto dos inteiros Z = {0, ±1, ±2,...} ou o conjunto dos reais R. Como, para t ∈ T , Z t é uma v.a. de finida sobre Ω, na realidade Z t é uma função de dois argumentos, Z (t, ω), t ∈ T, ω ∈ Ω.
Figura 2.1: Um processo estocástico interpretado como uma família de variáveis aleatórias.
7
[email protected]
CAPÍTULO 2. CONCEITOS BÁSICOS
Figura 2.2: Um processo estocástico interpretado como uma família de trajetórias. O conjunto dos valores {Z t , t ∈ T } é chamado espaço dos estados, E , do processo estocástico, e os valores de Z t são chamados estados. Onde Z t e T podem ser discretos ou contínuos.
2.2
Especificação de um Processo Estocástico
Sejam t 1 , t2 ,...,tn elementos quaisquer de T e consideremos F (Z 1 ,...,Z n ; t1 ,...,tn ) = P {Z (t1 ) 5 z1 ,...,Z (tn ) 5 zn }
(2.1)
então, o processo estocástico Z = {Z (t), t ∈ T } estará especificado se as distribuições finito-dimensionais de (2.1), são conhecidas para todo n = 1. Contudo, em termos práticos, não conhecemos todas essas distribuições finitodimensionais. Estudaremos então certas características associadas a (2.1) e que sejam simples de calcular e interpretar. Uma maneira de especificar o processo Z seria determinar todos os produtos dos momentos, ou seja,
©Z Z
µ(r1 ,...,rn ; t1 ,...,tn ) = E Z r1 (t1 )...Z rn (tn) ∞
µ(r, t) =
∞
(2.2)
Z 1r1 ...Z nr1 f (z1 ,...,zn ; t1 ,...,tn )dz1 ...dzn
...
−∞
ª
−∞
onde f (Z, t) é a função de densidade e probabilidade de F (Z, t). Porém o que vai nos interessar são os momentos de baixa ordem, ou seja, os chamados processos estacionários de 2a ordem. Consideramos somente os momentos de primeira e segunda ordem, que serão apresentados a seguir.
2.3
Médias e Covariâncias
Para um processo estocástico {Z t : t = 0, ±1, ±2,...} a função média ( f.m .) é definida por µ = E (Z t ) , para t = 0, ±1, ±2,... (2.3) e a função de autocovariância ( facv ) como 8
[email protected]
CAPÍTULO 2. CONCEITOS BÁSICOS
− µt) (Z s − µs)] para t, s = 0, ±1, ±2,... onde E [(Z t − µt ) (Z s − µs )] = E (Z t Z s ) − µt µs . γ t,s = C ov(Z t , Z s ) = E [(Z t
(2.4)
A função de autocorrelação ( fac ) é dada por ρt,s = Corr(Z t , Z s ) =
γ
√ γ t,s.γ t,t
(2.5)
s,s
onde γ t,s = C ov(Z t , Z s ), γ t,t = V ar(Z t ) e γ s,s = var(Z s ).
2.3.1
Propriedades da Esperança
E1. Se h (x) é uma função tal que
R
∞
−∞
E [h (x)] =
|h (x)| f (x) dx <
Z
∞ então
∞
h (x) f (x) dx
−∞
R R Z Z
E2. Se X e Y tem fdp conjunta f (x, y) e ∞
E [h(X, Y )] =
∞
−∞
∞
−∞
|h (x, y)| f (x, y) dx <
∞, então
∞
h(x, y)f (x, y)dxdy
−∞
−∞
E3. Como um corolário para E2 nós temos o importante resultado E (aX + bY + c) = aE (X ) + bE (Y ) + c E4. Temos também que
Z Z ∞
E (XY ) =
∞
−∞
xyf (x, y)dxdy.
−∞
Temos ainda que, a variância da variável aleatória X é definida como σ 2X = V ar (X ) = E [X − E (X )]2 .
2.3.2
Propriedades da Variância
V1. V ar(X ) = 0. V2. V ar(a + bX ) = b2 V ar(X ). V3. Se X e Y são independentes, então V ar (X + Y ) = V ar(X ) + V ar(Y ). V4. V ar(X ) = E (X 2 ) − [E (X )]2 e V ar (X ) = σ 2X = σ X (desvio-padrão de X ).
p
2.3.3
p
Propriedades da Covariância
CV1. Se X e Y são independentes, então Cov(X, Y ) = 0. CV2. Cov (a + bX,c + dY ) = bd.Cov(X, Y ). CV3. Cov(X, Y ) = E (X, Y ) − E (X )E (Y ). CV4. V ar (X + Y ) = V ar(X ) + V ar(Y ) + 2Cov(X, Y ). CV5. Cov(X + Y, Z ) = C ov(X, Z ) + Cov(Y, Z ). CV6. Cov(X, X ) = V ar(X ). CV7. Cov(X, Y ) = C ov(Y, X ).
9
[email protected]
2.3.4
CAPÍTULO 2. CONCEITOS BÁSICOS
Propriedades da Correlação
CR1. −1 5 Corr 5 1. CR2. Corr (a + bX,c + dY ) = sin al (bd) Corr(X, Y ) onde
⎧⎨ 1 se bd > 0 0 (bd) = ⎩ −01 se se bd = bd < 0
sin al
³
´
CR3. Corr(X, Y ) = C ov XσXµX , Y σY µY . CR4. Corr(X, Y ) = ±1 se e somente se existem constantes a e b tal que P (Y = a + bX ) = 1.
2.3.5
−
−
Outras Propriedades Importantes
i) γ t,t = V ar(Z t ), ρ t,t = 1 ii) γ t,s = γ s,t , ρ t,s = ρ s,t √ iii) γ t,s 5 γ t,tγ s,s , ρt,s 5 1, ou −1 5 ρt,s 5 1.
¯ ¯
¯¯
0
Na correlação podemos verificar que valores próximos de ±1 indicam forte dependência (linear) e valores próximos de 0 indicam fraca dependência (linear). Se ρt,s = 0, Z t e Z s são não-correlacionadas. Agora se Z t e Z s são independentes, então ρt,s = 0. Para analisar as propriedades da covariância de vários modelos de séries temporais, o seguinte resultado será utilizado: se c1 , c2,...,cm e d1 , d2 ,...,dn são constantes e t 1 , t2 ,...,tm e s 1 , s2 ,...,sn são pontos no tempo, então
⎡X X ⎤ X X Cov ⎣ c Z (t ), d Z (s )⎦ = c d Cov [Z (t ), Z (s )] m
n
i
i
m
j
i=1
n
j
i j
j=1
i
j
(2.6)
i=1 j=1
podemos dizer que, a covariância entre duas combinações lineares é a soma de todas as covariâncias entre termos de suas combinações lineares. Esta expressão pode ser verificada utilizando as propriedades de esperança e covariância. Como caso especial, podemos obter o seguinte resultado
"X # X n
V ar
n
ci Z (ti ) =
i=1
2.4 2.4.1
n i−1
c2i V ar [Z (ti )] + 2
i=1
XX
ci cj Cov [Z (ti ), Z (tj )] (2.7)
i=2 j=1
Exemplos Exemplo 1: O passeio aleatório
Seja a1, a2 ,... variáveis aleatórias independentes, identicamentes distribuídas, cada uma com média 0 e variância σ2a . A série temporal, Z t , é construída da seguinte maneira: Z 1 Z 2
= a1 = a1 + a2
Z t
= a1 + a2 + ... + at
.. .
ou 10
(2.8)
[email protected]
CAPÍTULO 2. CONCEITOS BÁSICOS
Z t = Z t
1 +
−
at
(2.9)
Obtendo a função média de (2.8) temos: µt
= E (Z t ) = E (a1 + a2 + ... + at ) = E (a1 ) + E (a2 ) + ... + E (at ) = 0 + 0 + ... + 0 = 0
como E (at ) = 0, nós temos: µt = 0 p/ todo t
e também V ar (Z t ) = V ar (a1 + a2 + ... + at ) = V ar (a1 ) + V ar (a2 ) + ... + V ar (at ) = σ 2a + σ 2a + ... + σ 2a = t σ 2a
ou V ar (Z t ) = t σ 2a
Observe que a variância do processo cresce linearmente com o tempo. Suponha agora que 1 5 t 5 s, teremos então γ t,s
= = = =
Cov(Z t , Z s ) Cov (a1 + a2 + ... + at , a1 + a2 + ... + as ) Cov (a1 , a1 ) + Cov (a2 , a2 ) + ... + Cov (at , at ) σ 2a + σ 2a + ... + σ 2a = t σ 2a
onde Cov (at , as ) = 0 para t 6 = s
temos então que a facv é dada por γ t,s = t σ 2a , para 1 5 t 5 s
e a fac é dada por ρt,s =
q
t s
, para 1 5 t 5 s
O passeio aleatório é um exemplo simples que representa diversos fenômenos como o movimento comum de preços e títulos e também a posição de pequenas partículas suspensas dentro de um fluído, chamado movimento Browniano.
11
[email protected]
2.4.2
CAPÍTULO 2. CONCEITOS BÁSICOS
Exemplo 2: (Média-Móvel de ordem 1)
Suponha Z t = a t − 0.5at
1
−
onde a t são v.a.i.i.d. com média zero e variância σ2a . µt
= E (Z t ) = E (at ) − 0.5E (at
1)
−
=0
e V ar(Z t ) = V ar (at − 0.5at
1)
−
= σ 2a + 0.52 σ2a = 1.25σ 2a .
Também Cov (Z t , Z t
1)
−
= Cov (at − 0.5at 1 , at = −0.5Cov (at 1 , at 1 ) −
−
1
−
− 0.5at
2)
−
−
ou 1 =
γ t,t
−
−0.5σ2a
Além disso Cov (Z t , Z t
k) =
−
0 para k = 2
então podemos concluir que γ t,s =
Para ρt,s temos
½− ½−
ρt,s =
2.5
0.5σ 2a se |t − s| = 1 0 se |t − s| > 1 0.4 se |t − s| = 1 0 se |t − s| > 1
Estacionariedade para um Processo Estocástico
A estacionariedade é a suposição mais importante para um processo estocástico, com relação ao estudo que faremos. A idéia básica de estacionariedade é que as leis de probabilidade que atuam no processo não mudam com o tempo, isto é, o processo mantém o equilíbrio estatístico. Especificamente um processo estocástico Z (t) é considerado estritamente estacionário se a distribuição conjunta de Z (t1 ), Z (t2 ) ,...,Z (tn ) é a mesma distribuição conjunta de Z (t1 − k), Z (t2 − k) ,...,Z (tn − k) , para todos os tempos t 1, t2 ,...,tn e para todos os “lags”(posições) k (constante). Quando n = 1, a distribuição de Z t é igual a distribuição de Z t k para qualquer k , ou seja, se os Z 0 s são identicamente distribuídos, E (Z t ) = E (Z t k ), para todo t e k, e as funções média, µ t , e variância V ar (Z t ) = V ar (Z t k ) são constantes para todo tempo t. −
−
−
12
[email protected]
CAPÍTULO 2. CONCEITOS BÁSICOS
Quando n = 2, a distribuição de (Z t , Z s ) é a mesma de (Z t k , Z s k ) , do qual temos C ov (Z t , Z s ) = C ov (Z t k , Z s k ) para todo t, s e k. Fazendo k = s temos: −
−
γ t,s
−
−
= Cov (Z t , Z s ) = C ov (Z t k , Z s k ) = Cov(Z t s , Z s s ) = C ov(Z t s , Z 0 ) = γ t s,0 −
−
−
−
−
−
e agora k = t γ t,s
= Cov (Z t t , Z s t ) = C ov (Z 0 , Z s t ) = Cov (Z 0 , Z t s ) = γ 0,s t −
−
−
−
−
daí podemos concluir que γ t,s = γ 0,|t
s| ,
−
½−
t s p/ t > s s − t p/ s > t
onde |t − s| =
A covariância entre Z t e Z s depende somente da diferença temporal |t − s| e não dos tempos t e s. Alem disso, para um processo estacionário simplificando a notação temos γ k ρk
= Cov (Z t , Z t
k)
−
e
(2.10)
γ = Corr (Z t , Z t k ) = k γ 0 −
As propriedades gerais para um processo estacinário são: i) γ 0 = V ar (Z t ) , ρ0 = 1 ii) γ k = γ k , ρk = ρ k iii) |γ k | 5 γ 0 , |ρk | 5 1. −
(2.11)
−
Se um processo é estritamente estacionário e tem variância finita, então a facv depende somente de um certo lag k. Uma definição que é semelhante a estritamente estacionária mas é matematicamente mais fraca, é a seguinte: um processo estocático Z t é dito ser fracamente (ou de segunda-ordem) estacionário se: i) a função média é constante p/ todo tempo t, ii) γ t,t k = γ 0,k p/ todo tempo t e de “lag” k. −
2.5.1
Ruído Branco
Um importante exemplo de processo estacionário é o ruído branco, o qual é de finido como uma seqüência de variáveis aleatórias independente, identicamente distribuídas {at }. Muitos processos podem ser construídos a partir do ruído branco. Pode-se verificar facilmente que a seqüência {at } é estritamente estacionária P [a (t1 ) 5 x1 , a (t2 ) 5 x2 ,...,a (tn ) 5 xn ] = P [a (t1 ) 5 x1 ] P [a (t2 ) 5 x2 ] ...P [a (tn ) 5 xn ]
13
[email protected]
CAPÍTULO 2. CONCEITOS BÁSICOS
são variáveis aleatórias independentes = P [a (t1 − k) 5 x1 ] P [a (t2 − k) 5 x2 ] ...P [a (tn − k) 5 xn ]
identicamente distribuídas
= P [a (t1 − k) 5 x1 , a (t2 − k) 5 x2 ,...,a (tn − k) 5 xn ].
Temos também que µ t = E (at ) é constante com facv dada por γ t,s =
e fac dada por
½ ½
V ar(at ) se t = s 0 se t 6 = s
ρk =
1 para k = 0 0 para k 6 =0
O termo ruído branco resulta do fato que em uma análise de freqüência do modelo, podemos mostrar que todas as freqüências são iguais. Geralmente assumimos que o ruído branco tem média zero e variância σ2a .
2.6
A Função de Autocorrelação Amostral
Considere uma sequência de valores Z 1, Z 2 ,...,Z t . Assumindo que esta série seja estacionária, vamos estimar a função de autocorrelação ρk (fac) para k = 1, 2,...,N − 1. O caminho mais indicado é calcular as correlações amostrais entre os pares (Z 1 , Z k+1) , (Z 2 , Z k+2) , ..., (Z t k , Z t ). A fac amostral r k é definida como: −
rk =
onde 1 ck = N
N −k
então
X ¡ − ¢¡ − ¢ P ¡ − ¢¡ − ¢ P¡ − ¢ Z t
ρk = r k =
Z Z t+k
Z , k = 0, 1,...,N − 1.
t=1
N −k
b
ck , k = 0, 1, 2,...,N − 1 c0
t=1
Z t
Z Z t+k
n
2
t=1
Z t
Z
sendo Z a média amostral, temos ainda que c é chamado de correlograma .
2.7
Z
k
−
, k = 0, 1,...,N − 1.
= ck e r
k
−
= r k .O gráfico de r k × k
Exercícios
1) Suponha E (X ) = 2, V ar (X ) = 9, E (Y ) = 0, V ar (Y ) = 4, e Corr(X, Y ) = 1/4.
Encontre: a) V ar(X + Y ) b) C ov(X, X + Y ) c) Corr(X + Y, X − Y ) 2) Se X e Y são dependentes mas V ar (X ) = V ar (Y ) , encontre Cov (X + Y, X − Y ) . 3) Seja X uma variável aleatória com média µ e variância σ 2 , e seja Z t = X para todo t. a) Mostrar que Z t é estritamente e fracamente estacionária. 14
[email protected]
CAPÍTULO 2. CONCEITOS BÁSICOS
b) Encontre a função de autocovariância de Z t . c) Fazer o gráfico de Z t em função de t. 4) Mostre que a função de autocorrelação do exemplo 1 é: ρt,s =
r
t , para 1 5 t 5 s s
5) Seja {at } um ruído branco com média zero. Encontre a função de autocor-
relação para os seguintes processos: a) Z t = a t + 1/3at 1 . b) Z t = a t + 2at 1 + 0.5. 6) Suponha Z t = 5 + 2t + X t , onde X t é uma série estacionária com média zero e facv γ k . Encontre: a) A função média para Z t . b) A facv para Z t . c) Z t é uma série estacionária? 7) Suponha Z t uma série estacionária com função de autocovariância γ k . a) Mostrar que W t = ∆Z t = Z t − Z t 1 é estacionária e encontre a média e a facv para W t . b) Mostrar que U t = ∆W t = ∆2 Z t é estacionária (não precisa encontrar necessariamente a facv). 8) Seja X t uma série estacionária com µX = 0, σ 2 = 1 e ρ k = ρ (média, variância e fac, respectivamente). Suponha que µ t e σt > 0, funções não-constantes. A série observada é formada como: −
−
−
Z t = µ t + σ t X t
Para a série Z t determine: a) A média, a variância e a facv. b) Mostrar que a fac de Z t depende somente de um “lag” k . Z t é estacionária? 9) Suponha C ov (X t , X t k ) = γ k que não depende de t , mas E (X t ) = 3t. a) X t é estacionária? b) Seja Z t = 7 − 3t + X t . Z t é estacionária? 10) Suponha Z t = A + X t , onde X t é estacionária e A é uma variável aleatória, com média µ A e variância σ2A , mas independente de X t . Encontre: a) A média de Z t , em termos das médias de A e X t . b) A fac de Z t , em termos da variância de A e facv de X t . 11) Suponha Z t = β 0 + β 1 t + X t onde X t é estacionária. a) Mostrar que Z t não é estacionária, mas ∆Z t é estacionária. b) Generalizando, mostrar que se Z t = µt + X t é não-estacionária, onde µ t é um polinômio em t de grau d, então ∆mZ t é estacionária para m = d e não estacionária para 0 5 m < d. n 12) Seja Z t uma série estacionária com facv γ k . Seja Z = n1 Z t t=1 Mostrar que −
P
¡¢
V ar Z
=
=
1 n
X µ− ¶ Xµ − ¶
n−1
|k| n
1
k=−n+1
2 + n n
γ 0
n−1
1
k=1
k n
γ k
γ k
13) Calcular a média e a facv para cada um dos seguintes processos. Dentro de
cada caso determine se o processo é estacionário. a) Z t = θ 0 + tat . b) W t = ∆Z t , onde Z t é definido como em a) c) Z t = a t .at 1 . −
15
[email protected]
CAPÍTULO 2. CONCEITOS BÁSICOS
14) Considere a série temporal abaixo:
ANO Produto Interno Bruto 1964 27.614 1965 44.073 1966 63.746 1967 86.171 1968 122.430 1969 161.900 1970 208.300 1971 276.807 1972 363.167 1973 498.307 1974 719.519 Dados em milhões de Cruzeiros. FONTE: Boletim do Banco do Brasil, dezembro de 1976 a) Faça o gráfico da série; ela é estacionária? b) Obtenha a primeira diferença da série e faça o grá fico correspondente; a diferença é estacionária? c) Mesmas questões de b) para a segunda diferença. 15) Considere a série abaixo: Exportação de suco concentrado de laranja ANO 1970 1971 1972 1973 1974 1975 Valor 15 35 41 64 60 82 ANO 1976 1977 1978 1979 1980 Valor 101 177 333 432 460 Dados em US$ 1.000.000 FONTE: Revista Veja, no 468, Fev. de 1981. a) A série é estacionária? Tem tendência? b) Considere a diferença ∆Z t ; é estacionária? c) Tome agora log Z t ; a série é estacionária? d) Investigue se a série ∆ log Z t é estacionária ou não.
16
Capítulo 3
Modelos de Decomposição Nas séries temporais, em geral, a função média é totalmente aleatória em função do tempo, e nós vimos que numa série estacionária a função média é constante para todo o tempo. Frequentemente nós precisamos modelar séries que exibem comportamentos com alguma tendência. Neste capítulo apresentaremos alguns métodos de modelagem para tendências determinísticas e estocásticas.
3.1
Modelo com Média constante
Considere o modelo
Z t = µ + X t
(3.1)
onde E (X t ) = 0 para todo t . Desejamos estimar µ utilizando a série Z 1 , Z 2,...,Z n . A estimativa mais comum de µ é a média amostral: 1 µ = Z = n
b
n
X
Z t
t=1
(3.2)
¡¢
O µ é um estimador não-viciado de µ, ou seja, E Z = µ. Para analisar a precisão de Z como estimativa de µ, devemos fazer algumas suposições sobre X t . Vamos supor {X t } uma série estacionária com fac ρ k . Então a mesma fac aplica-se a {Z t }, ou seja, se {Z t } é estacionária então:
b
¡¢ ¡¢
V ar Z
V ar Z
=
=
γ 0
n γ 0
n
X µ− ¶ " Xµ − ¶ # n−1
|k| n
1
k=−n+1
n−1
1+2
1
k=1
ρk
k n
(3.3)
ρk .
¡¢
Se a série {X t } é um ruído branco, então ρk = 0 para k = 1 e V ar Z = γ n = σ n . Para muitos processos estacionários, a fac decai rapidamente quando o k cresce, além disso 2
X
0
∞
ρk <
k=0
Com exceção da variável
17
∞.
(3.4)
[email protected]
CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
∙
Z t = cos 2π
µ ¶¸ t + Φ 12
, t = 0, ±1, ±2,...
onde Φ˜U [0, 1] . Sobre a suposição (3.4) acima e dado que o tamanho da amostra n é grande, temos a seguinte aproximação para (3.3)
¡¢ X
V ar Z
≈
∞
γ 0
n
ρk , para n
grande.
(3.5)
k=−∞
Note que a variância é inversamente proporcional ao tamanho da amostra n.
3.2
Método de Regressão
O método clássico de análise de regressão pode ser utilizado para estimar os parâmetros do modelo assim como suas tendências. Nós vamos considerar precisamente as tendências: linear, quadrática, sazonais e cosseno.
3.2.1
Tendência Linear
Considere o modelo com tendência determinística linear
Z t = β 0 + β 1 t + X t
(3.6)
onde β 0 e β 1 são o intercepto e a inclinação, respectivamente, e os parâmetros desconhecidos. O método clássico de minímos quadrados (ou regressão) é utilizado para estimar os parâmentros β 0 e β 1, que minimizam n
Q (β 0 , β 1 ) =
X t=1
(Z t − β 0 − β 1 t)2 .
(3.7)
A solução pode ser obtida calculando as derivadas parciais com relação a β 0 e β 1 igualando-as a zero, encontrando as equações normais n
n
X X X X X N β 0 + β 1
t=1 n
n
β 0
t =
t=1
(3.8)
t=1 n
t2
t + β 1
Z t
=
t=1
tZ t .
t=1
Daí encontraremos os seguintes estimadores de minímos quadrados:
b X− b¡ − ¢¡ − ¢ b P¡ − ¢ β 0
= Z
n
β 1
=
β 1 t
Z t
Z t
n
t=1
t
t
(3.9)
t
2
t=1
onde t = (n + 1) /2, t = 1, 2,...,n. Uma forma matricial de representar o problema seria: Z
= Yβ + X
onde 18
(3.10)
[email protected]
CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
⎡ Z ⎤ ⎢⎣ ... ⎥⎦ , 1
Z
=
Y
Z t
⎡1 ⎢⎢ 1 =⎢ . ⎣ ..
⎤ ⎥⎥⎥ , = ∙ .. ⎦ . 1 2
1
com t = 1, 2,...,n.
β
β 0 β 1
t
¸
⎡ X ⎤ ⎢ ⎥ = ⎣ ... ⎦
(3.11)
(3.12)
1
eX
X t
teremos então o seguinte estimador de minímos quadrados
b ¡ ¢ β =
3.2.2
T Y Y
1
−
T Y Z.
Tendência Ciclíca ou Sazonal
Vamos considerar o seguinte modelo para a tendência sazonal Z t = µt + X t
(3.13)
onde µt = µt+12, e E (X t ) = 0 para todo t. A suposição mais geral para µt é que temos 12 constantes (parâmetros) β 1 , β 2 ,..., β 12 , que poderemos escrever como:
⎧⎪ ⎪⎨ µ = ⎪⎪⎩
β 1 , para t = 1, 13, 25,... β 2 , para t = 2, 14, 26,...
.. .
t
(3.14)
β 12 , para t = 12, 24, 36,...
Sendo este o modelo de médias sazonais.
3.2.3
Tendência Cosseno
O modelo de médias sazonais contém 12 parâmetros independentes, mas algumas vezes não é adequado para estimar tendências sazonais quando, por exemplo, alguns meses do ano são semelhantes. Em alguns casos a tendência sazonal pode ser modelada economicamente com curvas cossenos que incorpora uma esperada, e suave, mundança de tempos em tempos entretanto preservando a sazonalidade. Considere a curva cosseno µt = β cos(2π f t + Φ)
onde β é a amplitude, f a freqüência, e Φ a fase da curva. Como t varia, a curva oscila entre um máximo de β e um minímo de − β . Desde que a curva se repete, extamente a cada 1/f unidade de tempos, 1/f é o período. Para dados mensais, a 1 mais importante freqüência é f = 12 , na qual a curva cosseno se repetirá a cada 12 meses.
3.3
Sazonalidade
Nesta seção será ajustada uma série para a componente sazonal, ou seja, estima-se a série e subtrai-se de Z t no modelo. A seguir tem-se um modelo com tendência e sazonalidade Z t = T t + S t + at , t = 1,...,N. (3.15) Um procedimeto de ajuste sazonal consiste: a) Obter estimativas S t de S t .
b
19
[email protected]
CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
Tabela 3.1: Observações mensais de uma série temporal com p annos Anos Jan Fev Mar · · · Dez Médias · · · 12 1 2 3 Z 11 Z 12 Z 13 · · · Z 112 Z 1. 1 2 Z 21 Z 22 Z 23 · · · Z 212 Z 2. .. .. .. .. .. . . .. . . . . . . . p
Médias
Z p1 Z .1
Z p2 Z .2
Z p3 Z .3
··· ···
Z p12 Z .12
Z p. Z
b) Calcular
b
Z tSA = Z t − St
Se o modelo for multiplicativo, da forma
(3.16)
Z t = T t S t at
(3.17)
b
(3.18)
a série sazonalmente ajustada será Z tSA = Z t /St
O modelo (3) geralmente é adequado para séries econômicas, que apresentam um crescimento exponencial. Estimando S t comete-se um erro de ajustamento sazonal, dado por: ξ t = S t
b
− St
¡¢
o procedimento de ajustamento sazonal é ótimo se minimizar E ξ 2t . Sem perda de generalidade considere o caso que tem-se dados mensais e o número total de observações, N, é múltiplo de 12, isto é, N = 12 p, p = número de anos, de modo que os dados podem ser representados como na tabela 3. Considere o modelo abaixo Z ij = T ij + S j + aij , i = 1,...,p; j = 1,..., 12.
neste modelo a sazonalidade é considerada constante. Para sazonalidade nãoconstante, ou seja, o padrão sazonal muda de ano para ano, deve-se considerar o modelo Z ij = T ij + S ij + aij , i = 1,...,p; j = 1, ..., 12.
A notação da tabela 3. é padrão com: 12
X X XX
1 Z i. = 12 1 Z .j = p 1 Z = 12 p
Z ij , i = 1,...,p.
j=1
p
Z ij , j = 1, ..., 12.
j=1 p
12
N
X
1 Z ij = Z t N t=1 j=1 j=1
20
[email protected]
3.3.1
CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
Sazonalidade determinística - método de regressão
Os métodos de regressão são ótimos para séries que apresentam sazonalidade determinística, ou seja, esta pode ser prevista perfeitamente a partir de meses anteriores. Então, no modelo 3. tem-se que m
X X
T t =
β j tj ;
j=0
S t =
αj djt
onde djt são variáveis periódicas e at é ruído branco, com média zero e variância σ 2a .
Supondo a sazonalidade constante, αj não depende de T. Pode-se ter, por exemplo, djt =
½
1, se o período t corresponde ao mês j, j = 1,..., 12. 0, caso contrário.
Neste caso, d1t + d2t + ... + d12,t = 1, t = 1,...,N.
de modo que a matriz de regressão não é de posto completo, mas de posto m + 12 (temos m + 13 parâmetros). Impondo-se a restrição adicional: 12
X
αj = 0
j=1
obtém-se um modelo de posto completo: m
Z t =
11
X X j
β j t +
j=0
αj Djt + at
j=1
onde agora Djt
⎧⎨ 1, se o período t corresponde ao mês j, = t corresponde ao mês 12 ⎩ −1, se o período 0, caso contrário.
Utilizando o método de mínimos quadrados pode-se obter os estimadores de α j e seja, a partir de uma amostra Z 1 ,...,Z N obtém-se o modelo matricial: β j , ou
Z
onde
⎡ Z ⎤ ⎢ ⎥ = ⎣ ... ⎦ , Z ⎡D D ⎢⎢ D D =⎢ . ⎣ .. ... 1
Z
N
D
11
12
21
22
DN 1
DN 2
C
⎡1 ⎢ ⎢ 1. =⎢ . ⎣.
1 2
··· ···
.. .
..
.
1 2m
.. .
1 N · · · N m
··· ···
..
.
= Cβ + Dα + a
D1,11 D2,11
.. .
· · · DN,11
⎤ ⎥⎥⎥ , ⎦
21
α
⎡ ⎢⎢ = ⎢ ⎣
⎤ ⎥⎥⎥ , ⎦ α1 α2
.. .
α11
(3.19)
⎡ ⎤ ⎢ ⎥ ⎢ ⎥ = ⎢ . ⎥ ⎣ .. ⎦ ⎤ ⎡a ⎥⎥⎥ , = ⎢⎢⎢ a ⎦ ⎣ ... β 0 β 1
β
β m
1
a
2
aN
⎤ ⎥⎥⎥ ⎦
[email protected]
CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
A equação (3.) pode ser escrita na forma: Z
= Xγ + a
onde X
de modo que:
= [C : D] e γ =
b h i γ =
0
1
∙
−
X X
β α
¸
0
X Z
são os estimadores de mínimos quadrados.
3.4
Análise Residual
Podemos notar que, o componente estocástico não observado {X t } pode ser estimado, ou predito, por
b − b b Xt = Z t
µt
Predito é um termo realmente melhor. Nós utilizamos o termo estimativa para um parâmetro desconhecido, e o termo predito para uma estimativa de uma variável aleatória não observada. Nós chamamos X t o t − ´esima estimativa residual. Se a tendência do modelo é rasoavelmente correta, então os resíduos comportam-se mais ou menos igual ao verdadeiro componente estocástico, e várias suposições sobre o componente estocástico podem ser con firmadas observando os resíduos. Se o componente estocástico é ruído branco, então os resíduos comportam-se semelhante a variáveis aleatórias independentes (normal) com média zero e desvio padrão S. Desde que o ajuste de mínimos quadrados de alguma tendência contenha um termo constante, automaticamente podemos produzir resíduos com média zero, se considerarmos os resíduos padronizado Xt /S, e será possível checar a independência e a normalidade.
b
3.5
Exercícios
1) Verifique as equações (3.9) para as estimativas de minímos quadrados quando Z t = β 0 + β 1 t + X t .
2) Suponha Z t = µ + at − at 1 . Encontre a V ar(Z ) onde −
1 Z = n
n
X
Z t
t=1
3) Suponha Z t = µ + φZ t 1 + at . Verifique que −
V ar(Z ) ≈
µ ¶³ ´ − 1+φ 1 φ
22
γ 0
n
Capítulo 4
Modelos de Suavização Exponencial A análise de regressão teve durante muito tempo razoável aceitação como método de ajustar modelos auto-regressivos, com o objetivo de calcular previsões de série temporais. Entretanto, quando o número de observações é muito pequeno, tal análise não é apropriada, pois a hipótese básica de independência dos resíduos é quase sempre violada, produzindo estimadores inconsistentes, nos impossibilitando de testar hipóteses e estabelecer intervalos de confiança para os parâmetros (Morettin e Toloi, 1985).
4.1
Modelos para séries localmente constantes
Considere o caso da série temporal Z 1 ,...,Z N , localmente composta de seu nível mais um ruído aleatório, Z t = µt + at , t = 1,...,N.
onde E (at ) = 0, V ar(at ) = σ 2a e µt é um parâmetro desconhecido, que pode vriar lentamente com o tempo.
4.1.1
Médias Móveis Simples (MMS)
Procedimento - A técnica de média móvel consiste em calcular a média aritmética das r observações mais recentes, isto é, M t =
ou
Z t + Z t
1 +
−
... + Z t r
r+1
−
Z t − Z t r r Sendo assim, M t é uma estimativa do nível µt que não leva em conta as obserM t = M t
1 +
−
−
vações mais antigas, o que é razoável devido ao fato do parâmetro variar suavemente com o tempo. Determinação de r - Um valor grande de r faz com que a previsão acompanhe lentamente as mudanças do parâmetro µ; um valor pequeno implica numa reação mais rápida. Casos Extremos - i) Se r = 1, então o valor mais recente da série é utilizado como previsão de todos valores futuros; ii) Se r = N , então a previsão será igual a 23
[email protected] CAPÍTULO 4. MODELOS DE SUAVIZAÇÃO EXPONENCIAL média aritmética de todos os dados observados. Este caso só é indicado quando a série é altamente aleatória. Assim, o valor de r deve ser proporcional á aleatoriedade de at . Deveria-se escolher o valor de r de tal maneira que a previsão tivesse o menor EQMMP (erro quadrático médio mínimo de previsão). Vantagens - i) Simples aplicação; ii) Para número pequeno de observações; iii) Permite uma flexibilidade grande devido à variação de r de acordo com o padrão da série. Desvantagens - i) Somente para prever séries estacionárias, pois os pesos atribuídos às r observações são todos iguais; ii) Necessidade de armazenar pelo menos (r − 1) observações; e iii) di ficuldade em determinar o valor de r. Na prática, o método MMS não é utilizado frequentemente, pois o método AES possui as vantagens anteriores e mais algumas.
4.1.2
Suavização Exponencial Simples (SES)
Procedimento
A SES pode ser descrita matematicamente por: Z t
= αZ t + (1 − α) Z t
1,
−
Z 0 = Z 1 , t = 1,...,N.
(4.1)
t−1
Z t
= α
X
k=0
(1 − α)k Z t
k + (1
−
− α)t Z 0, t = 1,...,N.
(4.2)
onde Z t é denominado valor exponencialmente suavizado e α é a cte de suavização, 0 6 α 6 1. A equação (3.) pode ser obtida de M t = M t
1 +
−
substituindo Z t r por Z t 1 e −
−
1 r
Z t − Z t r
r
−
por α. Fazendo a expansão de (3.) temos que
Z t = α Z t + α (1 − α) Z t
1 +
−
α (1
− α)2 Z t
2 +
−
...
significa que o SES é uma média ponderada que dá pesos maiores às observações mais recentes, eliminando uma das desvantagens do método de MMS. Determinação da cte α
Quanto menor for o valor α mais estáveis serão as previsões finais, uma vez que a utilização de baixo valor de α implica que pesos maiores são dados às observações passadas e, consequentemente, qualquer flutuação aletória, no presente, exercerá um peso menor no cálculo da previsão. Quanto mais aleatória a série estudada, menores serão os valores da cte de suavização. O efeito de α grande ou pequeno é completamente análago (em direção oposta) ao efeito do parâmetro r no método MMS. Vantagens - i) fácil entendimento; ii) aplicação não dispendiosa; iii) grande flexibilidade permitida pela variação da cte de suavização α; iv) necessidade de armazenar Z t , Z t e α; v) o valor de α = r 2 1 fornece previsões semelhantes ao método MMS com parâmetro r. A principal desvantagem é a di ficuldade em determinar o valor mais apropriado da cte de suavização, que pode ser superada através da utilização da suavização exponencial adaptativo de Trigg e Leach (Moretti e Toloi, 1985). −
24
[email protected] CAPÍTULO 4. MODELOS DE SUAVIZAÇÃO EXPONENCIAL
4.2
Modelos para séries que apresentam Tendência
As técnicas apresentadas anteriormente não são adequadas para analisar séries temporais que apresentem tendência. Considere então a série temporal não sazonal Z t = µt + T t + at , t = 1,...,N
onde µ t é o nível, T t é a tendêncai e a t é o ruído branco com média zero e variância constante.
4.2.1
Suavização Exponencial Biparamétrica de Holt (SEH)
Procedimento
O método SES quando aplicado a uma série que apresenta tendência linear positiva (ou negativa), fornece previsões que subestimam continuamente os valores reais. Para evitar esse erro sistemático, um dos métodos aplicáveis é o SEH. Esse método é similar, em princípio, ao SES, a diferença é que ao invés de suavizar só o nível, ele utiliza uma nova constante de alisamento para ”modelar” a tendência da série. Os valores do nível e da tendência da série, no instante t, serão estimados por Z t
b
Tt
³ b´ ¢ − b
= AZ t + (1 − A) Z t
1 +
−
¡
= C Z t − Z t
1
−
+ (1
Tt
1
−
C ) Tt
, 0 < A < 1 e t = 2,...,N (4.3)
1,
−
0 < C < 1 e t = 2,...,N (4.4)
as constantes A e C são denominadas ctes de suavização. Determinação das Constantes
O procedimento é análogo ao de determinação da constante de suavização de um SES, só que ao invés de escolher o valor de α que torna a soma de EQMP mínimo, escolhe-se o valor do vetor (A,C) tal que isto ocorra (Morettin e Toloi, 1985). Vantagens e Desvantagens - As vantagens são semelhantes às do método anterior. A desvantagem principal é dificuldade em determinar os valores mais apropriados das ctes de suavização, A e C.
4.3
Modelos para séries sazonais
Para séries sazonais que apresentam um padrão de comportamento mais complexo, existem outras formas de suavização tais como os métodos de Holt-Winters e o método de suavização exponencial geral.
4.3.1
Suavização Exponencial Sazonal de Holt-Winters (HW)
Procedimeto
Existem dois tipos de procedimento cuja utilização depende das características da série considerada. Tais procedimentos são baseados em três equações com constantes de suavização diferentes, que são associadas a cada uma das componentes do padrão da série: nível, tendência e sazonalidade. Considere então a série sazonal com tendência aditiva Z t = µt + T t + S t + at , t = 1,...,N
onde µt é o nível, T t é a tendênca, S t a sazonalidade e at é o ruído branco com média zero e variância constante. As estimativas do fator sazonal, nível e tendência
25
[email protected] CAPÍTULO 4. MODELOS DE SUAVIZAÇÃO EXPONENCIAL da série são dados por:
b b
¡³ ¢ ´ −b ¡− ¢
b³ ´ b − − b
S t
= D Z t − Z t + (1 − D) S t
Z t
= A Z t
St
Tt
= C Z t
Z t
s
+ (1
1
+ (1
−
−
0 < D < 1
s,
−
A) Z t
1 +
−
C ) Tt
1,
−
St
1
−
, 0 < A < 1
0 < C < 1.
respectivamente A, C e D são as constantes de suavização. Existem também a série sazonal multiplicativa. Vantagens e Desvantagens - As vantagens são semelhantes às da utilização do método de Holt, sendo que os métodos de HW são adequados à análise de série com padrão de comportamento mais geral. As desvantagens são as di ficuldades em determinar os valores mais apropriados das constantes de suavização e a impossibilidade e/ou dificuldade de estudar as propriedades estatísticas, tais como média e variância de previsão e, consequentemente, construção de um intervalo de con fiança. Um procedimento alternativo que não possui tais desvantagens é a Suavização Exponencial Geral de Brown. As contantes de suavização (A,C,D) devem ser determinadas de tal forma que a soma de quadrado dos erros de suavização seja mínima. Para maiores detalhes, principalmente sobre previsão, consultar Morettin e Toloi (2004) e outros autores lá citados.
26
Capítulo 5
Modelos de Box-Jenkins para Séries Estacionárias Apresentaremos neste capítulo os principais modelos de Box-Jenkins para estimação e previsão de séries temporais. Sendo estes modelos pertencentes a família dos autoregressivos-médias-móveis (ARMA), subdividindo em dois outros modelos: o autoregressivo (AR) e médias-móveis (MA).
5.1
Processo Linear Geral
Seja Z t uma série temporal observada, at o ruído branco, ou seja, uma seqüência de variáveis aleatórias independentes identicamente distribuídas, com E (at ) = 0, e variância σ2a para todo t. Podemos representar um modelo linear geral como uma combinação linear ponderada, do termo atual, mais os termos passados do ruído branco: Z t = at + ψ 1 at
1 +
2 +
ψ 2 at
−
−
...
(5.1)
onde
X ∞
ψ 2i <
∞
i=1
e o coeficiente de at é igual a 1 , sem perda de generalidade, ou seja, ψ 0 = 1. Um caso importante é quando os ψ 0 s são uma seqüência que decai exponencialmente, ou seja: ψ j = φ j ,
− 1 < φ < 1.
Então Z t = a t + φat
φ2 at
1 +
−
2 +
−
...
Para este exemplo vamos ter:
¡
E (Z t ) = E at + φat
1 +
−
= E (at ) + φE (at
φ2 at 1) +
−
= 0 (média constante).
e variância 27
2 + 2
−
...
¢
φ E (at
2) +
−
...
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS
¡
V ar (Z t ) =
V ar at + φat
1 +
−
φ2 at
2 + ... 4
−
¢
V ar(at ) + φ2 V ar(at 1 ) + φ V ar(at 2 ) + ... (desde que os a 0t s sejam independentes) = σ 2a 1 + φ2 + φ4 + ... 1 = σ 2a (soma de uma série geométrica) 1 − φ2 =
−
¡
Também Cov (Z t , Z t
1)
−
¡
¢
Cov at + φat
=
Cov(φat
=
σ2a φ + φ + φ + ...
=
σ2a
Além disso
1 +
φ2 at
=
¡
−
−
1 , at−1 ) + 3 5
−
...,at
1 − φ2
¡ ¢
σ 2a 1
φ φ2
1) =
σ 2a 1
1
φat
2 , φat−2
−
−
−
1 +
−
Cov φ at
φ
Corr (Z t , Z t
2 + 2
−
2 +
−
¢
φ2 at
3 +
−
+ ...
¢
...
= φ
φ2
−
De maneira semelhante podemos calcular: Cov
(Z t , Z t−k ) = σ 2a
e Corr (Z t , Z t
1 ) = φ
−
k
φk
1 − φ2
, k = 0, 1, 2,...
É importante observar que o processo de finido desta maneira é estacionário. A estrutura de autocovariância depende somente do ”lag ” na posição k. Para o processo linear geral definido em (4.1) vamos ter: E (Z t ) = 0
X ∞
=
γ k
Cov (Z t , Z t−k ) = σ 2a
ψ i ψ i+k , k = 0
i=0
com ψ0 = 1.
5.2
Modelo Médias-Móveis (MA(q)) Considere a série Z t , fazendo os ψ0 s = −θ0 s no processo linear geral e tomando a série como finita, chamamos de médias-móveis de ordem q o modelo: Z t
= at − θ1 at
1
−
− θ2at 2 − ... − θq at −
q
−
(5.2)
ou abreviadamente MA(q )
Esta terminologia vem do fato que Z t é obtido aplicando os pesos 1, −θ1 , −θ2 , ..., −θq , as variáveis at , at 1 , at 2 ,...,at q e então movendo os mesmos pesos 1 unidade do tempo a frente e aplicando-lhes a a t+1, at, at 1 ,...,at q+1 para obter Z t+1. −
−
−
−
28
−
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS
5.2.1
O modelo MA(1)
Considere o seguinte modelo: Z t = a t − θ1 at
1
−
onde E (Z t ) = 0
e a variância é igual a: = V ar(Z t ) = V ar (at − θ1 at = σ 2a + θ 2 σ 2a = σ 2a 1 + θ 2
γ 0
¡ ¢
temos ainda que a facv é: = Cov (Z t , Z t
γ 1
1)
−
1)
−
= Cov (at − θ 1 at 1 , at 1 − θ 1 at = −θ Cov (at 1 , at 1 ) = −θσ 2a −
−
−
2)
−
−
e para k = 2 teremos γ k = C ov (Z t , Z t
k)
−
=0
E a fac será dada por: ρk
5.2.2
⎧⎪⎨ = ⎪⎩
θσ 2 a (1+ σ2 θ2 ) a −
1, k = 0 = (1+θθ2 ) , k = 1 0, k = 2 −
O Modelo MA(q)
Considere o modelo dado em (4.2) Z t = at − θ 1 at
1
−
− θ2at 2 − ... − θq at −
q
−
onde E (Z t ) = 0
e a variância é γ 0
= V ar (Z t ) = V ar (at − θ1 at = 1 + θ 21 + ... + θ 2q σ 2a
a facv é dada por γ 1
¡
= Cov (Z t , Z t
1
−
¢
− θ2at 2 − ... − θq at −
q)
−
1)
−
= Cov (at − θ1 at 1 − ... − θ q at q , at 1 − θ 1 at = −θ1 σ 2a + θ1 θ 2 σ 2a + ... + θq 1 θq σ2a = (−θ1 + θ1 θ2 + ... + θ q 1 θ q ) σ 2a , para k = 1 −
−
−
−
29
−
2
−
− ... − θq at
q−1 )
−
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS e γ 2 = ( θ2 + θ 1 θ3 + ... + θq
−
2 2 θq ) σa,
−
para k = 2
e para k = q + 1 vamos ter γ k = 0. Enquanto que a fac será dada por ρk =
5.3
(
θk +θ 1 θk+1 +...+θq−k θ q , 1+θ 21 +...+θ2q
−
k = 1,...,q
0, para k > q
Modelo Autoregressivo AR(p)
Chamamos de autoregressivo de ordem p o modelo: Z t
= φ1 Z t
1 +
φ2 Z t
... + φp Z t ou simplesmente AR( p) −
2 +
−
p +
−
at
(5.3)
onde os Z t 1 , Z t 2 ,...,Z t p são independentes de at . Os valores da série Z t são uma combinação linear dos p valores passados mais um termo a t , no qual incorpora coisas na série até o tempo t que não é explicado pelos valores passados. −
5.3.1
−
−
O Modelo AR(1)
Considere o seguinte modelo: Z t = φ Z t
1 +
−
at
onde E (Z t ) = 0, para todo t
e a variância = V ar (Z t ) = V ar (φZ t 1 + at ) = φ2 V ar (Z t 1 ) + σ2a = φ 2 γ 0 + σ 2a
γ 0
−
−
σ 2a
=
1 − φ2
, |φ| < 1.
A facv para k = 1 é γ 1
= Cov (Z t , Z t 1 ) = E (Z t Z t 1 ) = E [(φZ t 1 + at ) (φZ t 2 + at 1 )] = E [φZ t 1 φZ t 2 + φZ t 1 at 1 + at φZ t 2 + at at 1 ] = φ2 E [Z t 1 Z t 2 ] + φE [Z t 1 at 1 ] + φE [at Z t 2 ] + E [at at −
−
−
−
−
−
−
−
−
−
−
−
−
−
onde E (at Z t
j)
−
= 0, j > 0 = 0, j < 0 6 = σ 2a , j = 0
30
−
−
1]
−
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS sendo assim temos = φ2 γ 1 + φσ2a
γ 1
φ
=
2
1−φ
σ2a
para k = 2 γ 2 = φγ 1 .
No geral a facv será φk
γ k =
2 2 σa ,
1−φ
para k = 0, 1, 2,...
e a fac para o caso geral será ρk =
γ k = φ k , para k = 0, 1, 2,... γ 0
Desde que |φ| < 1, a fac é uma exponencial decrescente, a medida que k cresce. Se 0 < φ < 1, todas as correlações são positivas; se −1 < φ < 0 a autocorrelação de “lag ” 1 é negativa (ρ1 = φ ) e os sinais das autocorrelações são alternadamente positivo e negativo. Considere o modelo AR(1): Z t = φ Z t
1 +
at
1 = φ Z t−2 +
at
−
substituindo t por t − 1, temos: Z t
−
1
−
agora substituindo Z t 1 em Z t , temos: −
= φ (φZ t 2 + at 1 ) + at = φ2 Z t 2 + φat 1 + at
Z t
−
−
−
−
repetindo este processo k − 1 vezes, vamos ter: Z t = a t + φat
1 +
−
φ2 at
2 +
−
... + φk
1
−
at
(k−1) +
−
φk Z t
k
−
para k grande vamos ter: Z t = a t + φat
1 +
−
φ2 at
2 +
−
... = ψ 0 at + ψ 1 at
1 +
−
ψ 2 at
2 +
−
...
(5.4)
onde |φ| < 1 e φj = ψ j . Temos ainda que os at são independente de Z t 1 , Z t 2 ,... e σ 2a > 0, a solução de Z t = φ Z t 1 + at será estacionária se e somente se |φ| < 1. −
−
−
5.3.2
O Modelo AR(2)
Considere o seguinte modelo: (5.5) onde at é independente de Z t 1 e Z t 2 . Para analisar a estacionariedade deste processo AR(2), vamos introduzir o polinômio característico: Z t = φ 1 Z t
1 +
−
−
−
31
φ2 Z t
2 +
−
at
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS
φ (x) = 1
− φ1x − φ2x2
e a equação característica 1 − φ1 x − φ2 x2 = 0
A equação quadrática, acima tem duas raízes (possivelmente complexas). Suponha a t independente de Z t 1 , Z t 2 ,..., uma solução estacionária para a equação (4.5) existirá se e somente se a raiz da equação característica AR excede a unidade em valor absoluto. Este procedimento pode ser generalizado para o modelo AR(p). Para o caso AR(1) a equação característica é 1 − φx = 0 com raiz 1/φ, que exceda 1 em valor absoluto se e somente se |φ| < 1. Para a equação característica do AR(2) temos a seguinte solução: −
−
x =
φ1 ±
q
φ21 + 4 φ2
−2φ2
as raízes da equação acima excede a 1 em módulo se e somente se, simultaneamente φ1 + φ2 < 1, φ2
− φ1 < 1 e
|φ2 | < 1.
Essas são as condições de estacionariedade para o AR(2). Para encontrar a fac para o AR(2), multiplicamos ambos os lados da equação (4.5) por Z t k , k = 1, 2,..., e tomamos as esperanças −
= E (Z t Z t k ) = E [(φ1 Z t 1 + φ2 Z t 2 + at ) Z t k ] = E (φZ t 1 Z t k ) + E (φ2 Z t 2 Z t k ) + E (at Z t k ) .
γ k
−
−
−
−
−
−
−
−
−
Assumindo estacionariedade, médias zero, e que at é independente de Z t temos
k
−
γ k = φ 1 γ k
1 +
−
φ2 γ k
2,
−
k = 1, 2,...
nós
(5.6)
dividindo por γ 0 γ k γ 0 ρk
= =
γ k 1 γ + φ2 k 2 , k = 1, 2,... γ 0 γ 0 φ1 ρk 1 + φ2 ρk 2 , k = 1, 2,... φ1
−
−
−
(5.7)
−
As equações (4.6) e/ou (4.7) são chamadas de equações de Yule-Walker. Para k = 1, ρ0 = 1, ρ 1 = ρ 1 temos −
ρ1
= φ1 ρ0 + φ2 ρ1
ρ1
=
φ1 1 φ2
−
e para k = 2 ρ2
= φ1 ρ1 + φ2 ρ0 =
φ21 + φ2 (1 φ2 ) . 1 φ2
−
32
−
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS Podemos calcular sucessivamente os valores de ρ k através das equações de YuleWalker. A variância do processo AR(2) é obtida através da equação (4.5) γ 0
= V ar (Z t ) = V ar (φ1 Z t
+ φ2 Z t−2 + −1 2 2 φ1 γ 0 + φ2 γ 0 + 2 φ1 φ2 γ 1 + σ 2a φ21 + φ22 γ 0 + 2 φ1 φ2 γ 1 + σ 2a
= =
at )
¡ ¢
utilizando as equações de Yule-Walker vamos ter (1 − φ2 ) σ 2a γ 0 = (1 − φ2 ) 1 − φ21 − φ22
¡
¢−
2φ21 φ2
Os coeficientes ψj no processo linear geral (4.1) para um AR(2) são mais complexos do que o AR(1). Entretanto, podemos substituir a representação (4.1) e definir a equação do AR(2) para Z t , Z t 1 , e Z t 2 e obter os coeficientes de aj . Encontrando −
−
= 1 = 0
ψ0 ψ1
− φ1ψ0
e ψj
− φ1ψj 1 − φ2ψj −
2 =
−
0, j = 2, 3,...
Estas equações podem ser resolvidas recursivamente obtendo ψ0 = 1, ψ1 = φ 1 , ψ 2 = φ 21 + φ2 , e assim por diante.
5.3.3
O Processo Autoregressivo geral
Considere agora o modelo autoregressivo de ordem p Z t = φ 1 Z t
1 +
−
φ2 Z t
2 +
... + φp Z t
−
p +
−
at
(5.8)
com polinômio característico φ (x) = 1
− φ1x − φ2x2 − ... − φpxp
e a correspondente equação característica AR 1 − φ1 x − φ2 x2 − ... − φp xp = 0.
Considerando que a t é independente de Z t 1, Z t 2,..., uma solução estacionária para a equação (4.8) existe se e somente se as p raízes da equação característica AR é maior do que a unidade em módulo. Assumindo que a equação (4.8) é estacionária e multiplicando-a por Z t k , dividindo pela variância e tomando as esperanças temos: −
−
−
ρk = φ 1 ρk
1 +
−
φ2 ρk
2 +
−
... + φpρk
p,
−
k = 1.
Fazendo k = 1, 2,...,p na equação (4.9) e utilizando ρ 0 = 1 e ρ equações de Yule-Walker
33
k
−
(5.9)
= ρ k , obtemos as
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS
ρ1 ρ2
= φ1 + φ2 ρ1 + ... + φp ρp = φ1 ρ1 + φ2 + ... + φp ρp
1
−
(5.10)
2
−
.. . ρp
= φ1 ρp
1 +
2 +
φ2 ρp
−
... + φp
−
Dados os valores φ1 , φ2 , ..., φp , estas equações podem ser resolvidas para obtermos: ρ1 , ρ2 ,..., ρp . Para obter a variância multiplicamos a equação (4.8) por Z t , e tomamos as espereranças encontrando: γ 0 = φ 1 γ 1 + φ2 γ 2 + ... + φp γ p + σ 2a
utilizando ρk = γ k /γ 0 podemos escrever V ar (Z t ) = γ 0 =
1 − φ1 ρ1 −
observando que E (at Z t )
σ 2a φ2 ρ2
£¡ ¢¡
= E at φ1 Z t
1 +
φ2 Z t
−
2 +
−
(5.11)
− ... − φpρp ... + φp Z t
p +
−
= E a2t = σ 2a
at
¢¤
e a variância do processo é expressa em termos dos parâmetros φ1 , φ2 ,..., φp, σ 2a, e os desconhecidos valores de ρ 1 , ρ2, ..., ρp . Assumindo estacionariedade, o processo pode ser expressado na forma linear geral da equação (4.1), mas os pesos ψ são funções complicadas dos parâmetros φ1 , φ2 ,..., φp , mas podem ser encontrados numericamente.
5.4
O Modelo Autoregressivo-Médias Móveis ARMA(p,q)
Se considerarmos uma série formada pelas as partes autoregressiva e médias-móveis, vamos ter um modelo mais geral de séries temporais, ou seja, se Z t = φ 1 Z t
1 +
−
φ2 Z t
2 +
−
... + φp Z t
p +
at − θ 1 at
−
− θ2at 2 − ... − θq at
1
−
−
q
−
(5.12)
nós dizemos que Z t é um processo autoregressivo médias-móveis de ordens p e q , respectivamente, e parâmetros φ 0 s e θ0 s, ou abreviadamente ARMA(p,q).
5.4.1
O modelo ARMA(1,1)
Considere o seguinte modelo Z t = φ Z t
1 +
−
at − θ at
1
−
(5.13)
onde E (Z t ) = 0, para todo t , E (at ) = 0 e V ar (at ) = σ 2a . Vamos obter as equações de Yule-Walker, antes porém, observamos que: E (at Z t ) = E [at (φZ t
1 +
−
e 34
at − θat
2 1 )] = σ a
−
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS
E (at
1 Z t )
−
= E [at 1 (φZ t 1 + at − θat = φσ 2a − θσ 2a = (φ − θ) σ 2a −
−
1 )]
−
Se multiplicamos a equação (4.13) por Z t k e tomamos as esperanças, temos: −
γ k
= E (Z t Z t k ) = E [(φZ t 1 + at − θat 1 ) Z t k ] = E (φZ t 1 Z t k ) + E (at Z t k ) − E (θ at 1 Z t k ) −
−
−
−
−
−
−
−
−
variando o k γ 0 γ 1
= φγ 1 + σ 2a − θ (φ − θ ) σ 2a , k = 0 = φγ 0 − θσ 2a , k = 1
(5.14)
e γ k = φγ k
k=2
1,
−
(5.15)
resolvendo as equações (4.14) e (4.15) vamos ter a variância: γ 0 =
¡− 1
2θφ + θ 2
1 − φ2
¢
a facv γ k =
(1 − θφ) (φ − θ) k φ 1 − φ2
1 2 σa ,
−
para k = 1
e a fac ρk =
(1 − θφ) (φ − θ ) k φ 1 − 2θφ + θ 2
1
−
, para k = 1
A forma linear geral pode ser obtida da mesma maneira que a equação (4.5), definimos
X ∞
Z t = a t + ( φ − θ )
φj
1
−
at
j
−
j=1
onde ψj = (φ − θ) φj 1 , para j = 1. Com a condição de estacionariedade |φ| < 1, ou a raiz da equação 1 − φx = 0 é maior do que 1 em valor absoluto. O modelo ARMA(1,1) é equivalente a: −
AR (∞) :
e
¡
¢
(1 − φx) Z t = 1 − θx + θ2 x − ... (1 − φx) Z t = a t (1 − θ x)
M A (∞) : Z t =
¡
¢
(1 − θ x) at = 1 + φx + φ2 x2 + ... (1 − θ x) at (1 − φx)
A função de autocorrelação do modelo ARMA(1,1) é semelhante a do AR(1) (exponenciais amortecidas), o primeiro comporta-se como exponenciais amortecidas para k > 0, enquanto que o segundo o comportamento é de exponenciais amortecidas para k = 0. 35
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS Para o modelo geral ARMA(p,q), nós temos que dado que at é independente de Z t 1 , Z t 2, ..., uma solução estacionária para Z t , satisfazendo a equação (4.13) existe, se e somente se, as raízes da equação característica AR, φ (x) = 0, excede a unidade em valor absoluto. Se as condições de estacionariedade são satisfeitas, então o modelo pode ser escrito como um processo linear geral com os pesos ψj determinados da seguinte forma: −
−
ψ0 ψ1 ψ2
ψj
= 1 = −θ 1 + φ1 = −θ 2 + φ2 + φ1 ψ 1
.. .
=
−θj φpψj
p +
... + φ1 ψ j
−
1
−
onde ψj = 0 para j > 0 e θ j = 0 para j > q. Agora assumindo estacionariedade pode-se mostrar que a fac satisfaz: ρk = φ 1 ρk
1 +
−
φ2 ρk
2 +
−
... + φp ρk
p,
−
k > q
(5.16)
Podemos também desenvolver para k = 0, 1,...,q que envolve θ1 , θ2 , ..., θq . Teorema : Se X t v ARMA( p1 , q 1 ) e Y t v ARMA( p2 , q 2 ), sendo X t e Y t independentes, seja Z t = X t + Y t então Z t v ARMA( p, q ) onde p 5 p1 + p 2 , q 5 max( p1 + q 2 , p2 + q 1 ). Prova: Seja φX (B) X t = θX (B) εt e φY (B) Y t = θY (B) at onde φX , φY , θ X e θY são polinômios em B de ordem p1 , p2 , q 1 e q 2 , respectivamente. Onde εt e at são ruídos brancos independentes. Como Z t = X t + Y t , então multiplicando Z t por φX (B) φY (B) temos: φX (B) φY (B) Z t = φ X (B) φY (B) X t + φX (B) φY (B) Y t
como φX (B) X t = θ X (B) εt é ARMA( p1 , q 1) e φY (B) Y t = θ Y (B) at é ARMA( p2, q 2 ) vamos ter: φX (B) φY (B) Z t
= θX (B) φY (B) εt + φX (B) θY (B) at AR ( p1 + p2 ) = MA (q 1 + p2 ) + M A ( p1 + q 2 )
Utilizando o fato que a soma de dois processos de médias móveis independentes também é um processo MA de ordem igual ou menor ao max das ordens, temos que Z t é um processo ARMA( p, q ) onde p 5 p1 + p2 , q 5 max( p1 + q 2 , p2 + q 1 ).
5.5
Invertibilidade
Nós vimos que um processo AR pode ser reescrito como um processo MA de ordem infinita através de pesos ψ0 s. Além disso podemos escrever um processo MA como um autoregressivo. Considere o modelo abaixo: Z t = a t − θat
1
−
(5.17)
reescrevendo a equação acima como a t = Z t + θat 1 , e então substituindo t por t − 1 e a t 1 na equação modificada, temos: −
−
36
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS
at
= Z t + θ (Z t 1 + θ at = Z t + θZ t 1 + θ 2 at −
2)
−
−
2
−
Se | θ| < 1, podemos continuar a substituição e obter: at Z t
= Z t + θ Z t 1 + θ2 Z t 2 + ... = −θZ t 1 − θ 2 Z t 2 − ... + at −
¡
−
−
−
¢
então se | θ| < 1, nós vimos que o MA(1) pode ser “ invertido ” (transformado) para um AR(∞), então dizemos que o modelo MA(1) é invertível. Para um modelo geral MA(q), de finimos o polinômio característico MA como: θ (x) = 1
− θ1x − θ2x2 − ... − θq xq
e a correspondente equação característica 1 − θ 1 x − θ 2 x2 − ... − θq xq = 0
Pode-se então, demonstrar que o modelo MA(q) é invertível, e existirão constantes π j , tal que:
X ∞
Z t =
j +
π j Z t
−
at
j=1
se e somente se as raízes da equação característica MA excede a unidade em valor absoluto. Proposição: Um processo linear geral será estacionário se a série ψ (x) converge para |x| 5 1; será invertível se π (x) converge para |x| 5 1. Podemos tirar algumas conclusões sobre estacionariedade e invertibilidade, são elas: 1) Para o modelo AR(p) não há restrições sobre os parâmetros φ j para assegurar a invertibilidade. 2) Para o modelo MA(q) não há restrições sobre os parâmetros θj para que o processo seja estacionário. 3) Para o modelo ARMA(p,q) o processo é estacionário se as raizes da equação característica φ (x) = 0 excede a unidade em valor absoluto e o processo é invertível se todas as raízes θ (x) = 0 excede a unidade em valor absoluto, ou seja, fora do círculo unitário.
5.6
Exercícios
1) Esboçe a fac para cada um dos seguintes modelos ARMA: a) AR(2) com φ 1 = 1.2 e φ 2 = −0.7 b) MA(2) com θ 1 = −1 e θ2 = −0.6 c) ARMA(1,1) com φ = 0.7 e θ = −0.4 2) Suponha Z t um processo AR(1) com −1 < φ < 1. a) Encontre a facv para W t = Z t − Z t 1 em termos de φ e σ2a . b) Em particular, mostrar que V ar (W t ) = 2σ 2a / (1 + φ) . 3) Encontre a fac para o processo de finido por −
Z t = 5 + at − 0.5at
1 + 0.25at−2
−
37
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
[email protected] ESTACIONÁRIAS 4) Descreva as características importantes da fac dos seguintes modelos: a) MA(1), b) MA(2), c) AR(1), d) AR(2) e e) ARMA(1,1). 5) Para o modelo ARMA(2,1) Z t = 0.8Z t
1 +
−
at + 0.7at
1 + 0.6at−2
−
mostrar que a) ρk = 0.8ρk 1 para k = 3 e b) ρ2 = 0.8ρ1 + 0.6σ 2a/γ 0 . 6) Considere dois processos MA(2), um com θ 1 = θ 2 = 1/6 e outro com θ 1 = −1 e θ2 = 6. Mostrar que estes processos tem extamente a mesma fac. Como são as raízes dos correspondentes polinômios característicos, compare-as. 7) Considere o não-estacionário modelo AR(1) −
Z t = 3Z t
1 +
−
at
P
a) Mostrar que Z t = − j=1 (1/3)j at+j satisfaz a equação AR(1) e é realmente estacionária. b) Quando está solução não é satisfatória. 8) Considere o modelo ∞
Z t = a t
1
−
− at
2 + 0.5at−3
−
a) Encontre a facv para Z t . b) Mostrar que Z t é um modelo estacionário ARMA(p,q). Identifique p, q e os θ 0 s e φ 0 s. 9) Considre os modelos: i) Z t = a t + 0.8at 1 . ii) Z t − 0.4Z t 1 = a t − 0.3at 1 + 0.8at 2 iii) Z t = 0.3Z t 1 + 0.6Z t 2 + at . Pede-se: a) Escreva-os utilizando o operador X ; b) Identi fique cada um dos modelos abaixo, assim como os seus parâmetros; c) Verifique se cada um deles são estacionários e/ou invertíveis . −
−
−
−
−
−
38
Capítulo 6
Modelos para Séries Temporais Não-Estacionárias Os modelos apresentados até o momento são adequados para séries estacionárias, ou seja, aquelas onde a média é constante por todo tempo, mas em geral, na prática, as séries são não-estacionárias. Como, por exemplo, as séries econômicas. Para torna a série estacionária deve-se tomar diferenças quantas vezes for necessário, até atingir estacionariedade. O procedimento é o seguinte: W t
= Z t − Z t 1 = (1 − X ) Z t −
=
∆Z t
Os modelos que apresentaremos a partir de agora, serão para séries cujo comportamento são não-estacionário.
6.1
O Modelo Autoregressivo-Integrado-Médias-Móveis ARIMA(p,d,q)
As séries Z t , tais que, tomando-se um número finito de diferenças, d, tornam-se estacionárias, são chamadas não-estacionárias homogêneas . Se W t =
d
∆
Z t
é estacionária, podemos representar W t por um modelo ARMA(p,q), ou seja, φ (X ) W t = θ (X ) at
(6.1)
Se W t é uma diferença de Z t , então Z t é uma integral de W t , daí dizemos que Z t segue um modelo autoregressivo-integrado-médias-móveis , ou modelo ARIMA(p,d,q), φ (X ) ∆d Z t = θ (X ) at
(6.2) de ordem (p,d,q), se p e q são as ordens de φ (X ) e θ (X ) , respectivamente. No modelo (5.1) todas as raízes de φ (X ) estão fora do círculo unitário. Escrever (5.2) é equivalente a escrever ξ (X ) Z t = θ (X ) at
39
(6.3)
[email protected]
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS NÃO-ESTACIONÁRIAS
onde ξ (X ) é um operador autoregressivo não-estacionário, de ordem p+d, com d raízes iguais a 1 (sobre o círculo unitário) e as restantes p estão fora do círculo unitário, ou seja, d ξ (X ) = φ (X ) ∆d = φ (X ) (1 − X ) (6.4) Portanto o modelo (5.2) supõe que a d-ésima diferença da série Z t pode ser representada por um modelo ARMA, estacionário e invertível. Na maioria dos casos usuais, d=1 ou d=2 , que correspondem a dois casos interessantes e comuns de nãoestacionariedade homôgenea : 1) Séries não-estacionárias quanto ao nível: oscilam ao redor de um nível médio durante algum tempo e depois saltam para outro nível temporário. Para tornálas estacionárias é suficiente tomar uma diferença, este é o caso típico de séries econômicas. 2) Séries não-estacionárias quanto a inclinação: oscilam numa direção por algum tempo e depois mudam para outra direção temporária. Para torná-las estacionárias é necessário tomar a segunda diferença.
6.1.1
Exemplos
Alguns casos particulares do modelo ARIMA: i) ARIMA(0,1,1): ∆Z t = (1 − θ X ) at ii) ARIMA(1,1,1): (1 − φX ) ∆Z t = (1 − θ X ) at iii) ARIMA(p,0,0): AR(p); ARIMA(0,0,q): MA(q); ARIMA(p,0,q): ARMA(p,q). Um modelo que é considerado importante é o caso i) IMA(1,1): IntegradoMédias-Móveis. Utilizado especialmente na área de economia.
6.1.2
Algumas Transformações para tornar a série Estacionária
Tomar diferenças pode não ser su ficiente para se alcançar estacionariedade, principalmente, no caso das séries econômicas. Uma transformação, não linear, utilizada para série Z t é Z t = ln Z t , que será suficiente para obter a homogeneidade. Outro procedimento usualmente, utilizado em séries temporais econômicas é: ∗
∆ ln Z t =
ln Z t − ln Z t
1
−
A principal razão para se fazer uma transformação é tentar estabilizar a variância. Uma transformação, também adequada, seria: utilizar um gráfico que traz no eixo das abscissas médias de subconjuntos de observações da série original e no eixo das ordenadas a amplitude de cada um destes subconjuntos. Seja Z t ,...,Z t um subconjunto com k observações, então calculamos: 1
Z =
1 k
k
k
X
Z ti
i=1
(medida de posição) e W =
max (Z ti ) − min(Z ti )
(medida de variabilidade)
¡ ¢
o par Z, W será um ponto do grá fico. O número de elementos em cada subsérie pode ser igual ao período, no caso de séries sazonais. Se W é independente de Z , obteremos pontos espalhados ao redor de uma reta paralela ao eixo das abscissas e neste caso não haverá necessidade de transformação. Se W for diretamente proporcional a Z , a transformação logarítmica é apropriada. 40
[email protected]
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS NÃO-ESTACIONÁRIAS
Uma classe geral de transformações que podem ser utilizadas é a de Box-Cox, definida por: ( ) Z t λ
=
(
Z tλ −c
, λ 6 =0 ln Z t , λ = 0 λ
onde λ e c são parâmetros a serem estimados. Para c = 1 temos: Z tλ − 1 λ
6.2
−→ ln Z t se λ → 0
Formas do Modelo ARIMA
O modelo ARIMA dado em (5.2) pode ser representado de três formas: a) Em termos de valores prévios de Z t e do valor atual e prévios de a t ; b) Em termos de valor atual e prévios de a t ; c) Em termos de valores prévios de Z t e do valor atual de at .
6.2.1
Forma da Equação Diferenças
Esta é a forma usual do modelo, útil para calcular previsões: Z t = ξ 1 Z t
1 +
−
ξ 2 Z t
2 +
−
... + ξ p+d Z t
p−d +
−
at − θ 1 at
1
−
− ... − θq at
q
−
(6.5)
onde ξ (X ) = 1 − ξ 1 X − ξ 2 X 2 − ... − ξ p+d X p+d .
6.2.2
Forma de Choques Aleatórios
Uma forma conveniente para se calcular a variância dos erros de previsão é: Z t
= at + ψ 1 at = ψ (X ) at
1 +
−
ψ 2 at
2 +
−
...
Desta equação obtemos
ξ (X ) Z t = ξ (X ) ψ (X ) at
(6.6)
(6.7)
e utilizando (5.3) segue-se que
ξ (X ) ψ (X ) = θ (X ) .
(6.8)
Logo, os pesos ψ j da forma (5.6) podem ser obtidos de (5.8) identi ficando-se coeficientes de X, X 2 , etc.:
¡− 1
6.2.3
ξ 1 X
− ... − ξ p+d X p+d
¢¡
¢
1 + ψ 1 X + ψ 2 X 2 + ... = 1 − θ 1 X − ... − θ q X q
Termo constante no Modelo ARIMA
No modelo ARIMA(p,d,q) φ (X ) W t
onde W t
= θ (X ) at = ∆d Z t .
(6.9)
Se um termo constante for omitido, então E (W t ) = µ W = 0. O modelo acima pode descrever o que chamaríamos de tendências estocásticas , no sentido que o processo não é estacionário e muda de nível e/ou inclinação, no decorrer do tempo. A tendência (ou não-estacionariedade) estocástica é caracterizada pela existência de
41
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS NÃO-ESTACIONÁRIAS
[email protected]
zeros de ξ (X ) = 1 − X sobre o círculo unitário. Além da não-estacionariedade estocástica, muitas séries podem apresentar uma tendência determinística . Podemos ter Z t como a soma de um polinômio mais um processo ARIMA(p,d,q): m
Z t
X
=
θ (X ) at ∆d φ (X )
β j tj +
j=0
(6.10)
= T t + Y t
onde T t é uma tendência determinística e Y t é um processo ARIMA(p,d,q). Segue-se que Z t é não-estacionário se m > 0 e/ou d > 0. Tomando d diferenças temos: d
Z t
= θ0 +
d
Z t
=
∆
∆
θ (X ) at , φ (X )
θ (X ) at , φ (X )
se m = d
(6.11)
se m < d
onde θ 0 = β d d!, obtendo-se uma série estacionária. Significando que podemos incluir uma tendência polinomial determinística de grau d no modelo, bastando acrescentar uma constante θ0 : ξ (X ) Z t = θ 0 + θ (X ) at (6.12) Se m > d, podemos obter um modelo não-estacionário, tomando d diferenças, devido a tendência determinística, e tomando m diferenças, obteremos um processo estacionário, mas não invertível. Se θ 0 6= 0, W t = φ W t
1 +
−
... + φpW t
p +
−
θ0 + at
− θ1at 1 − ... − θq at −
q
−
(6.13)
e obtemos a média
µW = E (W t ) = φ 1 µW + ... + φp µW =
ou
θ0
1 − φ1 − ... − φp
¡−
θ0 = µW 1
e se teremos:
(6.14)
f
φ1
− ... − φp
¢
(6.15)
Wt = W t − E (W t )
f
φ (X ) Wt = θ (X ) at
No que segue, quando d > 0, suporemos µ W = 0 e portanto θ0 = 0.
6.3
Construção dos Modelos ARIMA
Nesta seção vamos apresentar os estágios do ciclo iterativo do método de Box e Jenkins, para construção dos modelos ARIMA, que são: 1) identi fi cação; 2) estimação e 3) veri fi cação. Dentre estes estágios o mais dí ficil é fase de identificação do modelo ARIMA, que será utilizado para ajustar os dados. Esta escolha é feita a partir das autocorrelações e autocorrelações parciais estimadas, dentre as quais esperamos que representem adequadamente as verdadeiras quantidades teóricas, que são desconhecidas. Anteriormente definimos a facv e fac, agora vamos definir a função de autocorrelação parcial (facp).
42
[email protected]
6.3.1
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS NÃO-ESTACIONÁRIAS
Função de Autocorrelação Parcial (facp)
Nós podemos definir a correlação entre Z t e Z t k removendo o efeito das variáveis Z t 1 , Z t 2 ,...,Z t k+1. Esta medida, para séries estacionárias, é chamada a autocorrelação parcial até a posição k e será denotada por φkk , se Z t é uma série normalmente distribuídos, ou seja, −
−
−
−
φkk = Corr (Z t , Z t
k /Z t−1 , Z t−2 ,...,Z t−k+1 )
−
(6.16)
onde φkk é o coe ficiente de correlação da distribuição de Z t , Z t k condicional a Z t 1 , Z t 2 ,...,Z t k+1. Um método geral para encontrar a facp para um processo estacionário com fac ρk é o seguinte : para um dado k , mostra-se que φkk satisfaz as equações de Yule-Walker: −
−
−
−
ρj = φ k1 ρj
1 +
−
φk2 ρj
2 +
−
... + φkk ρj
p,
−
j = 1, 2,...,k
(6.17)
Mais explicitamente ρ1 ρ2
= φk1 + φk2 ρ1 + ... + φkk ρj = φk1 ρ1 + φk2 + ... + φkk ρk
1
−
(6.18)
2
−
.. . ρk
= φk1 ρk
1 +
−
φk2 ρk
2 +
−
... + φkk
Estas equações podem ser resolvidas sucessivamente para k = 1, 2,..., e obtendo-se φkk , da seguinte maneira: φ11 φ22
= ρ1 =
e para k = 3
¯¯ ¯¯
1
ρ1 ρ2
ρ1
1
ρ1
1
ρ1
¯¯ ¯¯ ¯¯
φkk =
em geral
¯¯ ¯¯
1
=
ρ1
ρ2 ρ2 ρ3
1
1
ρ1
1
ρ2 ρ1
ρ1
1
ρ1 ρ2
− ρ21 1 − ρ21
ρ2
ρ1 ρ2
ρ1
(6.19)
¯¯ ¯¯ ¯¯
(6.20)
|P k | (6.21) |P k | onde P k é a matriz de autocorrelação, e P k é a matriz P k com a última coluna ∗
φkk =
∗
substituída pelo vetor de autocorrelação. Pode-se demonstrar que, para os processos estudados temos: (i) um processo AR(p) tem facp φkk = 6 0, para k 5 p e φ kk = 0, para k > p; (ii) Um processo MA(q) tem facp que se comporta de maneira similar a fac de um processo AR(p), para o MA(1) temos: φ22 =
e φkk =
−
θ2
1 + θ2 + θ 4
¡− ¢
θk 1
θ2
, k=1 1 − θ 2(k+1) (iii) Um processo ARMA(p,q) tem facp que se comporta como a facp de um processo MA.
−
43
[email protected]
6.3.2
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS NÃO-ESTACIONÁRIAS
A Função de Autocorrelação Parcial Amostral (fapa)
Para série temporal observada vamos precisar calcular a estimativa da fapa. Nós chamamos esta função estimada de função de autocorrelação parcial amostral e denotamos por φkk . Levinson (1974) e Durbin (1960) descobriram um método e ficiente para obter as soluções para as equações (5.18), considerando as facp ou fapa. Eles demonstraram que independentemente as equações (5.18) podem ser resolvidas recursivamente como segue:
b
P −P k−1
ρk φkk =
−
j=1
φk
1,j ρk−j
−
(6.22)
k−1
1
j=1
onde
φk
1,j ρj
−
para j = 1, 2,...,k − 1. Por exemplo, utilizando φ11 = ρ1 , nós temos φkj = φ k
1,j
−
− φkk φk
φ22 =
1,k−j ,
−
(6.23)
− φ11ρ1 = ρ2 − ρ21 1 − φ11 ρ1 1 − ρ21
ρ2
b
Nas estimativas vamos substituir ρk por r k , e obtemos fapa φkk .
6.4
b
Idendificação (ou Especificação) dos Modelos ARIMA
O objetivo da identificação é determinar os valores de p,d e q do modelo ARIMA(p,d,q), além de obter estimativas preliminares dos parâmetros a serem utilizados no estágio de estimação.
6.4.1
Procedimento
I) Inicialmente diferençamos a série Z t , tantas vezes quantas necessárias, para se obter uma série estacionária, de modo que o processo ∆d Z t seja reduzido a um ARMA(p,q). O número de diferenças, d , necessárias para que o processo se torne estacionário, é alcançado quando a fac amostral de W t = ∆d Z t decresce rapidamente para zero; II) Identi ficamos o processo ARMA(p,q) resultante, através da análise das fac e facp estimadas, cujo comportamentos devem ser semelhantes aqueles das respectivas quantidades teóricas (AR, MA e ARMA). - Geralmente, na prática d=0, 1, ou 2, e será suficiente inspecionar as primeiras 15 ou 20 autocorrelações da série e de suas diferenças. - Convém testar se E (W t ) = µW é zero, comparando W com o seu desvio-padrão estimado. A tabela abaixo fornece as variâncias de W para alguns modelos usuais. Se d=0, W = Z . Tabela -
Variâncias Aproximadas p/ W
, n = N − d
AR (1)
MA (1) ARMA (1, 1)
c0 (1+r1 ) n(1−r1 )
c0 (1+2r1 ) n
c0 n
h
2r12 r1 −r2
AR (2)
1+ M A (2)
c0 (1+r1 )(1−2r12 +r2 ) n(1−r1 )(1−r2 )
c0 (1+2r1 +2r2 ) n
44
i
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS NÃO-ESTACIONÁRIAS
[email protected]
6.5
Intervalo de Confiança para a FAC Amostral
Apresentaremos a seguir o intervalo de confiança para a faca, antes porém, sabemos que a faca é de finida como:
b b b X £¡ − ¢ ρj =
onde
1 cj = N
sendo
γ j
γ 0
= r j =
cj , j = 0, 1,...,N − 1 c0
N −j
Z t
Z (Z t+j
¤
, j = 0, 1,...,N − 1
j
= r j
− Z )
t=1
(6.24)
(6.25)
N
X
1 Z = Z t e r N t=1
temos que a variância de r j é V ar (rj ) ∼ =
1 N
X£
−
(6.26)
∞
ρ2k + ρk+j ρk
j
−
k=−∞
− 4ρj ρk ρk
j +
−
2ρ2k ρ2j
¤
(6.27)
para um processo estacionário normal (Gaussiano). Para um processo em que as autocorrelações são nulas para k > q, obtem-se:
" X# " X#
1 V ar (rj ) ∼ 1+2 = N
substituindo ρ k por r k , temos:
1 σ (rj ) ∼ 1+2 = N 2
q
ρ2k , j > q
(6.28)
(6.29)
k=1
q
rk2 , j > q
k=1
Para N suficientemente grande, sob a hipótese H 0 : ρ j = 0, j > q a distribuição é N 0, σ 2 (rj ) . Assim, pode-se construir um intervalo de con fiança aproximado para as autocorrelações: rj ± tα σ (rj ) (6.30)
¡ ¢
onde tα é o valor da estatística t-Student com N − 1 graus de liberdade, tal que P ( −tα < t < tα ) = α . Na prática utiliza-se tα = 2, de modo que podemos considerar ρj como significativamente diferente de zero se |rj | > 2 σ(rj ), j > q.
(6.31)
Para facp sob a hipótese que o processo é AR(p),
b³ ´ b³ ´ √ b b¯¯ ¯¯ √
1 , j > p. N
(6.32)
1 , j > p. N
(6.33)
V ar φjj w
De modo que
σ φjj
w
Além disso, para N grande,φjj terá distribuição aproximadamente normal, com média zero e variância (5.32), de modo que consideraremos φjj significativamente diferente de zero se 2 φjj > , j > p. (6.34) N
45
CAPÍTULO 6. MODELOS MODELOS PARA PARA SÉRIES TEMPORAIS TEMPORAIS NÃO-ESTACIONÁRIAS
[email protected]
6.6 6.6
Exerc xercíc ícos os
1) Considere os dois modelos: A : Z t = 0.9Z t 1 + 0. 0 .09 09Z Z t 2 + at = Z t 1 + at − 0.1at 1 B : Z t = Z −
−
−
−
a) Identifique e especifique os modelos ARIMA. b) Qual a semelhança entre eles? (Compare os pesos ψ0 s e π 0 s). 2) Identifique e especi fique cada modelo ARIMA: 25Z Z t 2 + at + 0. 0 .5at 1 a) Z t = Z t 1 − 0.25 b) Z t = 2Z t 1 − Z t 2 + at 0 .5Z t 2 + at − 0.5at 1 + 0. 0 .25 25a at 2 . c) Z t = 0.5Z t 1 + 0. 3) Suponha que {Z t } é gerada como −
−
−
−
−
−
−
−
Z t = a t + cat
1 +
−
cat
2 +
−
−
... + ca0 , t > 0
a) Encontre a função média e a facv para Z t . Z t é estacionária? b) Encontre a função média e facv para ∆Z t . Esta série é estacionária? c) Identifique e especifique Z t como um modelo ARIMA. 4) Suponha que Z t = A + Bt + X t onde A e B são variáveis aleatórias independentes do passeio aleatório X t . a) A série Z t é estacionária? b) A série ∆Z t é estacionária? 5) De uma série de 100 observações, obteve-se: r1 = − 0.49 49,, r2 = 0.31 31,, r3 = 21,, r4 = 0.11 11,, e |rk | 5 0.09 para k > 4. 4 . Com base somente nestas informações, −0.21 que modelo ARIMA nós poderíamos especi ficar para esta série? 6) Um série estacionária de tamanho N N = 121 produz as seguintes autocorre08,, e φ44 = 0.00 00.. Basedo lações parciais estimadas: φ11 = 0.8, φ22 = −0.6, φ33 = 0.08 somente nestas informações, que modelo poderíamos especi ficar para esta série? 7) Para uma série de 169 observações, encontramos que: r1 = 0.41 41,, r2 = 0.42 42,, r3 = 0.26 26,, r4 = 0.21 21,, e r5 = 0.16 16.. Qual modelo se ajustaria a este padrão de autocorrelações? 8) As autocorrelaçõe autocorrelaçõess amostrai amostraiss para a primeira primeira diferença diferença são dadas dadas na tabela = 100). 100). abaixo (N =
b
FACA Z t ∆Z t
b
1 0.97 -0.42
2 0.97 0.18
b
3 0.93 -0.02
4 0.85 0.07
b
5 6 0.80 0.71 -0.10 -0.09
Baseado nas informações, quais modelos ARIMA poderíamos identi ficar para a série? 9) Para a série de tamanho 64, as facp amostrais são dadas por: 1 0.47
2 3 -0.34 0.20
4 5 0.02 0.15
6 -0.06
Quais modelos poderíamos considerar neste caso? 10) Suponha X t um processo estacionário AR(1) com parâmetro φ, mas que podemos somente observar Z t = X t + N t
onde N t é um ruído branco independente de X t . 2 2 a) Encontre a fac para o processo Z t em termos de φ, σ X , e σ N . b) Qual modelo ARMA podemos identi ficar para Z t ? 46
Capítulo 7
Estimação dos Parâmetros Neste capítulo vamos trabalhar com a estimação dos parâmetros para o modelo ARIMA, considerando a série temporal observada Z 1 , Z 2,...,Z n . Assumiremos que o modelo já foi especi ficado, isto é, nós já especificamos os valores para p,d e q utlizando os métodos do capítulo 5. Com relação a séries não-estacionárias, faremos a d-ésima diferença da série observada até torna-lá um processo estacionário ARMA(p,q). Na prática, nós trabalhamos com a d-ésima diferença da série temporal original, estimando os parâmetros, a partir, do modelo completo. Para simplificar o estudo sobre estimação, de finimos Z 1 , Z 2 ,...,Z n como um processo estacionário observado da série original, depois de diferençada adequadamente. adequadamente. Primeiramente Primeiramente apresentaremos as estimativas preliminares, em seguida apresentaremos os estimadores do método do momentos, de mínimos quadrados e o estimador de máxima verossimilhança.
7.1
Estimat Estimativ ivas as Prelimi Preliminar nares es
É na identificação do modelo que são obtidas as estimativas preliminares, que serão utilizadas como valores iniciais, para as estimativas finais dos parâmet parâmetros. ros. Estas Estas d estimativas são obtidas através das r j da série W t = ∆ Z t .
7.1.1 7.1.1
Proces Processo soss AR AR(p (p))
Para esses processos, resolvemos as equações de Yule-Walker, com ρj substituído por r j . A estimativa da variância do ruído banco é:
b b ¡ − 2 σ a = γ γ 0 1
φ1 ρ1
− ... − φpρp
¢ b
b
γ 0 substituído por c 0 , e os φj por suas estimativas φj . com γ
b
7.1. 7.1.2 2
Proce Process ssos os MA(q MA(q))
Para esses processos, vamos utilizar a equação ρj
=
−θk + θ1θk+1 + ... + θq
1+ = 0, j > q.
θ21 +
...
k θq
−
+ θ q2
b b b b b
, j = 0, 1,...,q
substituindo ρ j por r j e θ j por θj e a variância do ruído é estimada como 2
σ a =
1+
γ γ 0 2 θ 1 + ... +
47
2
θq
manoel@ manoel@fct fct.un .unesp esp.br .br
CAPÍTU CAPÍTULO LO 7. ESTIM ESTIMAÇÃ AÇÃO O DOS DOS PARÂME ARÂMETR TROS OS
γ 0 = c0 . onde γ
b
7.1.3 7.1.3
Proce Process ssos os AR ARMA MA(p (p,q) ,q)
Para esses processos, obtemos as estimativas iniciais para φ1 ,..., φp , resolvendo as equações:
b b b b b
ρj = φ1 ρj
b b b b b
1 +
−
... + φp ρj
p,
−
j = q + + 1,...,q 1 ,...,q + p + p
substituindo ρj por rj . Depois a partir das relações entre entre as autocorrelações ρ1 ,..., ρq , 2 φ1 , ..., ..., φp e θ 1 ,..., θq , obtemos θ1 , ..., ..., θq e σ a . Obs.: Obs.: Na tabela tabela 9.2 do Moret Morettin tin (1987) (1987) temos temos estima estimativ tivas as inicia iniciais is para para os parâmetros dos modelos mais utilizados na prática.
7.2 7.2
O Mét Método odo dos dos Mom Momen ento toss
O método dos momentos é geralmente um dos mais faceis, dos métodos para obter estimativas dos parâmetros. O método consiste de equacionar momentos amostrais com momentos teóricos e resolver as equações resultante para obter estimativas dos parâmetros desconhecidos. desconhecidos.
7.2.1
Modelo Modelo Autoreg Autoregress ressivo ivo
Considere o modelo AR(1). Para este modelo nós temos: ρ1 = φ . Então podemos estimar φ simplesmente por:
b
= r 1 φ = r
Agora consideramos o caso AR(2). A relação entre os parâmetros φ1 e φ2 e os vários momentos é dado pelas equações de Yule-Walker: = φ1 + ρ1 φ2 = ρ1 φ1 + φ2
ρ1 ρ2
O método dos momentos substitui ρ1 por p or r 1 e ρ 2 por p or r 2 para obter: r1 r2
= φ1 + r1 φ2 = r1 φ1 + φ2
resolvendo estas equações obtemos:
b b
φ1 =
e
r1 (1 − r2 ) 1 − r12
(7.1)
r2 − r12 1 − r12
(7.2)
φ2 =
Para o caso geral AR(p) o procedimento é semelhante: substituimos ρk por r k nas equações de Yule-Walker ule-Walker para obter: r1 = φ1 + r1 φ2 + ... + rp 1 φp (7.3) −
r2
= r1 φ1 + φ2 + ... + rp
2 φp
−
.. . rp
= rp
1 φ1 + rp−2 +
−
... + φp
b b
..., φp , em termos de r1 ,...,rp . Estas equações lineares serão resolvidas para obter φ1, ..., O método recursivo de Durbin-Levinson (equações 5.22)é um algoritmo adequado para resolver estas equações, mas estará sujeito a erros, principalmente se solução está no limite de estacionariedade (na circunferência de raio unitário).
48
manoel@ manoel@fct fct.un .unesp esp.br .br
7.2.2
CAPÍTU CAPÍTULO LO 7. ESTIM ESTIMAÇÃ AÇÃO O DOS DOS PARÂME ARÂMETR TROS OS
Modelos Modelos MédiasMédias-Móv Móveis eis
Para o caso do modelo MA o método dos momentos, não é tão fácil. Vamos considerar o processo MA(1). Da fac do MA temos: ρ1 =
−θ
, |θ | < 1 < 1..
1 + θ2
(7.4)
Podemos resolver a equação acima com relação a θ. Se |r1 | < 0.5,então as duas raízes são dadas por:
¸ − £− ¤
0.5
− 21r ± 41r2 1 1
∙
1
Dentre Dentre as soluções só uma satisfaz a condição de invertibilidade, invertibilidade, que pode p ode ser escrita como: 0.5 1 + 1 4r12 2r1
b − θ =
(7.5)
Se r1 = ±0.5, a solução real é única, ou seja, ±1, mas por outro lado, não é inver invertív tível. el. Se |r1 | > 0.5, não existe soluções reais, e o método dos momentos não produz um estimador adequado para θ, além disso a especificação do modelo torna-se duvidosa. Para modelos MA(q), de ordem grande, o método dos momentos torna-se bastante tante complicado. complicado. As equações equações resultantes resultantes em função dos θ0 s, não são lineares, entreta entretant nto, o, e suas soluções soluções precisão precisão ser numéri numéricas. cas. Porém Porém haverá haverá várias solucões solucões múltiplas, das quais somente uma será invertível.
7.2. 7.2.3 3
Modelo odeloss AR ARMA MA
Para Para esse modelo vamos vamos considerar considerar somente somente o ARMA(1,1) ARMA(1,1).. Da equação abaixo abaixo (capítulo 4): ρk =
(1 − θφ) (φ − θ ) k φ 1 − 2θφ + θ 2
1
−
, para k = 1
(7.6)
Notando que ρ 2 /ρ1 = φ , nós podemos primeiro estimar φ como r2 r1
b ³ − b´ b³ − ´ − b φ =
(7.7)
Então podemos substituir (6.7) em (6.6) e obter 1
r1 =
b
θφ
φ
θ
2φθ φθ + θ2
1
(7.8)
par obter a estimativa de θ, resolvem resolvemos os a equação equação em função de θ, e considerando somente a solução invertível.
7.2.4
Estimat Estimativ ivas as da Variância ariância do Ruído Ruído
O parâmetro final a ser estimado é a variância σ2a. Dentre todos os casos, nós podemos primeiro estimar γ 0 = V ar (Z t ) pela variância amostral
P¡ − ¢ n
S 2 =
t=1
Z t
n−1
Z
2
(7.9)
e daí utilizamos a relação (capítulo 4) que existe entre γ 0 , σ2a e os θ0 s, e φ0 s para estimar σ2a . 49
[email protected]
CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
Para os modelos AR(p), temos:
b ³ − b − − b ´ b ¡ − ¢ 2 σ a = 1
φ1 r1
φp rp S 2
...
(7.10)
Em particular, para um processo AR(1),
σ 2a = 1
b
r12 S 2
(7.11)
desde que φ1 = r1. Para o caso MA(q), nós temos:
S 2
σ 2a =
(7.12)
b b b ³ − b ´ b − b b b 2 θ 1 +
1+
... +
2 θq
Para o processo ARMA(1,1), temos: σ 2a =
7.3
2
1
1
φ
2θ φ + θ
2 2 S
(7.13)
Estimativas de Mínimos Quadrados
Como já sabemos, o método dos momentos não é satisfatório para modelos com termos médias móveis, precisaríamos aplicar outros métodos, e uma das alternativa é o método de mínimos quadrados.
7.3.1
Modelos Autoregressivos
Considere o caso AR(1), onde Z t − µ = φ (Z t
− µ) + at
1
−
(7.14)
Nós podemos vê-lo como um modelo de regressão com variável preditora Z t 1 e variável resposta Z t . A estimação de mínimos quadrados consiste em minimizar a soma de quadrados das diferenças (Z t − µ) − φ (Z t 1 − µ) . Desde que somente Z 1 , Z 2 ,...,Z n são observados, nós podemos somente somar de t = 2 até t = n. Seja −
−
n
S (φ, µ) = ∗
X t=2
[(Z t − µ) − φ (Z t
1
−
− µ)]2
(7.15)
Onde S é geralmente chamada de função da soma de quadrados condicional. De acordo com o princípio de mínimos quadrados, nós estimamos φ e µ com respeito aos valores que minimizam S (φ, µ) , dado os valores observados da série Z 1 , Z 2,...,Z n . Vamos considerar as derivadas ∂ S /∂ µ = 0 e ∂ S /∂φ = 0. Ou seja, ∗
∗
∗
∂ S = ∂ µ ∗
∗
n
X t=2
2 [(Z t − µ) − φ (Z t
1
−
− µ)] (−1 + φ) = 0
simplificando e resolvendo para µ, temos
P −P n
µ =
t=2
n
Z t
φ
t=2
Z t
(n − 1)(1 − φ)
50
1
−
(7.16)
[email protected]
CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
Para n grande, temos
n
n
X− X− Z t
n
t=2
Z t 1 n 1 −
≈
1
t=2
≈
Z
Além disso, temos que a equação (6.) reduz-se a Z − φZ = Z 1−φ
b
µ≈
(7.17)
Podemos dizer então que µ = Z. Considere a minimização de S φ, Z com relação a φ
b ¡ ¢ X £¡ − ¢ − ¡ − ¢¤¡ − ¢ ¡ − ¢¡ − ¢ P b P ¡ − ¢ ¡ −¢b ∗
n
∂ S = ∂φ ∗
2
Z t
Z
φ Z t
Z
1
−
Z t
Z = 0
1
−
t=2
simplificando e resolvendo para φ, temos n
φ =
t=2
Z t n
Z Z t
Z t
Z
1
−
t=2
Z
1
−
(7.18)
2
2
Exeto para o termo Z n Z , φ = r1 ; além disso os estimadores de mínimos quadrados e método dos momentos são quase idênticos, especialmente para grandes amostras. Para o processo geral AR(p), os métodos utilizados para obter as equações (6.16) e (6.17) podem facilmente ser extendidos para produzir o mesmo resultado, ou seja,
b
µ = Z.
Para generalizar as estimativas dos φ0 s, nós podemos considerar o modelo de segunda ordem, AR(2). Substituindo µ por Z na função da soma de quadrados condicional
b X £¡ − ¢ − ¡ − ¢ − ¡ − ¢¤ X £¡ − ¢ − ¡ − ¢ − ¡ − ¢¤¡ − ¢ − X ¡ − ¢¡ − ¢ X ¡ − ¢ X ¡ − ¢¡ − ¢ P¡ − ¢ n
S (φ1 , φ2 ) =
Z t
∗
Z
φ1 Z t
Z
1
−
φ2 Z t
2
(7.19)
2
Z
1
Z = 0 (7.20)
−
t=3
Fazendo ∂ S /∂φ 1 = 0, temos ∗
n
2
Z t
Z
φ1 Z t
1
−
Z
φ2 Z t
2
−
Z
Z t
−
t=3
que podemos escrever como n
n
Z t
Z Z t
1
−
Z =
t=3
Z t
2
1
−
n
Z φ1 +
t=3
Z t
Z Z t
2
−
Agora se dividimos ambos os lados por
n
t=3
Z t
r1 = φ 1 + r1 φ2
1
−
t=3
Z φ2
(7.21)
2
Z , obtemos:
(7.22)
(7.23)
Fazendo o mesmo para ∂ S /∂φ 2 = 0, vamos ter ∗
r2 = r 1 φ1 + φ2
Podemos verificar que trata-se das equações de Yule-Walker amostrais para o modelo AR(2). Inteiramente análogo ao resultado obtido, segue-se para o caso do modelo geral AR(p), as estimativas de mínimos quadrados dos φ0 s, podem ser obtidas resolvendose as equações amostrais de Yule-Walker, e com uma boa aproximação. 51
[email protected]
7.3.2
CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
Modelos Médias Móveis
Considere agora a estimação de mínimos quadrados de θ no modelo MA(1): Z t = a t − θat
1
−
(7.24)
Vamos supor que o modelo MA(1) é invertível, ou seja, |θ| < 1, então podemos expressá-lo como Z t = −θZ t 1 − θ2 Z t 2 − ... + at (7.25) −
−
que é um modelo AR (∞) . Além disso, podemos obter o estimador de mínimos quadrados, escolhendo o valor do parâmetro que minimiza S (θ) = ∗
X
a2t
(7.26)
onde, implicitamente, a t = a t (θ) é uma função da série observada e o parâmetro θ . Da equação (6.25), claramente podemos observar que o problema de mínimos quadrados é não-linear nos parâmetros. Além disso, para o caso simples MA(1), S não pode ser minimizado analiticamente, e precisamos recorrer a técnicas de otimização numérica. Para uma da série observada Z 1 , Z 2 ,...,Z n e um particular valor de θ, vamos reescrever a equação (6.24) como ∗
at = Z t + θat
1
−
(7.27)
Utilizando a equação (6.27), os valores a1 ,...,an podem ser calculados recursivamente dado um o valor inicial a0 . Um condição inicial, que se utiliza é a0 = 0, obtendo a1 a2
= Z 1 = Z 2 + θa1
(7.28)
.. . an
= Z n + θan
1
−
P
e além disso calculamos S (θ) = nt=1 a2t , condicional a a0 = 0 para o particular valor de θ. Para o caso simples de um parâmetro, podemos variar θ no intervalo (−1, 1), que garante invertibilidade do modelo, e encontrar a soma de mínimos quadrados. Para os modelos MA(q), um algoritmo de otimização numérica, como o Gauss-Newton, é preferível. A aproximação de Gauss-Newton consiste em aproximar at = at (θ) para uma função linear de θ em torno da estimativa inicial θ. Que é ∗
b ³ b´ ³ − b´ b³ ´
at (θ) ≈ at θ + θ
θ
da t θ dθ
(7.29)
Nota-se que dat (θ) /dθ pode ser calculado recursivamente diferenciando ambos os lados da equação (6.27) para obter dat (θ) θ dat 1 (θ) = + at dθ dθ −
1 (θ )
−
(7.30)
com valor incial da t (θ) /dθ = 0. Desde que a aproximação em (6.28) é linear em θ, a soma de quadrados calculada pode ser minimizada analiticamente levando a uma nova estimativa de θ . Este processo pode ser repetido com θ substituído pela nova estimativa, calculando as mudanças em ambos, nas estimativas de θ e na soma de quadrados, quando a soma
b
52
[email protected]
CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
torná-se pequena e o parâmetro atingir a convergência. O método dos momentos pode ser utilizado para obter as primeiras estimativas de θ, mas em muitos casos o procedimento converge para a soma de mínimos quadrados de uma estimativa arbritária, tal como θ = 0.1. Para os modelos MA de altas ordens, as idéias são análogas. Nós calculamos at = at (θ 1 , ..., θ q ) recursivamente de at = Z t + θ 1 at
1 +
−
... + θq at
q
−
(7.31)
como a0 = a 1 = ... = a 1 q = 0. A soma de quadrados é minimizada conjuntamente com relação a θ1 , θ2 , ..., θq utilizando o algoritmo multivariado de Gauss-Newton (Box e Jenkins, 1976). −
7.3.3
−
Modelos Autoregressivos-Médias-Móveis
Vamos considerar somente o modelo ARMA(1,1): Z t = φ Z t
1 +
at − θ at
−
1
−
(7.32)
Como no caso MA, consideramos at = a t (φ, θ) e desejamos minimizar S (φ, θ) = n 2 t=1 at . Podemos reescrever a equação (6.32) como
P
∗
at = Z t − φZ t
1 +
−
θ at
1
−
(7.33)
Para obter a 1 , nós temos que supor Z 0 = 0 ( µ = 0) ou Z 0 = Z (µ = Z ). Entretanto, uma melhor aproximação, seria simplesmente minimizar nt=1 a2t . As derivadas necessárias para o algoritmo de Gauss-Newton podem de novo serem obtidas recursivamente da equação (6.33). Para o modelo geral ARMA(p,q), calculamos at = a t φ1 ,..., φp , θ1 , ..., θq para t = p + 1,...,n de
¡
at = Z t − φ1 Z t
1
−
− ... − φpZ t
p +
−
θ 1 at
1 +
−
P
¢
... + θ q at
q
−
(7.34)
P
com a p = a p 1 = ... = a 1 q = 0 e então numericamente minimizamos nt=1 a2t para obter as estimativas de mínmos quadrados condicional de φ1, ..., φp , θ1 ,..., θq . Um termo constante pode ser incluído no modelo. Para o conjunto de parâmetros θ1 , ..., θq , que corresponde a invertibilidade do modelo, os valores ap = ap 1 = ... = a1 q = 0 terão muito pouca in fluência nas estimativas finais dos parâmetros para grandes amostras −
−
−
7.4
−
Estimativas de Máxima Verossimilhança
A vantagem dos métodos de máxima verossimilhança é que todas as informações nos dados são utilizadas, ao invés de utilizar somente os primeiros momentos, como é o caso do mínimos quadrados. Outra vantagem é que, sobre certas condições gerais, muitos resultados já são conhecidos, para o caso de grandes amostras. Entretanto, uma desvantagem é que para os primeiros valores de t , devemos trabalhar especificamente com a função de densidade de probabilidade (f.d.p.) conjunta. Para um dado conjunto de observações Z 1 , Z 2,...,Z n , a função de verossimilhança L é definida como a f.d.p. conjunta dos dados observados, em função dos parâmetros do modelo. Para os modelos ARIMA, L será uma função de φ0 s, θ0 s, µ e σ 2a dadas as observações Z 1 , Z 2 ,...,Z n. Os estimadores de máxima verossimilhança são definidos como aqueles valores dos parâmetros, com relação aos dados observados, que são os mais verossímeis (prováveis), e maximizam a função de verossimilhança. 53
[email protected]
CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
Inicialmente analisaremos os modelos AR(1). A suposição mais comum é que o ruído branco seja uma variável aleatória normal independente, identicamente distribuída com média 0 e variância σ 2a , a f.d.p. para cada uma é f (a) =
¡ ¢ µ− ¶ − ∞ ∞ ¡ ¢ Ã− X ! 2πσ 2a
0.5
−
a2 2σ 2a
exp
,
< a<
(7.35)
e, como são v.a.i.i.d. a f.d.p. conjunta para a 2 ,...,an é 2πσ 2a
f ( a) =
Agora considerando
(n−1)/2
−
n
1
exp
2σ2a t=2
a2t ,
(7.36)
Z 2 − µ = φ (Z 1 − µ) + a2 Z 3 − µ = φ (Z 2 − µ) + a3
(7.37)
.. .
Z n − µ = φ (Z n
1
−
− µ) + an
Seja Z 1 = z1 , vamos utilizar uma transformação linear de a2 ,...,an e Z 2 ,...,Z n (com jacobiano igual a 1). Além disso, a f.d.p. conjunta de Z 2,...,Z n /Z 1 = z 1 pode ser obtida utilizando (6.37) pela substituição de a 0 s em termos dos z 0 s em (6.36)
¡ ¢ (µ− ¶ X ¡− ¢
f (z2 ,...,zn /z1 ) = 2πσ 2a
(n−1)/2
−
n
1
exp
2σ 2a
t=2
[(Z t − µ) − φ (Z t
1
−
− µ)]2
)
(7.38) Agora consideramos a f.d.p. marginal de Z 1 , que também é normal com média µ e variância γ 0 = σ 2a / 1 φ2 . Multiplicando (6.38) por f (z1 ) , temos f (z2 ,...,zn /z1 ) f (z1 ) =
f (z2 ,...,zn , z1 ) f (z1 ) f (z1 )
(7.39)
que a f.d.p. conjunta de Z 1 , Z 2 ,...,Z n . Interpretada como uma função de parâmetros φ, µ, e σ 2a , e a função de verossimilhança do AR(1) é dada por: L
onde
¡ ¢ ¡ ¢ ¡ − ¢ ∙− X − − − ¡− ¢ φ, µ, σ 2a
=
2πσ 2a
n/2
−
2 0.5
1
φ
exp
1
µ)]2 + 1
1
2σ 2a
¸
S (φ, µ)
(7.40)
n
S (φ, µ) =
[(Z t
µ)
φ (Z t
−
φ2 (Z 1
t=2
− µ)2
(7.41)
A soma S (φ, µ) é chamada a soma de quadrados não-condicional. Como regra geral o logaritmo da função de verossimilhança matematicamente, é mais conveniente, do que a anterior. Para o caso AR(1), a função log-verossimilhança, é dada por:
¡ ¢
λ φ, µ, σ 2a =
¡ ¢−
n n 1 log 2π − log σ2a + log 1 − φ2 2 2 2
¡ ¢
1 2σ 2a
S (φ, µ)
(7.42)
Dado os valores de φ e µ , λ φ, µ, σ 2a pode ser maximizada analiticamnete com relação a σ 2a : n 1 1 2 2 ∂λ =− + S (φ, µ) = 0 σa (7.43) 2 2 ∂σ a
2 σa
2
¡¢
54
−
[email protected]
CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
determinamos então o estimador de σ 2a , em termos de φ e µ : σ 2a =
S (φ, µ) n
σ 2a =
S (φ, µ) n−2
c c
ou
(7.44)
(7.45)
na primeira expressão o vício é menor. Considere agora a estimação de φ e µ . Uma comparação entre as duas soma de quadrados, condicional, S (φ, µ) , e não-condicional, S (φ, µ), vamos ter: ∗
¡ ¢
S (φ, µ) = S (φ, µ) + 1 − φ2 (Z 1 − µ)2 ∗
(7.46)
os valores de φ e µ que minimizam S ou S são semelhantes e ∗
S (φ, µ) ≈ S (φ, µ) ∗
7.5
(7.47)
Mínimos Quadrados Não-Condicional para o Modelo ARMA
A definição da função de verossimilhamça é associada a soma de quadrados nãocondicional. Para o modelo ARMA é consideravelmente mais complicada, então citaremos a expressão da forama da função da soma de quadrados não-condicional. Segundo Box e Jenkins (1976), temos que para o modelo geral ARMA (p,q) n
X
a2t
(7.48)
at = E (at /Z 1 ,...,Z n )
(7.49)
S (φ, θ , θ0 ) =
t=−∞
onde
b b
Note que, para t 5 0, o at será visto como “previsão” backward no tempo dos termos de a t , dado Z 1 ,...,Z n . Por esta razão, eles frequentemente tem sido chamados back forecasts , mas o termo mais apropriado é backcasts.
7.6
Propriedades das Estimativas
As propriedades dos estimadores de máxima verossimilhança e mínimos quadrados (condicional e não-condicional), são iguais para o caso de grandes amostras, e podem ser obtidas modificando-se a teoria de máxima verossimilhança nesses casos. Para mais detalhes consultar Box e Jenkins (1976) e Feller (1976). Para n suficientemente grande, os estimadores são não-viciados e seguem aproximadamente uma distribuição normal. As variâncias e correlações, para o AR, são as seguintes, AR(1) : AR(2) :
φ2
1
b − b b b b − −
V ar(φ) ≈
V ar(φ1 ) ≈ V ar(φ2 ) ≈
: Corr(φ1 , φ2 ) ≈
55
n
1 − φ22 n
φ1 = 1 φ2
−ρ1
(7.50)
[email protected]
CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
para o MA θ2
1
b − b b − b b −− µ ¶ − − b µ − ¶ b − −− £¡ ¢¡ ¢¤ − − b b
V ar(θ) ≈
MA(2) :
V ar(θ1 ) ≈ V ar(θ 2 ) ≈
n
: Corr(θ 1 , θ 2 ) ≈
e para o modelo ARMA ARMA(1, 1) : :
V ar(φ) ≈ V ar(θ ) ≈
Exercícios
n
θ1 1 θ2
1
2
θ2
1
2
n
1
(7.51)
θ 22
1
φ2
1
n
: Corr(φ, θ ) ≈
7.7
MA(1) :
1
φθ φ θ
φθ φ θ φ2
1
θ2
(7.52)
0.5
1 − φθ
1) Para uma série de tamanho 100, foi calculado r 1 = 0.8, r 2 = 0.5, r 3 = 0.4, Z = 2,
e uma variância amostral de 5. Se assumimos que o modelo AR(2) com um termo constante é adequado, como podemos obter as estimativas (simples) de φ 1 , φ2, θ0, e σ 2a ? 2) Assumindo que os seguintes dados sejam de um processo estacionário, calcule as estimativas de µ, γ 0 , e ρ1 : 6,
5,
4, 6, 4
3) Se {Z t } satisfaz um modelo AR(1) com φ ' 0.7, de que modo podemos estimar o verdadeiro valor de φ = ρ1 com uma confiança 95% que o nosso erro 5 ±0.1? 4) Considere um processo MA(1) para o qual sabemos que a média é zero. Baseado num série de tamanho 3, nós observamos Z 1 = 0, Z 2 = −1, e Z 3 = 0.5. a) Mostrar que a estimativa de mínimos quadrados condicional de θ = 0.5. b) Encontrar uma estimativa da variância do ruído σ2a. 5) Dado os dados Z 0 = 10, Z 1 = 10, Z 2 = 9, e Z 3 = 9.5, desejamos ajustar um
modelo IMA(1,1) com um termo constante. a) Encontrar a estimativa de mínimos quadrados condicional de θ . b) Estime σ 2a . 6) Considere duas parametrizações do modelo AR(1): I. Z t − µ = φ (Z t 1 − µ) + at II. Z t = φZ t 1 + θ0 + at −
−
onde θ0 = µ (1 − φ) . Estimar φ e µ ou φ e θ0 utilizando o mínimos quadrados condicionado a Z 1 . Mostrar que com o modelo I nós somos levado a resolver equações não-lineares para obter as estimativas, enquanto que no modelo II precisamos somente resolver equações lineares. 7) Suponha que para um modelo ARMA(1,1), com N=152, foi obtido: φ = 0.85, θ = − 0.6 e σ 2a = 0.086. Obtenha intervalos de con fiança para φ e θ , com nível de 95% de confiança. 56
[email protected]
CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
8) Uma série com 400 observações apresentou os seguintes resultados: j 1 2 3 4 5 6 7
0.8 -0.5 0.07 -0.02 -0.01 0.05 0.04 a) Explique por que podemos ajustar à série um modelo AR(2); b) Obtenha as estimativas de φ1 e φ2 do modelo AR(2) utilizando as equações de Yule-Walker, e as estimativas do termo θ0 e a V ar (at ) ; c) Verifique se o modelo ajustado satisfaz as condições de estacionariedade; d) Utilizando φ1 e φ2 como sendo os verdadeiros valores de φ 1 e φ 2 do processo AR(2), e determine os valores de ρ1 , ρ2 e ρ3. 9) Suponha que um programa de identi ficação forneceu os seguintes resultados: j 1 2 3 4 5 6 rj -0.82 0.41 -0.12 0.08 -0.09 0.05 φjj -0.82 -0.43 -0.05 0.25 0.20 0.12 φjj
b b
b b b
2 N = 100, Z = 0.08, S Z = 2.4. Identifique um modelo para Z t e obtenha as estimativas preliminares dos parâmet-
ros.
57
Capítulo 8
Diagnóstico do Modelo Nesta seção faremos o diagnóstico do modelo, começando com a análise residual, e depois análise de modelos sobre-parametrizada, que são, modelos mais gerais do que o modelo especificado mas contém o modelo especi ficado como um caso especial.
8.1
Análise Residual
No capítulo 3 apresentamos algumas idéias de análise residual para checar a adequacidade de uma tendência determinística ajustada. No modelo autoregressivo definimos facilmente os resíduos. Considere em particular um modelo AR(2) com um termo constante: Z t = φ 1 Z t 1 + φ2 Z t 2 + θ0 + at (8.1) tendo estimado φ 1 , φ2 , e θ 0 , os resíduos são de findos como: −
−
b − b − b − b b b at = Z t
φ1 Z t
φ2 Z t
1
−
2
−
θ0
(8.2)
Os resíduos iniciais a1 e a2 podem ser obtidos do procedimento de estimação utilizando valores passados para Z 0 e Z 1 . Para o modelo geral ARMA, precisamos colocar na forma autoregressiva de ordem infinita, para definir os resíduos, apresentada no capítulo 4, teremos então a seguinte equação −
X ∞
Z t =
π j Z t
j +
−
at
(8.3)
j
(8.4)
j=1
os resíduos serão definidos como
b − X b ∞
at = Z t
π j Z t
−
j=1
Aqui os πj não são estimados diretamente a expressão acima, mas de funções implicítas de φ0 s e θ0 s, utilizando a equação (6.34). No capítulo 8 veremos que a equação
b X b ∞
Z t =
π j Z t
j
−
(8.5)
j=1
é a melhor previsão de Z t baseada em Z t 1, Z t 2 , .... Além disso a equação (7.4) pode ser escrita como −
ou seja,
−
Resíduos = Real − Predito(estimado)
b
b
at = Z t − Z t
58
(8.6)
[email protected]
8.2
CAPÍTULO 8. DIAGNÓSTICO DO MODELO
Autocorrelação dos Resíduos
Para checar a independência do ruído (erro) no modelo, vamos considerar inicialmente a função de autocorrelação residual amostral, rk . Para um n suficientemente grande, verifica-se que os rk são normalmente distribuídos com média zero,
b
1 n
b
V ar (rk ) ≈
e
b
(8.7)
Corr (rk , rj ) ≈ 0, para k 6 = j
(8.8) Sempre sob a suposição que o modelo ajustado é apropriado. As autocorrelações rk são calculadas por
b b
P b b b P b n
at at
t=k+1 n
rk =
t=1
b
k
−
(8.9)
a2t
Se considerarmos um modelo AR(1) especificado e estimado corretamente, mostrase que para um n grande
b b b b
V ar (r1 ) V ar (rk )
e
φ2
, n 1 − 1 − φ2 φ2k n
≈
¡ ¢ ¡ ¡− ¢ ¢ − −
≈
Corr (r1 , rk ) ≈ − sin(φ)
onde
1
2
−
, k > 1,
φ2 φ2k
1
2
−
φ2 φ2k
1
(8.10)
2
−
, k > 1
(8.11)
⎧⎨ 1, se > 0 sin( ) = ⎩ −0,1, sese = < 00 φ φ φ
φ
Para um modelo AR(2) mostra-se que:
b
V ar (r1 ) ≈
e V ar (r2 ) ≈
b b
φ22
n
(8.12)
(8.13)
2
φ22 + φ21 (1 + φ2 )
n
Se os parâmetros φ1 e φ2 não estiverem na região de estacionariedade, então V ar (rk ) ≈
8.3
1 , para k = 3 n
(8.14)
O Teste de Box-Pierce
Box e Pierce (1970) propuseram um teste para as autocorrelações dos resíduos estimados, que, apesar de não detectar quebras especí ficas no comportamento de ruído branco, pode indicar se esses valores são muito altos. Se o modelo for adequado, a estatística: K
Q = n (n + 2)
X b− k=1
rk2
(n
k)
(8.15)
tem uma distribuição Qui-Quadrado, , com K − p − q graus de liberdade (Ljung e Box, 1978). A hipótese de ruído branco para os resíduos é rejeitada para valores grandes de Q . Em geral basta tomar as primeiras 20 ou 25 primeiras rk . χ 2
59
b
[email protected]
8.4
CAPÍTULO 8. DIAGNÓSTICO DO MODELO
Exercícios
1) Suponha que os resíduos obtidos ajustando-se o modelo
∆Z t
= (1 − 0.6X ) at a
uma série com N=127 observações, forneceram as seguintes autocorrelações residuais: k 1 2 3 4 5 6 7 8 9 10 rk (a) -0.4 0.02 -0.07 -0.01 -0.07 -0.02 -0.15 -0.07 0.04 0.02 a) Verifique se há valores discrepantes; b) Use o teste de Box-Pierce para veri ficar se o modelo é adequado. 2) Suponha que os resíduos obtidos, ajustando-se o modelo AR(2), φ1 = 1.56 e φ2 = 0.66, de uma série com N=120 observações, forneceu as seguintes autocorrelações residuais: j 1 2 3 4 5 6 7 8 9 10 11 ra ( j) 0.18 -0.06 -0.04 -0.11 -0.04 0.13 0.19 -0.14 0.07 0.09 0.11 a) Verifique através do teste de Box-Pierce se o modelo é adequado. b) Há indicações de valores discrepantes? 3) Suponha que os resíduos at do modelo (1 − X ) Z t = (1 + 0.6X ) at ajustados a uma série com N=80 observações, forneceu as seguintes autocorrelações residuais: k 1 2 3 4 5 6 7 8 9 10 ra (k) 0.39 0.2 0.09 0.04 0.09 -0.13 -0.05 0.06 0.11 -0.02 a) Verifique se o modelo é adequado utilizando a estatística de Box-Pierce. b) Há indicações de valores discrepantes?
b
b
b b
b
60
12 —0.09
Capítulo 9
Previsão com Modelos ARIMA Um dos principais objetivos da análise de séries temporais é fazer previsões futuras, a partir do modelo identi ficado, estimado e adequado. Neste capítulo vamos considerar os cálculos para as previsões, e apresentaremos, também, as suas propriedades para os modelos com tendência determinística e para modelos ARIMA.
9.1
Cálculo da Previsão de Erro Quadrático Médio Mínimo
Seja a série Z t , Z t 1 ,...,Z 1 , desejamos prever um valor Z t+h , ou seja, a origem t e o horinzonte h. A previsão de erro quadrático médio mínimo (EQMM), denotada por Z t (h) , é dada por −
b
b
Z t (h) = E (Z t+h /Z t , Z t
1 ,...,Z 1 )
−
(9.1)
(Rever as propriedades de esperança condicional e EQMM de Predição nos apêndices F e G).
9.2
Tendência Determinística
Considere o modelo com tendência determinística
Z t = µt + X t
(9.2)
onde o componente estocástico, X t , tem média zero e variância σ 2a . Para o modelo na equação (8.2) temos
b
Zt (h) =
ou
= =
¡¡
E µt+h + X t+h /Z t , Z t
¢ ¢ 1 ,...,Z 1
−
E µt+h /Z t , Z t 1 ,...,Z 1 + E (X t+h /Z t , Z t µt+h + E (X t+h ) −
b b
1 ,...,Z 1 )
−
Z t (h) = µ t+h , h = 1
(9.3)
desde que para h = 1, X t+h seja independente de Z t , Z t 1 ,...,Z 1 . Para o caso da tendência linear, µ t = β 0 + β 1 t, a previsão é −
Z t (h) = β 0 + β 1 (t + h)
61
(9.4)
[email protected]
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
Para uma tendência sazonal de 12 meses, µt = µt+12, nossa previsão será Z t (h) = µt+h = µt+12+h = Z t (h + 12) . Além disso, a previsão será periódica. O erro de previsão, e t (h) , é dado por
b
b
b
et (h) = = =
Z t+h − Z t (h) µt+h + X t+h − µt+h X t+h
então
E (et (h)) = E (X t+h ) = 0
(9.5)
estas previsões são não-viciadas, e
V ar [et (h)] = V ar (X t+h ) = γ 0
(9.6)
e a variância do erro de previsão.
9.3
Previsão ARIMA
Para os modelos ARIMA as previsões podem ser obtidas por diferentes caminhos. Cada expressão contribuie para o nosso entendimento dos procedimentos de previsão com respeito a cálculo, atualização, precisão, ou comportamento da previsão a longo prazo.
9.3.1
Modelo AR(1)
Considere o processo AR(1) com média diferente de zero (9.7) Considere a previsão de 1 unidade no tempo futuro (horizonte: h = 1). Substituindo t por t + 1 na equação (8.7), temos Z t − µ = φ (Z t
1
−
− µ) + at
Z t+1 − µ = φ (Z t − µ) + at+1
(9.8)
Dado que Z t , Z t 1 ,...,Z 1 , tomamos a esperança condicional de ambos os lados da equação acima e obtemos: −
b
Z t (1) − µ = φ E [(Z t /Z t , Z t
1 ,...,Z 1 )
−
− µ] + E [at+1/Z t , Z t
1 ,...,Z 1 ]
−
(9.9)
Agora das propriedades de esperança condicional sabemos que E (H (X ) /X = x) = H (x) , temos E (Z t /Z t , Z t 1 ,...,Z 1 ) = Z t (9.10) Além disso at+1 é independente de Z t , Z t 1 ,...,Z 1, obtemos então a seguinte equação −
−
E [at+1/Z t , Z t
1 ,...,Z 1 ]
−
= E (at+1) = 0
(9.11)
Sendo assim, podemos escrever
b
Zt (1) = µ + φ (Z t − µ)
(9.12)
Vimos que, uma proporção φ multiplica o desvio (Z t − µ) somado com a média teremos o próximo valor futuro (horizonte). Agora para o caso geral para um tempo futuro h. Substituindo t por t + h na equação (8.7), e tomando as esperanças condicionais de ambos os lados, obtemos
b
³ b
Zt (h) = µ + φ Z t (h − 1)
62
´ −
µ , h=1
(9.13)
[email protected]
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
b
desde que E (Z t+h 1 /Z t , Z t 1 ,...,Z 1) = Z t (h − 1) e, para h = 1 , at+h é independente de Z t , Z t 1 ,...,Z 1 . A equação (8.13) é recursiva em h, e é chamada de equação diferença de previsão. A partir da recursão obtemos a equação −
−
−
b
³ b − − ´ ³ bh − − i´ bh − i
Zt (h) = φ Z t (h
= φ φ Z t (h
.. .
= φh
1
b
µ +µ
2)
Z t (1)
−
ou
1)
µ
+µ
µ +µ
Zt (h) = µ + φh (Z t − µ) , h = 1
(9.14)
No caso geral, desde que |φ| < 1, temos simplesmente
b
Z t (h) ≈ µ, para h grande
9.3.2
(9.15)
Erro de Previsão
O erro de previsão a 1 passo, e t (1) , é dado como
b
et (1) = Z t+1 − Z t (1) = φ (Z t − µ) + µ + at+1 − [µ + φ (Z t − µ)]
ou
et (1) = a t+1
por
(9.16)
Da equação (8.16) veremos que a variância do erro de previsão a 1 passo é dada V ar [et (1)] = σ 2a
(9.17)
Para investigar as propriedades do erro de previsão a longo prazo, é conveniente expressar o modelo AR(1) na forma de um processo linear geral, ou MA (∞) Z t = µ + at + φat
1 +
−
φ2 at
2 +
...
−
(9.18)
Temos então et (h) = Z t+h − µ − φh (Z t − µ) = at+h + φat+h 1 + ... + φh
1
−
−
at+1 + φh at + ... − φh (at + φat
1 +
−
vamos ter et (h) = a t+h + φat+h
1 +
−
... + φh
1
−
at+1
...)
(9.19)
que pode ser escrito como h−1
et (h) =
X
ψj at+h
j
−
(9.20)
j=0
esta equação pode ser utilizada para o caso geral dos modelos ARIMA. Note que E [et (h)] = 0, assim as previsões são não-viciadas. Portanto da equação (8.20) temos h−1
V ar [et (h)]
= σ 2a
X
ψ 2j
j=0
Nós vimos que a variância do erro de previsão cresce quando h aumenta. 63
(9.21)
[email protected]
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
Em particular para o caso AR(1) V
− φ2h , 1 − φ2
1 ar [et (h)] = σ 2a
Para o tempo a longo prazo temos V ar [et (h)] ≈ σ 2a
ou
1 1 − φ2
h > 1
(9.22)
, para h grande
(9.23)
V ar [et (h)] ≈ V ar (Z t ) = γ 0 , para h grande
(9.24)
A equação (8.24) será válida para todos os processos ARMA estacionários.
9.3.3
Modelo MA(1)
Vamos considerar o caso MA(1) com a média diferente de zero: Z t = µ + at − θat
1
−
(9.25)
De novo substituindo t por t + 1 na equação (8.25) e tomando as esperanças de ambos os lados, temos
b
Z t (1) = µ − θE (at /Z t , Z t
1 ,...,Z 1 )
−
(9.26)
Entretanto, vimos no capítulo 4 que, para um modelo invertível, at é uma função de Z t , Z t 1 , ....Assim utilizando as propriedades de esperança condicional temos −
E (at /Z t , Z t
1 ,...,Z 1 ) = a t
−
(9.27)
Utilizando (8.27) e (8.26), temos que a previsão a 1 passo para o modelo MA(1) invertível é: Zt (1) = µ − θat (9.28)
b
9.3.4
Erro de Previsão
O erro de previsão a 1 passo é dado por
b−
et (1) = Z t+1 − Zt (1) = µ + at+1 et (1) = at+1
θat
− (µ − θat)
do processo linear geral temos ainda que h−1
et (h) =
X
ψj at+h
j
−
j=0
e
h−1
V ar [et (h)]
= σ 2a
X
ψ 2j
j=0
com ψ1 = −θ e ψj = 0 para j > 1. Para um tempo a longo prazo temos
b
Zt (h) = µ + E (at+h /Z t , Z t
1 ,...,Z 1 )
−
− θE (at+h
1 /Z t , Z t−1 ,...,Z 1 )
−
Mas para h > 1 ambos a t+h e a t+h 1 são independentes de Z t , Z t 1 ,...,Z 1 . Consequentemente, estes valores esperados condicionais são zero, e temos −
b
−
Zt (h) = µ, para h > 1
64
(9.29)
[email protected]
9.3.5
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
O Caminho Aleatório
Para ilustrar a previsão com séries não-estacionárias, considere o caminho aleatório definido por Z t = Z t 1 + θ0 + at , para t = −m (9.30) −
Aqui
b
Zt (1) = E (Z t /Z t , Z t
e
1 ,...,Z 1 ) +
−
θ0 + θ E (at+1/Z t , Z t
1 ,...,Z 1 )
−
b
Zt (1) = Z t + θ 0
(9.31)
Similarmente, a forma da equação diferença para o h a longo prazo é
b b b
Z t (h) = Zt (h − 1) + θ 0 , h = 1
(9.32)
Recursivamente podemos obter a expressão Zt (h) = Z t + hθ0 , h = 1
Se θ0 = 6 0, a previsão não converge a longo prazo, mas segue uma linha reta com inclinação θ0 para todo h. Note que a presença ou falta do termo constante θ0 altera significativamente a previsão. Portanto, os termos constantes não são incluídos nos modelos ARIMA a menos que, haja evidência que a média na série diferençada seja signi ficativamente diferente de zero.
9.3.6
Erro de Previsão
Vimos que nos modelos AR(1) e MA(1), o erro de previsão a 1 passo é
b
et (1) = Z t+1 − Z t (1) = a t+1
Também aqui temos
b
et (h) = Z t+h − Z t (h) = (Z t + hθ 0 + at+1 + ... + at+h ) − (Z t + hθ0 ) h−1
=
X
at+h
j
−
j=0
de acordo com a equação (8.20), desde que no modelo ψj = 1 para todo j. Da equação (8.21) nós temos h−1
V
ar [et (h)] = σ 2a
X
12
j=0
que é,
V ar [et (h)] = hσ 2a , h = 1
(9.33)
Em contraste com o caso estacionário, aqui V ar [et (h)] cresce sem limite a medida que o h aumenta. Nós vimos que esta propriedade é característica da variância do erro de previsão para todos os processos ARIMA não-estacionários.
65
[email protected]
9.4
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
Modelo ARMA Estacionário - Caso Geral
Para o caso geral do modelo ARMA(p,q) estacionário e invertível, a forma da equação diferença para o cáculo da previsão é dada por
b
b
b
b
Z t (h) = φ1 Z t (h − 1) + φ2 Zt (h − 2) + ... + φpZ t (h − p) + θ 0 −θ1E (at+h 1/Z t, Z t 1,...,Z 1) − θ2E (at+h 2/Z t , Z t −
−... − θE (at+h
−
q /Z t , Z t−1 ,...,Z 1 )
−
(9.34)
1 ,...,Z 1 )
−
−
onde E (at+j /Z t , Z t
1 ,...,Z 1 )
−
b
=
½
0, para j = 1 at+j , para j 5 0
(9.35)
Notamos que Z t ( j) é uma previsão verdadeira para j > 0 , mas
9.4.1
b
Z t ( j) = Z t+j , para
− ( p − 1) 5 j 5 0
(9.36)
Modelo ARMA(1,1)
Considere o modelo ARMA(1,1), temos
b b b b b −
Z t (1) = φ Z t + θ0 − θ at
com
(9.37)
Z t (2) = φ Zt (1) + θ0
e para caso mais geral
1) + θ 0 para h = 2
Zt (h) = φ Z t (h
(9.38)
As equações (8.37) e (8.38) podem ser resolvidas recursivamente para obter-se a expressão Zt (h) = µ + φh (Z t − µ) − φh 1 θ at , para h = 1 (9.39) Como as equações (8.34) e (8.35) indicam, os termos do ruído at , at 1 ,...,at (q 1) aparecem diretamente no cálculo das previsões para h = 1, 2,...,q. Entretanto, para h > q tomamos a parte autoregressiva da equação diferença, ou seja,
b
−
−
b b − b¡ − b ¢ − − − − − b − bh − − i bh − − i bh b − Zt (h) = φ 1 Zt (h
1) + φ2 Z t (h
Se considerarmos θ 0 = µ 1
Z t (h) µ = φ 1 Z t (h
1)
φ1
2) + ... + φp Zt (h ...
φ2
µ +φ2 Zt (h
φp
2)
−
−
p) + θ0 para h > q (9.40)
, podemos escrever (8.40) como
µ +...+φp Zt (h − p)
i −
µ para h > q
(9.41) No processo estacionário ARMA, Zt (h) µ decai para zero quando h aumenta, e a longo prazo a previsão é simplismente a média do processo, como visto anteriormente.
9.5
Modelos Não-Estacionários ARIMA
Como foi mostrado no caminho aleatório, a previsão dos modelos ARIMA é semelhante a previsões para o modelo estacionários ARMA, mas existe algumas diferenças. Vamos considerar um modelo ARIMA(p,1,q), que pode ser escrito como um ARMA(p+1,q) não-estacionário, ou seja, Z t
= ϕ1 Z t 1 + ϕ2 Z t 2 + ... + ϕp+1Z t p +at − θ 1 at 1 − θ2 at 2 − ... − θq at > −m −
−
−
para t
−
−
66
1 +
−
θ0
q
−
(9.42)
[email protected]
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
onde ϕ1 ϕj ϕp+1
= 1 + φ1 = φj − φj = −φp
1,
(9.43)
j = 2, 3,...,p
−
para a ordem geral de d diferenças, substituimos p + d por p + 1, e vamos ter p + d coeficientes ϕ .
9.5.1
Modelo ARIMA(1,1,1)
Considere o modelo Z t − Z t
1 = φ (Z t−1
−
− Z t
2) +
−
θ0 + at
− θat
1
−
(9.44)
ou Z t = (1 + φ)Z t
1
−
A previsão será dada por
b b b
− φZ t
2 +
θ 0 + at
−
Z t (1) = (1 + φ)Z t − φZ t
1 +
−
b b
− θat
1
−
− θat
θ0
(9.45) (9.46)
Z t (2) = (1 + φ)Zt (1) − φZ t + θ0
.. .
b
Z t (h) = (1 + φ)Zt (h − 1) − φZ t (h − 2) + θ0 para h > 2
9.5.2
Erro de Previsão
O erro de previsão será dado por h−1
et (h) =
X
ψ j at+h
j,
−
h=1
(9.47)
j=0
com
E [et (h)] = 0, h = 1
e
(9.48)
h−1
V
ar [et (h)] = σ 2a
X
ψ 2j , h = 1
(9.49)
j=0
Entretanto, para os modelos não-estacionários os pesos ψj não decaem para zero quando j aumenta. Além disso, para alguns modelos não-estacionários, a equação (8.49) mostra que o a variância do erro de previsão crescerá sem limite quando o h aumenta. Este fato não será também uma supresa, desde que com séries nãoestacionárias o futuro distante é quase incerto.
9.6
Atualização das Previsões
Vamos calcular as previsões de Z t+h+1 feitas a partir de duas origens: t+1
bb b
: Zt +1 (h) = ψ h at+1 + ψ h+1at + ψ h+2at
1 +
−
t : Zt (h + 1) = ψ h+1at + ψ h+2at
1 +
−
...
...
(9.50) (9.51)
Subtraindo (8.51) de (8.50) temos que:
b
Z t+1 (h) = Z t (h + 1) + ψ h at+1
67
(9.52)
[email protected]
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
Assim, a previsão de Z t+h+1, feita no instante t, pode ser atualizada quando um novo dado, Z t+1, é observado. Deste modo, faremos a previsão de Z t+h+1, na origem t + 1, adicionando-se à Zt (h + 1) um múltiplo do erro de previsão et (1) =
b
b
Z t+1 − Z t (1) = a t+1.
9.7
Intervalo de Confiança para Previsão
Para um modelo com tendência determinística com ruído branco a t , nós temos que
b
Z t (h) = µt+l
e
V ar [et (h)] = V ar (at+h ) = γ 0
¡ ¢
b #
Se a t N 0, σ 2 , então o erro de previsão e t (h) = Z t+h − Zt (h) = at+h é normalmente distribuído. Além disso, para um dado nível de con fiança 1 − α, podemos utilizar a tabela da normal padronizada para encontrar um intervalo de (1 − α/2) 100% de confiança, ou seja ∼
P
"−
z (1 − α/2) <
ou
bh
P Zt (h) − z (1 − α/2)
p
p b
Z t+h − Z t (h) < z (1 − α/2) = 1 − α V ar [et (h)]
b p
V ar [et (h)] < Z t+h < Z t (h) + z (1 − α/2)
p
(9.53)
i
V ar [et (h)]
(9.54) temos que (1 − α/2) 100% de confiança que as observações futuras estarão contida dentro dos limites Z t (h) ± z (1 − α/2) V ar [et (h)] (9.55)
9.8
b
Transformações e Previsões
Se Z t é a série original, e Y t = g (Z t ) é uma transformação (instantânea, que não involve Z t j , j = 1) de Z t . Uma das principais razões de se fazer uma transformação é que Y t pode ser Gaussiana e, neste caso, a previsão ótima (no sentido de mínimos quadrados) é uma função linear das observações. Em Econmia, é comum termos séries com tendência na média, de modo que tomando-se diferenças obtêm-se séries estacionárias. Mas se a variância aumenta com o tempo, só tomar diferenças pode não ser su ficiente e uma transformação dos dados deverá ser tentada. O usual, para séries econômicas, é tomar uma diferença do logaritmo da série original. Para que a transformação logarítmica seja apropriada, a média e o desvio-padrão (ou outra medida de variabilidade) deverão ser proporcionais. O problema que se apresenta é o de obter previsão para Z t+h , dado que temos um modelo para Y t e temos previsões para: −
Y t+h = g (Z t+h )
(9.56)
Uma maneira “ingênua” de proceder é considerar a equação (8.56) e substituir previsões por valores futuros:
b
³ b ´
Yt (h) = g Z t (h) .
68
(9.57)
[email protected]
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
b b
b
Depois, tentamos obter Z t (h) em função de Yt (h) a partir de (8.57); em particular, se g admite inversa, temos que Z t (h) = g
Por exemplo, se
1
−
b³ ´
Yt (h) .
Y t = ln Z t
(9.58)
então Z t = exp (Y t ), e uma previsão para Z t+h será
b³ ´
b µ b
Z t (h) = exp Yt (h)
é:
(9.59)
Contudo, pode-se demonstrar que, no caso de Y t ser gaussiana, a previsão ótima 1 exp Yt (h) + V ar [et (h)] 2
¶
(9.60)
Vemos, então, que o procedimento (8.59) conduz a previsões viciadas e, como consequência, o EQM de previsão aumentará. Se Y t = ln Z t segue um modelo ARIMA, então sabemos que a distribuição condiconal de Y t+h , dado o passado, é N Y t (h) , V a r [et (h)] , e um intervalo de confiança para Y t+h , com coeficiente de 95% de con fiança, será
´ b³ ³d ´ ³d ´ ¶
b µ b
Yt (h) ± 1.96 V ar [et (h)]
0.5
(9.61)
Daqui, segue-se que um intervalo de con fiança para Z t+h , com coeficiente de 95% de confiança, será exp Yt (h) ± 1.96 V ar [et (h)]
d
0.5
(9.62)
Lembremos que V ar [et (h)] é a estimativa de V ar [et (h)], com σ2a substituído por σ 2a, no ajuste do modelo Y t .
c
9.9
9.9.1
Resumo de Previsões para alguns Modelos ARIMA AR(1): Z t − µ = φ (Z t−1 − µ) + at
³ b
b
Z t (h) = µ + φ Zt (h − 1) − µ = µ + φh (Z t − µ) µ para h grande ≈
V ar [et (h)] = σ 2a ≈
ψj
´
1 − φ2h 1 − φ2
σ 2a
1 − φ2
para h grande
= φj para j > 0
69
[email protected]
9.9.2
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
MA(1): Z t = µ + at − θat−1
½− ½ ¡ ¢ ½−
Z t (h) =
µ para h > 1
V ar [et (h)] = ψj
9.9.3
θ at para h = 1
µ
b
σ 2a para h = 1 1 + θ2 para h > 1
σ 2a
θ para h = 1
=
0 para h > 1
IMA(1,1) com termo constante: Z t = Z t−1 + θ0 + at − θat−1
b b
Zt (1) =
Z t + θ0 − θat
Z t (h) =
Z t + hθ 0 − θ at
X − £ − ¡ − ¢¤ ∞
=
hθ 0 + (1
θ j Z t
θ)
j
−
j=0
σ 2a
V ar [et (h)] = ψj =
θ2
1 + (h
1) 1 1 − θ para j > 0
6 0, a previsão segue uma reta com inclinação θ 0 , mas se θ0 = 0, Note que se θ0 = que é o caso usual, então Zt (h) é o mesmo para todo h.
9.9.4
b
IMA(2,2): Z t = 2Z t−1 − Z t−2 + θ 0 + at − θ1at−1 − θ2 at−2
b b b
Zt (1) = Zt (2) =
Zt (h) = =
− θ1at − θ2at 1 2Zt (1) − Z t + θ0 − θ 2 at 2Zt (h − 1) − Zt (h − 2) + θ 0 , para h > 2 2Z t − Z t
1 +
θ0
θ0
b
−
b b
A + Bh +
2
(9.63)
−
h 2 , para h = 1
onde
b b b −b
e
A = 2Z t (1) − Zt (2) + θ 0
(9.64)
3 Zt (1) − θ 0 2
(9.65)
B = Z t (2)
6 0, então a previsão segue uma curva quadrática em h, mas se θ0 = 0, a Se θ0 = previsão forma uma linha reta com inclinação Z t (2) − Z t (1) e passará através das duas previsões iniciais Zt (1) e Zt (2). Podemos mostrar que a V ar [et (h)] é uma função cúbica de h (Box e Jenkins,1976). Nós temos também
b b
ψ j = 1 + θ2 + (1
9.10
b b
− θ1 − θ2) j para j > 0
(9.66)
Exercícios
b
1) Para um modelo AR(1) com Z t = 12.2, φ = −0.5, e µ = 10.8, encontrar Z t (1) . 2) Suponha que as vendas anuais (em milhões de reais) de uma empresa, segue
o modelo AR(2):
Z t = 5 + 1.1Z t
1
−
− 0.5Z t 70
2 +
−
at , com σ2a = 2
[email protected]
CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
a) Se as vendas para 1985, 1984, e 1983 foram R$10 milhões, R$11 milhões, e R$9 milhões, respectivamente, prever as vendas para 1986 e 1987. b) Mostrar que ψ1 = 1.1 para este modelo. c) Calcule um intervalo de 95% de con fiança para os anos de 1986 e 1987. d) Se as vendas em 1986 são de R$12 milhões, qual será a previsão para 1987. 3) Considere o modelo Z t = β 0 + β 1 t + X t com X t = φ X t
1 +
−
at
Assumindo que β 0 , β 1 , e φ são conhecidos. Mostrar que o eqm mínimo de previsão a h passos a frente pode ser escrito como
b
Z t (h) = β 0 + β 1 (t + h) + φh (Z t − β 0 − β 1 t)
4) Verifique a equação (8.22) 5) Verifique a equação (8.39) 6) Obtenha a função de previsão Z t (h) , h = 1, 2,..., para os seguintes modelos
b
ARIMA: a) 1 − X − 0.25X 2 Z t = (1 + 0.5X ) at b) Z t 1 − 0.5X + 0.5X 2 = a t 1 − 0.5X − 0.25X 2 7) Considere o modelo Z t − µ = 0.8(Z t − µ) + a t , at N (0, 1) . Suponha os seguintes dados: t 1 2 3 4 5 6 7 Z t 6 5 4 6 4 7 5 Obtenha: a) Zt (h) para h = 1, 2, 3 e 25. b) A V ar [et (h)] para h = 1, 2, 3 e 25. c) Os intervalos com 95% de confiança para Z 8 , Z 9 e Z 10 . 8) As seguintes observações Z 91 , Z 92 ,...,Z 100 representam os valores de uma série temporal ajustada pelo modelo:
¡¡
¢ ¢ ¡
¢
∼
b
Z t − Z t
1
−
Z
= at − 1.1at 1 + 0.3at 2 , onde os valores são = [166; 172; 172; 169; 164; 168; 171; 167; 168; 172] −
−
b
a) Calcule as previsões Z1 00 (h), h = 1, 2, ..., 10 (utilize a99 = a100 = 0). b) Sabendo que σ2a = 1.1, calcule a V ar [et (h)], h = 1, 2,...10 e construa intervalos de confiança para os valores Z t+h . c) Determine os coe ficientes ψj e, utilizando a nova observação Z 101 = 174, calcule as previsões atualizadas Z 101 (h) , h = 1,..., 9. 9) Considere o modelo Z t = 0.8Z t + at , com a t N (0, 1) . a) Obtenha Z t (h) para h = 1, 2, 3, 4. b) Obtenha a V ar [et (h)], h = 1, 2, 3, 4. t 1 2 3 4 5 6 7 c) Suponha os dados: Z t 0.66 0.57 0.66 -1.47 -1.38 -1.9 -0.7 c.1) Calcule Zt (h) para h = 1, 2, 3, 4. c.2) Obtenha um intervalo de 95% de con fiança para Z 8 e Z 9 . 10) a) Mostre como se faz previsões no modelo ARIMA(1,1,1) utilizando a equação diferença. Utilize o fato que Z t+1 − Z t (1) = at+1 para que as previsões fiquem apenas em função das observações. b) Mostre como previsões podem ser atualizadas. c) Utilizando o modelo do item a), suponha que sua série é Z 1, Z 2 ,...,Z 100. Quando o valor real Z 101 for conhecido como você atualizaria sua previsão?
b b
b b
b
∼
b
71
Capítulo 10
Modelos Sazonais No capítulo 3 vimos um pouco sobre tendência sazonal, neste capítulo vamos estudar os modelos sazonais determinísticos e estocásticos, procurando dar mais enfase aos modelos estocásticos, ou seja, os modelos de Box-Jenkins, para séries sazonais, chamados SARIMA. É possível que, mesmo após eliminar a componente sazonal determinística, ainda reste correlação significativa em: (i) ”lags ” de baixa ordem, indicando que os resíduos ainda são correlacionados, podendo-se ajustá-los através de um modelo ARIMA; (ii) ”lags ” sazonais, isto é, múltiplos de período s. Isto significa que há necessidade de se considerar uma sazonalidade estocástica, ou seja, ajustar à série original um modelo ARIMA sazonal (SARIMA). Consideraremos, por simplicidade, dados observados mensalmente e sazonalidade de período s = 12. Trataremos, separadamente, os dois tipos de sazonalidade.
10.1
Sazonalidade Determinística
Quando Z t exibe um comportamento sazonal determinístico com período 12, um modelo que pode ser útil é:
Z t = µt + N t
(10.1)
onde µ t é uma função determinística períodica, satisfazendo µt − µt
12 =
−
¡− ¢ 1
X 12 µt = 0
0, ou
(10.2)
e N t é um processo estacionário que pode ser modelado por um ARMA( p, q ). Dessa maneira, N t satisfaz à equação
φ (X ) N t = θ (X ) at
(10.3)
onde a t é ruído branco e µ t tem solução geral dada por: 6
µt = µ +
X∙ j=1
(2 π jt) (2π jt) αj cos + β j sen 12 12
¸
(10.4)
onde µ, αj , β j , j = 1, ..., 6, são constantes desconhecidas. Para um modelo sazonal determinístico, aplicando a diferença sazonal 1 − X 12 à expressão (9.1), temos:
¡− ¢ ¡− ¢ ¡− ¢ 1
X 12 Z t = 1
X 12 µt + 1
72
X 12 N t
¡ ¢
(10.5)
[email protected]
CAPÍTULO 10. MODELOS SAZONAIS
de acordo com (9.2), temos:
¡− ¢ ¡− ¢ ¡− ¢
Substituindo (9.3) em (9.5), temos: 1
X 12 Z t
=
φ (X ) 1
X 12 Z t
=
φ (X ) W t
=
¡ ¢
onde W t = 1 − X 12 Z t .
10.2
¡ ¢ ¡− ¢ ¡¡ − ¢¢ −
X 12 Z t = 1 − X 12 N t
1
θ (X ) at φ (X )
1
X 12
1
X 12 θ (X ) at
1
X 12 θ (X ) at
(10.6)
(10.7)
Identificação
A identificação de modelos da forma (9.7) é feita em 2 passos: I. Obtemos as estimativas preliminares µ, αj , β j de µ, αj e β j , j = 1, ..., 6, em πjt) π jt) (9.4), através de uma análise de regressão de Z t sobre 1, sen (212 e cos (212 ,
ee e
j = 1, ..., 6.
II. Calculamos os resíduos: 6
e − e − X ∙e
Nt = Z t
µ
j=1
(2 π jt) (2π jt) + β j sen αj cos 12 12
e
¸
e examinamos as funções de autocorrelação e autocorrelação parcial para identi ficar um modelo ARMA(p,q) para N t .
10.3
Estimação
A estimação de máxima verossimilhança dos parâmetros µ, αj e β j , j = 1,..., 6, é obtida por métodos similares aqueles apresentados na estimação dos parâmetros de um modelo ARMA.
10.4
Previsão
As previsões de valores futuros Z t+h , dados Z 1 ,...,Z t , são obtidos observando que:
b
Zt (h) = = =
vamos ter
E (Z t+h /Z t , Z t 1 ,...,Z 1 ) E µt+h + N t+h /Y t , Y t 1 ,...,Y 1 µt+h + E (N t+h /Y t , Y t 1 ,...,Y 1 ) −
¡
−
−
b
c
Z t (h) = µt+h + Nt (h)
ce
¢
(10.8)
onde µt+h e Nt (h) são calculados utilizando os modelos (9.4) e (9.3), respectivamente. O µt é obtido através de (9.4), substituindo cada um dos parâmetros pelos seus estimadores de minímos quadrados de µ, αj e β j e substituindo N t por
e
Nt = Z t − µt .
e
73
[email protected]
10.5
CAPÍTULO 10. MODELOS SAZONAIS
Sazonalidade Estocástica
Pode ser adequado considerar µ t em (9.1) como um processo estocástico satisfazendo: 1 − X 12 µt = Y t (10.9)
¡ ¢ ¡− ¢ ¡− ¢ ¡− ¢ ¡− ¢ ¡− ¢
¡ ¢
onde Y t é um processo estacionário. Aplicando, agora, o operador 1 − X 12 à equação (9.1), obtemos: 1
X 12 Z t = 1
X 12 µt + 1
X 12 N t
De acordo com (9.9), temos:
X 12 Z t = Y t + 1
1
X 12 N t
(10.10)
com φY (X ) Y t = θ Y (X ) at e φN (X ) N t = θ N (X ) εt , onde at e εt são ruídos brancos independentes. Podemos demonstrar que a expressão (9.10) é equivalente a:
¡− 1
12
Φ1 X
¢¡ − ¢ ¡ − ¡ ¢ ¡ ¢ ¢ − − ¡ − ¡ −¢ − ¢ −
− ... − ΦP X 12P
ou
Φ
¡−
1
X 12
X 12
D
D
Z t = 1
∆12 Z t = Θ
12
Θ1 X
− ... − ΘQX 12Q
¢
αt
(10.11)
X 12 αt
(10.12)
onde Φ (X ) = 1 Φ1 X 12 ... ΦP X 12P é o operador AR-Sazonal de ordem P, estacionário; Θ (X ) = 1 Θ1 X 12 ... ΘQX 12Q é o operador MA-Sazonal de ordem Q, invertível; ∆12 = 1 X 12 é o operador diferença Sazonal; ∆12 = D 1 − X 12 , indicando o número de ”diferenças sazonais ”, onde αt pode ser, eventualmente, ruído branco; neste caso, a fac do processo Z t é zero para todos os ”lags ” não-sazonais e o modelo (9.11) é denominado modelo sazonal puro. Supondo, que o processo α t em (9.12) satisfaz um modelo ARIMA(p,d,q ),
¡ ¢
φ (X ) αt = θ (X ) at
(10.13)
onde at é um processo de ruído branco. Então, demonstra-se que Z t satisfaz o modelo 12 φ (X ) Φ X 12 ∆D at (10.14) 12 Z t = θ (X ) Θ X
¡
¡ ¢
¡ ¢
¢
onde φ (X ) = 1 − φ1X − ... − φp X p e θ (X ) = (1 − θ1 X − ... − θq X q ), e os demais polinômios definidos em (9.12). O modelo (9.14) é denominado ARIMA sazonal multiplicativo (SARIMA) de ordem (p,d,q)×(P,D,Q)12 .
10.6
Identificação, Estimação e Verificação
Em princípio não teremos nenhuma di ficuldade adicional nestas três etapas para os modelos sazonais. A diferença é que temos que diferençar a série com respeito a ∆ e ∆12 (se s = 12), a fim de produzir estacionariedade, obtendo valores para d e D. Inspecionamos as fac e facp amostrais da série adequadamente diferençada nos ”lags ” 1,2,3,... para obter valores de p e q nos ”lags ” 12,24,36,... para obter valores de P e Q, selecionando-se, desse modo, um modelo tentativo. Estimam-se os valores dos parâmetros identificados, utilizando estimadores de máxima verossimilhança. Finalmente, para verificar se o modelo proposto é adequado, utilizam-se testes de autocorrelação residual, Box-Pierce, etc. 74
[email protected]
CAPÍTULO 10. MODELOS SAZONAIS
10.7
Exemplos de Modelos Sazonais
10.7.1
Exemplo 1
Modelo Sazonal MA(Q )s de ordem Q: Z t = a t − Θ1 at
s
−
com polinômio característico sazonal MA
¡−
Θ (X ) =
1
− ... − ΘQat
Qs
−
s
Θ1 X
− ... − ΘQX sQ
(10.15)
¢
(10.16)
podemos verificar que esta série é estacionária e que a fac será diferente de zero somente nos ”lags ” sazonais de s, 2s, 3s,..., Qs. Temos um caso especial quando q = Qs , com todos os θ 0 s = 0, exceto para s, 2s, ..., Qs. Particularmente, ρks =
−Θk + Θ1Θk+1 + ... + ΘQ 1+
... +
o modelo será invertível se as raízes de absoluto.
10.7.2
k ΘQ
−
Θ2 1 +
Θ2 Q
, k = 1,...,Q
(10.17)
= 0 excede a unidade em valor
Θ (X )
Exemplo 2
Modelo Sazonal AR(P)s de ordem P: Z t =
Φ1 Z t−s +
... + ΦP Z t
P s +
−
com polinômio característico sazonal AR Φ (X )
¡
at
= 1 − Φ1 X 12 − ... − ΦP X 12P
¢
(10.18)
(10.19)
Estamos supondo que at é independente de Z t 1, Z t 2 ,... e, para a série ser estacionária as raízes de Φ (X ) = 0 são maiores que 1 em valor absoluto. Novamete um caso especial é quando p = P s, com todos os φ0 s = 0, exceto nos ”lags ” s, 2s,...,Ps.
10.7.3
−
−
Exemplo 3
Modelo Sazonal Multiplicativo ARMA(p,q)×(P, Q)s :
¡ ¢
¡ ¢ ¡ ¢
φ (X ) Φ X 12 Z t = θ (X ) Θ X 12 at
com polinômios característicos AR ’s φ (X ) e Θ
¡ ¢
Φ
X 12 .
10.7.4
(10.20)
X 12 , e polinômios MA’s θ (X ) e
Exemplo 4
Modelo ARIMA(0,1,1)×(1, 0, 1)12 Z t − Z t
1 = Φ (Z t−12
−
− Z t
13 ) +
−
at − θ at
A função de previsão a um passo é dada por:
b b
Z t (1) = Z t + ΦZ t Z t (2) =
1
−
− Θat
12 +
−
θ Θat
13
−
(10.21) (10.22)
− ΦZ t 12 − θat − Θat 12 + θΘat 12 Zt (1) + ΦZ t 10 − ΦZ t 11 − Θat 10 + θ Θat 11 11
−
b
−
−
−
−
−
−
−
Os termos do ruído a t 13 , at 12 ,...,at entram na previsão para h = 1, 2,..., 13, mas para h > 13 tomamos a parte autoregressiva do modelo, e temos −
−
b b
Zt (2) = Z t (h − 1) + ΦZ t (h − 12) − ΦZ t (h − 13) , para h > 13
(10.23)
Para entender melhor os modelos de previsão, vamos considerar alguns casos especiais a seguir. 75
[email protected]
10.7.5
CAPÍTULO 10. MODELOS SAZONAIS
Exemplo 5
O modelo sazonal AR(1)12 Z t =
Vamos ter então
ΦZ t−12 +
b b b Zt (h) =
ΦZ t (h
at
− 12)
Entretanto podemos escrevê-lo como
Z t (h) = Φk+1Z t+r
11
−
(10.24)
(10.25)
(10.26)
onde k e r são definidos por h = 12k + r + 1 com 0 5 r < 12 e k = 0, 1, 2, ....Em outras palavras, k é a parte inteira de (h − 1) /12, e r/12 é a parte fracional de (h − 1) /12.
Vamos determinar os pesos ψ 0 s para esse modelo, sabendo que, somente para os múltiplos de 12, eles são diferente de zero, ou seja ψj =
½
Φj/12, j =
0, 12, 24,...
0, caso contrário
(10.27)
temos então que a variância do erro de previsão pode ser escrita como V ar [et (h)] =
onde h = 12k + r + 1.
10.7.6
1 − Φ2k+2 2 σ 1 − Φ2 a
(10.28)
Exemplo 6
Modelo sazonal MA(1)12, temos Z t = a t − Θat
12 +
−
θ0
(10.29)
(10.30)
Neste caso temos a seguinte função de previsão
b b b
Z (1) =
−Θat −Θat
11 +
θ0
10 +
θ0
−
Z (2) =
−
.. .
θ0 , para h > 12
Z (h) =
Aqui obtemos diferentes previsões para os meses do primeiro ano, mas para os anos seguintes as previsões são dadas pela média do processo. Para este modelo ψ0 = 1, ψ 12 = −Θ, e ψj = 0 caso contrário. Além disso, teremos a seguinte variância para o erro de previsão
½¡ ¢
σ 2a , 1 5 h 5 12 1 + Θ2 σ2a , h > 12
V ar [et (h)] =
10.7.7
Exemplo 7
(10.31)
Modelo ARIMA(0, 0, 0) × (0, 1, 1)12, temos Z t − Z t
12 = a t
−
76
− Θat
12
−
(10.32)
[email protected]
CAPÍTULO 10. MODELOS SAZONAIS
Com função de previsão dada por:
b b b
Z (1) = Z t
− Θat 10 − Θat 11
−
Z (2) = Z t
−
.. .
11
−
(10.33)
10
−
b
Z t (12) = Z t (h − 12) , h > 12
Observamos que todos os meses de janeiro, fevereiro,..., dezembro, têem previsões idênticas entre si, e assim por diante. Neste caso temos ψj = 1 − Θ, para j = 12, 24,..., e zero caso contrário. A variância do erro de previsão é dada, então, por V ar [et (h)]
h
= σ 2a
2
1 + k (1 − Θ)
onde h = 12k + r + 1, k = 0, 1, ..., e 0 5 r < 12.
10.7.8
i
,
(10.34)
Exemplo 8
Modelo ARIMA(0, 1, 1) × (0, 1, 1)12, temos Z t = Z t
1 +
−
Z t
12
−
− Z t
13 +
−
at − θat
− Θat
1
−
12 +
−
θΘat
(10.35)
12
(10.36)
13
−
A função de previsão satisfaz
b b b − − − − b b bb b − − − b b − b − − b X∙ b b b b ¡ ¢ Zt (1) =
Z t + Z t
Z t
Zt (2) =
Zt (1) + Z t
11
−
θ at
12
−
10
−
Z t
11
−
1
−
− Θat
11 +
−
θ Θat
−
Θat−10 + θΘat−11
.. .
e
Z t (12) =
Zt (11) + Z t
Z t (13) =
Z (12) + Zt (1)
Z t (h) = Z (h
1) + Z t (h
Z t
1
−
Θat + θΘat−1
Z t + θΘat
12)
Z t (h − 13) , para h > 13
Para entender o padrão geral dessas previsões, podemos utilizar a representação 6
¸
2 π jh 2 π jh B1j cos + B2j sin , h > 0 12 12
Zt (h) = A1 + A2 h +
j=0
(10.37)
onde A j e B j são independentes de Z t , Z t 1 ,..., ou, alternativamente, determinados das previsões iniciais Zt (1) , Z t (2) , ..., Z t (13) . Este resultado segue-se da teoria geral das equações diferenças e envolve as raízes de (1 − X ) 1 − X 12 = 0. (ver Abraham & Box, 1978). −
10.8
Exercícios
1) Baseado em dados trimestrais, um modelo sazonal da forma Z t = Z t
4 +
−
at − θ1 at
1
−
− θ2at
2
−
foi ajustado para série temporal. a) Encontrar os 4 primeiros pesos ψ0 s deste modelo. b) Suponha que θ1 = 0.5, θ2 = −0.25, e σ2a = 1 e que os dados para os últimos 4 trimestres são: 77
[email protected]
CAPÍTULO 10. MODELOS SAZONAIS
I II III IV Série 25 20 25 40 Resíduo 2 1 2 3 Encontre a previsão para os próximos 4 trimestres. c) Encontre um intervalo de 95% de con fiança para as previsões em b. 2) Para o modelo sazonal Z t = ΦZ t 4 + at − θat 1 , com |Φ| < 1, encontrar γ 0 e ρk para k > 0. 3) Identifique os seguintes modelos sazonais multiplicativos ARIMA: a) Z t = 0.5Z t 1 + Z t 4 − 0.5Z t 5 + at − 0.3at 1 . b) Z t = Z t 1 + Z t 12 − Z t 13 + at − 0.5at 1 − 0.5at 12 + 0.25at 13. 4) Suponha que o processo {Z t } se desenvolve de acordo com −
−
−
−
−
−
−
−
−
−
Z t = Z t
4 +
−
−
−
at , para t > 4
com Z t = at para t = 1, 2, 3, 4. Encontrar a função variância e a função de autocorrelação para {Z t } .
78
Apêndice A
Esperança Condicional Se X e Y tem f.d.p. conjunta f (x, y) e seja f (x) a f.d.p. marginal de X, então a f.d.p. condicional de Y |X = x é dada por f (x|y) =
f (x, y) . f (x)
A esperança condicional de Y |X = x é então de finida como
Z
∞
E (Y |X = x) =
yf (y|x) dy.
−∞
Observe que é a média da distribuição condicional, e além disso, tem todas as propriedades de médias comum e valores esperados. Por exemplo, E (aY + bZ |X = x) = aE (Y |X = x) + bE (Z |X = x)
e
Z
∞
E [h (Y ) |X = x] =
h (y) f (y|x) dy.
−∞
Pode-se demonstrar a seguinte propriedade
E [h (X ) |X = x] = h (X )
a variável aleatória h (X ) pode ser tratada como uma constante. Contudo geralmente, E [h (X, Y ) |X = x] = E [h (x, Y ) |X = x] .
Se fizer E [h (X ) |X = x] = g (x) , então g (X ) = Y é uma v.a., e E [g (X )] = E (Y ) .
Que pode ser escrito como E [E (Y |X )] = E (Y ) .Se Y é independente de X , então E (Y |X ) = E (Y ) .
79
Apêndice B
Predição de Erro Quadrático Médio Mínimo Suponha Y uma v.a. com média µ y e variãncia σ 2y . Se o objetivo é fazer a predição de Y utilizando somente uma constante c , qual é a melhor escolha para c ? Um bom critério é escolher um valor de c que minimiza o erro quadrático médio (EQM) de predição, ou seja, Expandindo g (c) , temos
min g (c) = E (Y − c)2 .
¡ ¢−
g (c) = E Y 2
2cE (Y ) + c2
como g (c) é uma função quadrática em c, resolvendo a equação g 0 (c) = 0, encontrase o ponto de mínimo da função, tem-se então g0 (c) =
−2E (Y ) + 2c = 0
encontrando
c = E (Y ) = µ y
nota-se que
¡ ¢
min g (c) = E Y − µy
2
= σ 2y .
(B.1)
(B.2)
Agora considere a situação em que uma segunda v.a. X é utilizada, e deseja-se utilizar o valor observado de X para predizer Y .Seja ρ = Corr(X, Y ). Supondo que, somente funções lineares a+bX podem ser utilizadas para prediçã. O EQM é então dado por g (a, b) = E (Y − a − bX )2
expandindo a função g (a, b) tem-se
¡¢
¡ ¢−
g (a, b) = E Y 2 + a2 + b2 E X 2
2aE (Y ) + 2abE (X ) − 2bE (XY ) .
A função é quadrática em a e b . Além disso, pode-se encontrar o ponto de mínimo resolvendo simultaneamente as equações lineares ∂ g (a, b) ∂ g (a, b) = 0 e = 0. ∂ a ∂ b
tem-se
∂ g (a, b) = 2a ∂ a
− 2E (Y ) + 2bE (X ) = 0 80
[email protected] APÊNDICE B. PREDIÇÃO DE ERRO QUADRÁTICO MÉDIO MÍNIMO e
¡¢
∂ g (a, b) = 2bE X 2 + 2aE (X ) ∂ b
as quais podemos escrever como
− 2E (XY ) = 0
a + E (X ) b = E (Y ) E (X ) a + E X 2 b = E (XY )
¡¢
(B.3) (B.4)
multiplicando (B.3) por E (X ) e subtraindo de (B.4) obtém-se:
¡¢
E X 2 b − E 2 (X ) b = E (XY ) − E (X ) E (Y )
obtendo
b =
ou
E (XY ) − E (X ) E (Y ) Cov(X, Y ) = 2 2 E (X ) − E (X ) V ar (X ) b = Corr (X, Y )
s
σy V ar (Y ) = ρ V ar (X ) σx
então substituindo em (B.3) o valor de b obtém-se: a = E (Y ) − ρ a = µy − ρ
b
σy E (X ) σx
σy µ σx x
Se Y é a predição de EQM mínimo de Y , baseado numa função linear de X, então pode-se escrever σy σy Y = µ y − ρ µx + ρ X (B.5)
b
ou
σx
b − Y
µy
= ρ
σy
σx
X − µx σx
em termos de v.a. padronizadas Y 0 e X 0 , tem-se Y 0 = ρX 0 . Pode-se verificar também que
³ b b´ ³ b b´
¸ ¡− ¢ − ¸ ∙ − à b − − − ! £¡ ¢ ¡ − ¢ ¤ − − ∙
min g a, b = E Y Prova
min g a, b
= E Y
=
σ 2y E
σy σy ρ µx + ρ X σx σx
2
σy σy ρ µx + ρ X σx σx
2
Y
µy
σy
ρ
X
= σ 2y 1
µx
2
σx
= σ 2y V ar (Y 0 ) + ρ2 V ar (X 0 ) = σ 2y 1 + ρ2
ρ2 .
2ρρ = σ 2y 1
2ρCov (Y 0 , X 0 )
ρ2 .
Considere agora o caso mais geral do problema de predição de Y com uma função arbitrária de X . Desde que o critério escolhido seja minimizar o EQM de predição, precisa-se escolher uma função h (X ) que minimize E [Y − h (X )]2
81
(B.6)
[email protected] APÊNDICE B. PREDIÇÃO DE ERRO QUADRÁTICO MÉDIO MÍNIMO pode-se escrever esta função como:
n³ ´ ³ −
´o
E [Y − h (X )]2 = E E [Y − h (X )]2 |X
para X = x obtém-se
³
E [Y − h (X )]2 |X = x = E [Y
h (x)]2 |X = x
´
(B.7)
(B.8)
para cada valor de x, h (x) é uma constante, e pode-se aplicar o resultado E (Y ) = µ y para a distribuição condicional Y |X = x. Além disso, para cada x, a melhor escolha de h (x) é h (x) = E (Y |X = x) .
Desde que a escolha de h (x) minimize a esperança interna na equação (B.7), a função h (x), também fornece o mínimo da equação (B.5), e
h (X ) = E (Y |X )
(B.9)
é o melhor preditor de Y de todas as funções de X. Se X e Y tem distribuição normal bivariada, mostra-se que E (Y |X ) = µy + ρ
σy (X σx
− µx )
(B.10)
observa-se que as soluções (B.10) e (B.5) coincidem. Neste caso, a melhor de todas as funções é linear. Agora se a predição de Y for baseada numa função de variáveis aleatórias X 1 , X 2 ,...,X n , então pode-se argumentar facilmente que o preditor de EQM mínimo é dado por E (Y |X 1 , X 2 ,...,X n )
82