i
Apostila
ECONOMETRIA
MAT02208
Marcio Valk
Guilherme Pumi
Porto Alegre 2015
ii
Sum´ ario
1 Revis˜ ao
1
1.1
Introdu¸c˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Vari´ avel Aleat´ oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.2.1
Distribui¸c˜ ao de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . .
5
1.2.2
A Distribui¸c˜ ao Normal e Distribui¸c˜oes Relacionadas . . . . . . . . . . .
7
1.3
Parˆ ametros, Estimadores e Valores Estimados . . . . . . . . . . . . . . . . . . . 10
1.4
Propriedades de Vari´ aveis Aleat´orias . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5
1.6
1.4.1
M´edia, Valor Esperado ou Esperan¸ca Matem´atica . . . . . . . . . . . . . 13
1.4.2
Variˆ ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.3
Covariˆ ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.4
Correla¸c˜ ao
1.4.5
Propriedades da Variˆancia, Covariˆancia e Correla¸c˜ao . . . . . . . . . . . 16
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.5.1
Propriedades dos Estimadores . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.2
V´ıcio/Vi´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.3
Consistˆencia
1.5.4
Eficiˆencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.5
Erro Quadr´ atico M´edio (EQM) . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.6
V´ıcio versus Variˆ ancia M´ınima . . . . . . . . . . . . . . . . . . . . . . . 20
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
M´etodo de M´ınimos Quadrados (MQO) . . . . . . . . . . . . . . . . . . . . . . 20 1.6.1
Regress˜ ao Liner M´ ultipla (RML) . . . . . . . . . . . . . . . . . . . . . . 21
1.6.2
Hip´ oteses do modelo de regress˜ao . . . . . . . . . . . . . . . . . . . . . . 22 iii
´ SUMARIO
iv 1.6.3
O Coeficiente de Determina¸c˜ao . . . . . . . . . . . . . . . . . . . . . . . 25
1.6.4
Testes de Hip´ oteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.7
Formas Funcionais Logar´ıtmicas . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.8
Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2 S´ eries Temporais 2.1
33
S´eries Temporais: Defini¸c˜ ao Formal . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.1.1
Processos Estoc´ asticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2
M´edias e Covariˆ ancias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3
Estacionariedade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4
2.3.1
Estacionariedade forte ou estrita . . . . . . . . . . . . . . . . . . . . . . 36
2.3.2
Estacionariedade fraca ou de segunda ordem . . . . . . . . . . . . . . . 38
2.3.3
Teste para significˆ ancia das autocorrela¸c˜oes . . . . . . . . . . . . . . . . 38
2.3.4
Fun¸c˜ ao de autocorrela¸c˜ao parcial (FACP) . . . . . . . . . . . . . . . . . 39
2.3.5
Operador de defasagem ou operador lag . . . . . . . . . . . . . . . . . . 40
2.3.6
Ru´ıdo Branco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Metodologia de Box-Jenkins - Modelagem ARMA . . . . . . . . . . . . . . . . . 43 2.4.1
Modelo Autorregressivo de Ordem 1 AR(1) . . . . . . . . . . . . . . . . 44
2.4.2
Passeio Aleat´ orio (Random Walk) . . . . . . . . . . . . . . . . . . . . . 46
2.4.3
Modelos Autorregressivos de Ordem p, AR(p) . . . . . . . . . . . . . . . 47
2.4.4
Modelo de M´edias-M´oveis (MA(q)) . . . . . . . . . . . . . . . . . . . . . 51
2.4.5
O modelo MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.4.6
Propriedades do modelo MA(q) . . . . . . . . . . . . . . . . . . . . . . 52
2.4.7
Modelo ARMA(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4.8
Causalidade, Invertibilidade e Estacionariedade . . . . . . . . . . . . . . 58
2.4.9
Invertibilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4.10 Polinˆ omio Caracter´ıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.4.11 Estacionariedade e causalidade de um processo ARMA . . . . . . . . . . 60 2.5
Exerc´ıcios sobre s´eries temporais estacion´arias . . . . . . . . . . . . . . . . . . . 61
´ SUMARIO 2.6
v
S´eries temporais n˜ ao estacion´arias . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.6.1
Como lidar com tentˆencia determin´ıstica . . . . . . . . . . . . . . . . . . 68
2.6.2
Testes de ra´ız unit´ aria - Identificando tendˆencia estoc´astica . . . . . . . 72
2.6.3
Teste de Dickey Fuller (DF) . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.6.4
Dickey-Fuller Aumentado . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.6.5
Eliminando tendˆencia estoc´astica - Diferen¸cas sucessivas . . . . . . . . . 75
2.7
Modelagem ARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.8
Previs˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 2.8.1
2.9
Erro de previs˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Regress˜ ao Esp´ uria - Cointegra¸c˜ao . . . . . . . . . . . . . . . . . . . . . . . . . . 82 2.9.1
Quando ´e poss´ıvel regredir duas s´eries I(d) . . . . . . . . . . . . . . . . 83
2.10 Exerc´ıcios para s´eries temporais n˜ao estacion´arias . . . . . . . . . . . . . . . . . 84
vi
´ SUMARIO
Cap´ıtulo 1
Revis˜ ao
1.1
Introdu¸c˜ ao
Para iniciar qualquer curso em que s˜ao utilizadas t´ecnicas estat´ısticas, ´e necess´ario esclarecer/fundamentar bem o conceito de aleatoriedade. “Na hist´ oria antiga, os conceitos de chance e de aleatoriedade eram interligados ao conceito que era atribu´ıdo a destino. V´ arias pessoas da antig¨ uidade jogavam dados para determinarem o destino, e posteriormente isso se desenvolveu em jogos de azar. A maioria das culturas usaram v´ arios m´etodos de adivinha¸c˜ oes para tentarem contornar a aleatoriedade e o destino, ou mesmo a dita sorte. A palavra aleatoriedade ´e utilizada para exprimir quebra de ordem, prop´ osito, causa, ou imprevisibilidade em uma terminologia n˜ ao cient´ıfica. Um processo aleat´ orio ´e o processo repetitivo cujo resultado n˜ ao descreve um padr˜ ao determin´ıstico, mas segue uma distribui¸c˜ ao de probabilidade. ” (Wikipedia).
Figura 1.1
As t´ecnicas estat´ısticas surgem para encontrar algum padr˜ ao de varia¸c˜ ao. Para tal tarefa ´e necess´ario formalizar e definir alguns conceitos, como s˜ao os casos de vari´avel aleat´oria e 1
˜ CAP´ITULO 1. REVISAO
2 distribui¸c˜ ao de probabilidade.
1.2
Vari´ avel Aleat´ oria
Denomina-se vari´ avel uma propriedade (caracter´ıstica) qualquer das unidades da popula¸c˜ao para a qual foi definida uma unidade de medida, que pode ser quantitativa ou qualitativa. Observe que essa caracter´ıstica ´e comum a todos os indiv´ıduos e portanto ´e uma caracter´ıstica da popula¸c˜ ao. Em geral, queremos fazer afirma¸c˜oes sobre caracter´ısticas e temos apenas informa¸c˜oes de alguns indiv´ıduos (amostra). Assim, toda afirma¸c˜ao feita a partir de uma amostra ´e pass´ıvel de erros, ou seja, ´e uma aproxima¸c˜ao. Al´em disso, em alguns casos n˜ao ´e poss´ıvel “medir” toda a popula¸c˜ ao e devemos pensar nessa caracter´ıstica como uma quantidade aleat´oria. Para isso, ´e necess´ ario introduzirmos o conceito de vari´ avel aleat´ oria. Defini¸ c˜ ao 1.2.1. Espa¸co amostral de um experimento aleat´ orio (fenˆ omeno que, mesmo repetidos v´ arias vezes sob condi¸c˜ oes semelhantes, apresentam resultados imprevis´ıveis) ´e qualquer conjunto contendo todos os poss´ıveis resultados do experimento. Aqui, sempre que n˜ ao houver perigo de confus˜ ao, o espa¸co amostral de um experimento em quest˜ ao ser´ a denotado por Ω, Exemplo 1.1. No seguinte experimento: lan¸car uma moeda e verificar a face voltada para cima, o espa¸co amostral ´e o conjunto {cara, coroa}. Exemplo 1.2. Se o experimento ´e lan¸car um dado de seis faces, o espa¸co amostral ´e {1, 2, 3, 4, 5, 6}. Exemplo 1.3. Poder´ a perfeitamente existir mais de um espa¸co amostral adequado para um determinado experimento. No Exemplo 1.2, o conjunto {1, 2, 3, 4, 5, 6, 7} cont´em todos os poss´ıveis resultados do experimento em quest˜ ao (lan¸car um dado de seis faces). Assim, pela defini¸c˜ ao 1.2.1, este conjunto ´e t˜ ao adequado como espa¸co amostral quanto o conjunto mais intuitivo {1, 2, 3, 4, 5, 6}. At´e mesmo o conjunto dos n´ umeros reais R ´e adequado. Obviamente, sempre que poss´ıvel ´e recomend´ avel utilizar o conjunto mais “natural” como espa¸co amostral, por´em, do ponto de vista te´ orico, desde que o conjunto escolhido efetivamente contenha todos os poss´ıveis resultados do experimento, n˜ ao faz diferen¸ca alguma qual conjunto se est´ a utilizando. Exemplo 1.4. Nos exemplos anteriores, ´e poss´ıvel (e muito f´ acil) determinar exatamente quais s˜ ao todos os poss´ıveis resultados dos experimentos em quest˜ ao. Por´em nem sempre este ´e o caso. Considere o experimento em que uma pessoa ´e escolhida ao acaso e sua altura (em metros) medida. Neste caso ´e dif´ıcil determinar exatamente o conjunto contendo exatamente todos os poss´ıveis resultados do experimento. Com certeza o conjunto [0, 10] cont´em todas as poss´ıveis alturas a serem registradas. O conjunto [0, 3] tamb´em. Por outro lado, ser´ a que o conjunto [0, 2.7] ´e apropriado? E (0.3, 2.7)?
´ ´ 1.2. VARIAVEL ALEATORIA
3
Todo subconjunto de um espa¸co amostral ´e chamado evento. Os subconjuntos de um espa¸co amostral contendo apenas um elemento s˜ao chamados de eventos elementares. Por exemplo, no lan¸camento de um dado de seis faces, {5} ´e um evento elementar. Outro evento poss´ıvel ´e: {a face superior ´e ´ımpar}, o que ´e equivalente ao subconjunto {1, 3, 5} ⊂ Ω. Outra possibilidade poderia ser verificar se a face obtida ´e superior a 3. Existem ainda experimentos que podem ser vistos como “compostos” por natureza, como por exemplo o lan¸camento independente de um dado de seis faces e de uma moeda honesta, no qual anotamos a face superior do dado e a face da moeda. Neste caso, ´e f´acil determinar um espa¸co amostral associado ao experimento que contenha exatamente todos os resultados poss´ıveis. Este constituir´ a de pares contendo um n´ umero inteiro de 0 `a 6, correspondente ao lan¸camento do dado e um elemento do conjunto {cara, {coroa}, correspondente ao lan¸camento da moeda, ou seja, Ω = {(1, cara), (1, coroa), · · · , (6, cara), (6, coroa)}. Uma outra maneira de representar isto ´e a partir do produto cartesiano dos espa¸cos amostrais de cada um dos experimentos individuais, neste caso Ω = {1, 2, 3, 4, 5, 6} × {cara, coroa}. Espa¸cos amostrais s˜ ao importantes na defini¸c˜ao de um espa¸co de probabilidade. Um espa¸co de probabilidade (Ω, F, P) onde Ω denota um espa¸co amostral qualquer, F ´e um conjunto de eventos associado ` a Ω satisfazendo certas propriedades (σ-algebra de eventos), e P : F → [0, 1] uma medida de probabilidade atribuindo valores em [0, 1] para cada evento de interesse em F (a probabilidade dos eventos). Uma vari´ avel aleat´ oria ´e uma fun¸c˜ao do espa¸co amostral Ω nos reais, para a qual ´e poss´ıvel calcular a probabilidade de ocorrˆencia de seus valores. Em geral, as vari´aveis aleat´orias s˜ ao representadas por letras mai´ usculas do fim do alfabeto. Temos, para cada elemento ω ∈ Ω, um n´ umero real X(ω) conforme a Figura 1.2.
Figura 1.2: Vari´avel aleat´oria
˜ CAP´ITULO 1. REVISAO
4
Garantimos o c´ alculo de probabilidades com vari´aveis aleat´orias ao exigir que, para qualquer I ⊂ R, o conjunto X −1 (I) seja um evento. Em outras palavras, o conjunto X −1 (I) ´e um elemento de F, ou seja, X −1 (I) ∈ F. Lembremos que apenas os elementos de F tˆem atribui¸c˜ ao de probabilidade. Em linguagem mais matem´atica, dizemos que uma vari´avel aleat´oria ´e qualquer fun¸c˜ ao mensur´ avel em (Ω, F). Isto justifica dizer que a vari´avel X ´e Fmensuravel. Com frequˆencia, faz-se men¸c˜ao ao espa¸co de probabilidade (Ω, F, P), para deixar claro o espa¸co amostral, a σ-´ algebra e a probabilidade envolvidas. Formalmente, definimos Defini¸ c˜ ao 1.2.2. Seja (Ω, F, P) um espa¸co de probabilidade. Denominamos de vari´ avel aleat´ oria, qualquer fun¸c˜ ao X : Ω → R tal que X −1 (I) = {ω ∈ Ω : X(ω) ∈ I} ∈ F, para todo intervalo I ⊂ R. Em palavras, X ´e tal que sua imagem inversa de intervalos I ⊂ R pertencem a σ-´ algebra F. No que segue precisamos do conceito de cardinalidade de um conjunto. Em palavras simples, a cardinalidade de um conjunto ´e uma maneira de expressar a “quantidade” de elementos que este cont´em. Um conjunto ordenado A ´e dito finito se cont´em um n´ umero finito de elementos. A cardinalidade de um conjunto finito nada mais ´e que o n´ umero de elementos que este cont´em. Por exemplo o conjunto A = {1, 2, 9, 15} ´e finito e tem cardinalidade 4. Por outro lado, a defini¸c˜ ao de cardinalidade para conjuntos infinitos ´e matematicamente muito mais complexa pois, no final das contas, a id´eia ´e impor uma hierarquia, uma “ordem”, no “tamanho” de conjuntos infinitos. Obviamente a cardinalidade de um conjunto infinito n˜ao pode ser expressa em n´ umeros. Estamos interessados apenas em distinguir entre dois “tamanhos” de conjuntos infinitos: enumer´avel e n˜ao-enumer´avel. Por sorte, na maioria das vezes ´e poss´ıvel utilizar apenas a intui¸c˜ao para resolver o problema. Intuitivamente, um conjunto ordenado A ´e dito ser infinito enumer´avel (ou ainda, cont´ avel ) se dado um elemento qualquer de A, podemos determinar quem ´e o pr´oximo elemento do conjunto. Caso contr´ario, o conjunto ´e dito ser n˜ ao-enumer´ avel. Por exemplo, o conjunto dos n´ umeros naturais N ´e infinito enumer´ avel. De fato, dado qualquer n´ umero natural x, o pr´oximo ´e x+1, obviamente. J´a o conjunto [0, 1] ´e infinito n˜ ao-enumer´avel. Por exemplo, dado o n´ umero 0.5 ∈ [0, 1], qual ´e pr´oximo elemento de [0, 1]? Poder´ıamos dizer 0.6, mas e 0.51? Este ainda est´a mais longe de 0.5 que 0.501. De fato 0, 5001, 0.50001 etc. ´e uma sequˆencia infinita de n´ umeros em [0, 1] cada vez mais pr´ oxima de 0.5 de forma que n˜ao ´e poss´ıvel determinar o pr´oximo elemento na ordena¸c˜ ao do conjunto. Os conjuntos enumer´aveis mais conhecidos s˜ao N, Z e Q, sendo que este u ´ltimo ´e um pouco mais dif´ıcil de aplicar a regra intuitiva acima. Os conjuntos n˜ ao enumer´aveis mais conhecidos s˜ ao R, R \ Q, C.
´ ´ 1.2. VARIAVEL ALEATORIA
5
Defini¸ c˜ ao 1.2.3. Vari´ avel Aleat´ oria Discreta. Se o conjunto dos poss´ıveis valores da vari´ avel aleat´ oria ´e finito ou infinito enumer´ avel. Defini¸ c˜ ao 1.2.4. Vari´ avel Aleat´ oria Cont´ınua Se o conjunto dos poss´ıveis valores da vari´ avel aleat´ oria ´e infinito n˜ ao-enumer´ avel. Na pr´ atica, ´e comum a utiliza¸c˜ ao de vari´aveis aleat´orias cont´ınuas pois estas s˜ao matematicamente mais simples de se tratar. Quando, por exemplo, falamos que a renda ´e uma v.a. cont´ınua (na verdade ela ´e discreta) ´e pela conveniˆencia da aproxima¸c˜ao. 1.2.1
Distribui¸ c˜ ao de Probabilidade
A fun¸c˜ ao que descreve as probabilidades da vari´avel aleat´oria discreta X assumir os diferentes valores do espa¸co amostral ´e chamada de fun¸c˜ao massa de probabilidade. No caso de uma vari´ avel cont´ınua, a probabilidade de uma vari´avel aleat´oria assumir qualquer valor espec´ıfico ´e 0. Neste caso o an´ alogo da fun¸c˜ao massa de probabilidade ´e a fun¸c˜ao de densidade de probabilidade (abreviado f.d.p. ou ainda, do inglˆes, p.d.f.) que, em poucas palavras, descreve a varia¸c˜ ao instantˆ anea da probabilidade no ponto. Para que uma fun¸c˜ao qualquer f seja uma densidade de probabilidade ´e necess´ario que f (x) ≥ 0 para todo x ∈ R, Z Z ∞ f (x)dx = f (x)dx = 1.
(1.1)
−∞
R
Como a probabilidade de ocorrˆencia de um valor em particular de uma vari´avela aleat´oria cont´ınua ´e sempre 0, probabilidades s˜ao discutidas em termos de intervalos, ou mesmo outros tipos de conjuntos. Essas probabilidades s˜ao obtidas por meio de integra¸c˜ao da fun¸c˜ao densidade no intervalo especificado. Por exemplo, seja X uma vari´avela aleat´oria com densidade f (x). Ent˜ ao P (a ≤ X ≤ b) ´e dada por b
Z P (a ≤ X ≤ b) =
f (x)dx. a
Analogamente, para um conjunto A ⊆ R qualquer, Z P (X ∈ A) =
f (x)dx. A
A probabilidade de que a vari´ avel aleat´oria X assuma valores inferiores ou igual a um n´ umero x ∈ R, P (X ≤ x), possui importancia intr´ınsica pois representa a probabilidade
˜ CAP´ITULO 1. REVISAO
6
acumulada at´e o ponto x. Por isso, para cada x ∈ R fixo, denotamos esta probabilidade por F (x) = P (X ≤ x) e a fun¸c˜ao assim definida F : R → [0, 1] ´e chamada de fun¸c˜ao de distribui¸c˜ao acumulada (denotada por f.d.a.), ou somente fun¸c˜ao de distribui¸c˜ao. Note que se X ´e uma vari´avel aleat´oria cont´ınua com densidade f , Z
x
F (x) = P (X ≤ x) =
f (t)dt. −∞
Distribui¸ c˜ oes conjunta, marginal e condicional Geralmente estamos interessados n˜ao apenas numa vari´avel aleat´oria mas na rela¸c˜ao entre algumas vari´ aveis aleat´ orias. Suponha que temos duas vari´aveis aleat´orias, X e Y . Agora al´em do comportamento probabil´ıstico individual de X e Y , caracterizado por suas fun¸c˜ oes de distribui¸c˜ oes, digamos FX e FY , respectivamente, precisamos alguma forma de descrever o comportamento probabil´ıstico conjunto de X e Y . Para isso definimos a fun¸c˜ao de distribui¸c˜ ao acumulada de X e Y , denotada por FX,Y , por FX,Y (x, y) = P (X ≤ x, Y ≤ y). Se X e Y s˜ ao ambas cont´ınuas, podemos definir a densidade conjunta de X e Y denotada por fX,Y , como sendo a fun¸c˜ ao que satisfaz Z
x
Z
y
fX,Y (z, w)dzdw.
FX,Y (x, y) = −∞
−∞
A fun¸c˜ao de distribui¸c˜ ao conjunta de um par de vari´aveis aleat´orias X e Y caracteriza tamb´em os comportamentos probabilisticos de X e Y individualmente. De fato FX (x) = lim FX,Y (x, y) y→∞
e tamb´em
e
FY (y) = lim FX,Y (x, y)
Z fX (x) =
Z fX,Y (x, y)dy
R
x→∞
e fY (y) =
fX,Y (x, y)dx. R
Quando temos a fun¸c˜ ao de distribui¸c˜ao conjunta de um par X e Y de vari´aveis aleat´orias, dizemos que as densidades/distribui¸c˜oes individuais de X e Y s˜ao as densidades/distribui¸c˜ oes marginais de X e Y .
´ ´ 1.2. VARIAVEL ALEATORIA
7
A fun¸c˜ ao de distribui¸c˜ ao condicional de X dado Y = y ´e descrita por
FX|Y (x|y) = P (X ≤ x|Y = y) =
P (X≤x,Y =y) P (Y =y) Rx
−∞
se X ´e discreta e P (Y = y) 6= 0
,
fX,Y (t,y)dt fy (y)
,
se X ´e cont´ınua e fY (y) 6= 0
1. As densidades condicionais s˜ ao: (a) fX|Y (x|y), que ´e a densidade de X dado Y = y. (b) fY |X (y|x), que ´e a densidade de Y dado X = x. Formalmente, temos a rela¸c˜ ao Z
x
FX|Y (x|y) =
Z fX|Y (t|y)dt e
y
FY |x (y|x) =
−∞
fY |X (t|x)dt, −∞
no caso em que X e Y s˜ ao cont´ınuas. Rela¸c˜oes parecidas valem no caso em que X e Y s˜ ao discretas, trocando-se integrais por somas e densidades por fun¸c˜ao massa de probabilidade. A densidade conjunta pode ser escrita como o produto das densidades marginal e condicional da seguinte forma: fX,Y (x, y) = fX (x)fY |X (y|x) = fY (y)fX|Y (x|y). Se fX,Y (x, y) = fX (x)fY (y) para todo x e y, ent˜ao X e Y s˜ao chamadas de vari´aveis independentes. Note que, se eles s˜ ao independentes, fX|Y (x|y) = fX (x)
e
fY |X (y|x) = fY (y),
isto ´e, as distribui¸c˜ oes condicionais s˜ao as mesmas que as marginais. Intuitivamente, quando X e Y s˜ao independentes X n˜ ao carrega nenhuma informa¸c˜ao u ´til a respeito de Y , assim o fato de Y ser ou n˜ ao conhecido ´e irrelevante para a determina¸c˜ao de X. 1.2.2
A Distribui¸ c˜ ao Normal e Distribui¸ c˜ oes Relacionadas
Existem algumas distribui¸c˜ oes de probabilidade cujas probabilidades que, devido `a sua utiliza¸c˜ao em diversas aplica¸c˜ oes, valores de suas fun¸c˜oes de distribui¸c˜ao s˜ao tabuladas. Dentre estas distribui¸c˜ oes not´ aveis, podemos citar distribui¸c˜ao normal e as distribui¸c˜oes χ2 , t e F , as quais discutiremos juntamente com as distribui¸c˜oes lognormal e normal bivariada. Existem diversas outras distribui¸c˜ oes para as quais tabelas extensivas est˜ao dispon´ıveis. Como exemplos citamos as distribui¸c˜ oes gama e beta. Na verdade, a distribui¸c˜ao χ2 ´e um caso
˜ CAP´ITULO 1. REVISAO
8
particular da distribui¸c˜ ao gama, e as distribui¸c˜oes t e F s˜ao casos particulares da distribui¸c˜ ao beta. Trataremos aqui apenas das citadas. Existe um grande criticismo sobre a adequa¸c˜ao da distribui¸c˜ao normal para descrever vari´aveis econˆ omicas. Muitas vezes a distribui¸c˜ao normal de fato n˜ao ´e apropriada. Contudo, dois fatos tornam o estudo da distribui¸c˜ao normal importantes: primeiramente, embora existam problemas em que o uso da distribui¸c˜ao normal ´e question´avel, existe um n´ umero muito maior de problemas em que o uso desta ´e totalmente apropriado. Segundo, mesmo que as vari´aveis n˜ ao sejam normalmente distribu´ıdas, pode-se considerar transforma¸c˜oes de vari´aveis que fa¸cam com que as vari´ aveis transformadas se tornem normalmente distribu´ıdas. A Distribui¸ c˜ ao Normal A distribui¸c˜ ao normal, cuja densidade possui um formato que lembra um sino, ´e a distribui¸c˜ao mais amplamente utilizada em aplica¸c˜oes estat´ısticas numa grande variedade de ´areas. Dizemos que X tem distribui¸c˜ ao normal com m´edia µ ∈ R e variˆancia σ 2 > 0, denotado compactamente por X ∼ N (µ, σ 2 ), se sua fun¸c˜ao de densidade de probabilidade for dada por 1 1 2 f (x) = √ exp − 2 (x − µ) , 2σ σ 2π
para x ∈ R.
Os parˆametros µ e σ 2 s˜ ao tamb´em chamados de parˆametros de loca¸c˜ao e escala, respectivamente. Figura 1.3: Fun¸c˜ ao densidade Normal com diferentes parˆametros de loca¸c˜ao e escala.
Locação
Escala
0.4
0.4 µ=−3
µ=3
µ=0
0.35
0.35
0.3
0.3
0.25
0.25
0.2
0.2
0.15
0.15
0.1
0.1
0.05
0.05
0 −6
−4
−2
0
2
4
6
0 −10
σ2 =1
σ2=2.25
σ2=4
−5
0
5
10
Se µ = 0 e σ = 1, a distribui¸c˜ ao ´e chamada de “distribui¸c˜ao normal padr˜ao” e a fun¸c˜ ao
´ ´ 1.2. VARIAVEL ALEATORIA
9
de densidade de probabilidade reduz-se a, x2 1 f (x) = √ e− 2 . 2π
Uma propriedade importante propriedade da distribui¸c˜ao normal ´e que qualquer combina¸c˜ao linear de vari´ aveis normalmente distribu´ıdas tamb´em ´e normalmente distribu´ıda. De fato, pode-se mostrar que, se X1 ∼ N (µ1 , σ12 )
e
X2 ∼ N (µ2 , σ22 )
e a correla¸c˜ ao entre X1 e X2 ´e ρ, ent˜ao a1 X1 + a2 X2 ∼ N (a1 µ1 + a2 µ2 , a21 σ12 + a22 σ22 + 2ρa1 a2 σ1 σ2 ). Em particular, X1 + X2 ∼ N (µ1 + µ2 , σ12 + σ22 + 2ρσ1 σ2 ) e X1 − X2 ∼ N (µ1 − µ2 , σ12 + σ22 − 2ρσ1 σ2 ). Distribui¸ c˜ oes Relacionadas Al´em da distribui¸c˜ ao normal, h´ a outras distribui¸c˜oes de probabilidade que usaremos com frequˆencia. S˜ ao elas as distribui¸c˜ oes χ2 , t e F , tabuladas no apˆendice. Estas distribui¸c˜oes s˜ ao derivadas da distribui¸c˜ ao normal e definidas como descrito a seguir.
Distribui¸ c˜ ao χ2 A distribui¸c˜ ao χ2 ´e bastante importante em aplica¸c˜oes e ´e definida a partir da soma dos quadrados de vari´ aveis normais. Mais especificamente, se X1 , X2 , · · · , Xn s˜ao vari´aveis aleat´orias independentes com distribui¸c˜ao normal padr˜ao ent˜ao Q=
n X
Xi2
i=1
tem distribui¸c˜ ao χ2 com n graus de liberdade (g.l.), e escrevemos isso compactamente como Q ∼ χ2n . Se Xi ∼ N (µ, σ 2 ), ent˜ ao Q deve ser definido por
˜ CAP´ITULO 1. REVISAO
10
Q=
n X (Xi − µ)2 i=1
A distribui¸c˜ ao
χ2
sentido: se Z1 ∼
σ2
.
tamb´em satisfaz uma determinada “propriedade de adi¸c˜ao”, no seguinte
χ2n
e Z2 ∼ χ2m e Z1 e Z2 s˜ao independentes, ent˜ao Z1 + Z2 ∼ χ2n+m . Note que
esta propriedade de adi¸c˜ ao ´e bem mais restritiva que aquela da distribui¸c˜ao normal, j´a que exige independˆencia para que a simples soma das vari´aveis satisfa¸cam `a propriedade (para normal, a propriedade vale para combina¸c˜oes lineares quaisquer), mas ainda assim ´e muito u ´til na pr´ atica.
Distribui¸ c˜ ao t Se X ∼ N (0, 1), Y ∼ χ2n , e X e Y s˜ao independentes, a vari´avel √ X nX T =p = √ Y Y /n possui distribui¸c˜ ao t com n g.l. Escrevemos isso como T ∼ tn . O subscrito n novamente denota os g.l. Assim como a distribui¸c˜ao normal, a distribui¸c˜ao t ´e uma distribui¸c˜ao de probabilidade sim´etrica, com forma lembrando um sino, sendo por´em mais achatada e com caudas mais “pesadas” que a normal. Quando o n´ umero de graus de liberdade n de uma vari´avel tn tende ao infinito, obtemos a distribui¸c˜ao normal. Em outras palavras, quando os graus de liberdade de uma vari´ avel aleat´oria com distribui¸c˜ao tn for grande, esta tem comportamento probabil´ıstico muito similar ao de uma normal.
Distribui¸ c˜ ao F Se Y1 ∼ χ2n1 , Y2 ∼ χ2n2 e Y1 e Y2 s˜ao independentes, a vari´avel F =
Y1 /n1 n2 Y1 = Y2 /n2 n1 Y2
´e dita possuir distribui¸c˜ ao F com n1 e n2 g.l. Escrevemos isso como F ∼ Fn1 ,n2 . O primeiro subscrito n1 , refere-se aos g.l. do numerador, e o segundo subscrito, n2 , refere-se aos g.l. do denominador.
1.3
Parˆ ametros, Estimadores e Valores Estimados
Considere o deslocamento de uma part´ıcula no v´acuo, em superf´ıcie sem atrito. Aprendemos cedo que a velocidade da part´ıcula num instante de tempo t, vt , ´e dada por vt = v0 + at,
ˆ 1.3. PARAMETROS, ESTIMADORES E VALORES ESTIMADOS
11
Figura 1.4: Fun¸c˜ ao densidade χ2 , t-Student e F-Snedecor. Em parˆenteses os graus de liberdade.
0.25
0.4
1
0.9 0.35 0.2
0.8 0.3 0.7 0.25
0.15
0.6
0.2
0.5
0.1
0.4 0.15 0.3 0.1
0.05
0.2 0.05 0.1
0
0
5
10
15
0 −5
0
5
0
0
2
4
6
8
onde v0 ´e a velocidade inicial da part´ıcula, a > 0 ´e a acelera¸c˜ao aplicada na part´ıcula, neste caso assumida constante. Neste modelo idealizado, a velocidade de uma part´ıcula ´e uma fun¸c˜ao linear do tempo, cujo gr´ afico ´e apresentado na Figura 1.5(a). Um grupo de pesquisadores realizou o seguinte experimento: numa superf´ıcie lisa, por´em n˜ao absolutamente sem atrito, ao ar livre (isto ´e, na presen¸ca de vento, part´ıculas de poeira, etc.) uma part´ıcula foi acelerada ` a uma determinada acelera¸c˜ao desconhecida, mas constante em cada repeti¸c˜ ao do experimento, `a partir de uma velocidade inicial desconhecida, mas tamb´em constante em cada repeti¸c˜ao do experimento. Ap´os um determinado tempo t a velocidade da part´ıcula foi medida. Como resultados obtemos pares (vi , ti ) representando a i-´esima observa¸c˜ ao da velocidade da part´ıcula, medida no tempo ti . Os resultados est˜ ao apresentados na Figura 1.5(b). Nosso interesse ´e determinar a velocidade inicial da part´ıcula e a acelera¸c˜ ao, que s˜ ao chamados de parˆametros populacionais. Note que devido `as condi¸c˜ oes n˜ao serem ideais, os dados n˜ ao est˜ ao perfeitamente alinhados em uma reta como o estipulado na teoria, mas est˜ ao aproximadamente alinhados. Os desvios da reta “esperada” podem ser interpretados como sendo aleat´ orios, e s˜ao devidos aos v´arios fatores que est˜ao fora de nosso controle, como atrito, vento, part´ıculas em suspens˜ao no ar, etc, fatores que est˜ao em desalinho com a teoria. Para estimar os parˆ ametros a e v0 , que denotaremos por a ˆ e vˆ0 , podemos utilizar os estimadores de M´ınimos Quadr´ aticos Ordin´arios que conhecemos, neste caso, dados por (mais
˜ CAP´ITULO 1. REVISAO
12 detalhes ser˜ ao fornecidos adiante) Pn (v − v¯)(ti − t¯) Pn i a ˆ = i=1 ¯2 i=1 (ti − t)
e
vˆ0 = v¯ − a ˆt¯,
onde v¯ denota a m´edia das velocidades e t¯ denota a m´edia dos tempos observados. Note que, fornecidos os dados para o estimador, ele retorna dois valores sendo eles a estimativa dos parˆametros a e v0 baseados nos dados. Note que mudando os dados, o estimador continua ` partir dessas sendo o mesmo, mas os valores retornados por ele, as estimativas, mudar˜ao. A estimativas obtemos a reta apresentada na Figura 1.5(c) Na resolu¸c˜ ao do problema aparecem 3 objetos eminentemente diferentes, cada um deles fundamental na solu¸c˜ ao do problema e que devem ser entendidos com clareza. Primeiramente temos os parˆ ametros populacionais, que s˜ao os valores de interesse, mas que nos s˜ao desconhecidos. Baseado numa amostra, gostar´ıamos, de alguma forma identificar, esses parˆametros. Segundo temos um estimador, que ´e uma fun¸c˜ao dos dados. Quando alimentado de dados estes estimadores retornam valores. Os valores retornados pelo estimador compreendem o terceiro objeto mencionado: s˜ ao os valores estimados dos parˆametros populacionais. Esta distin¸c˜ ao entre parˆ ametro, estimador e valor estimado ´e essencial e est´a no cora¸c˜ ao das aplica¸c˜ oes de estat´ıstica ` a dados reais.
(a)
(b)
(c)
Figura 1.5
´ ´ 1.4. PROPRIEDADES DE VARIAVEIS ALEATORIAS
1.4 1.4.1
13
Propriedades de Vari´ aveis Aleat´ orias M´ edia, Valor Esperado ou Esperan¸ ca Matem´ atica
A M´edia ou valor esperado, ou ainda a esperan¸ca matem´atica de uma vari´avel aleat´oria representa o valor m´edio assumido pela vari´avel em quest˜ao. Esta pode ser interpretada como a m´edia ponderada de cada valor assumido pela vari´avel ponderado pela sua probabilidade de ocorrˆencia. Defini¸ c˜ ao 1.4.1. M´ edia, valor esperado ou esperan¸ ca matem´ atica de vari´ aveis aleat´ orias discretas. Suponha que X seja uma vari´ avel aleat´ oria discreta assumindo n valores diferentes x1 , · · · xn com probabilidades p1 , · · · , pn , respectivamente. Ent˜ ao a m´edia, ou valor esperado ou anda a esperan¸ca da vari´ avel X ´e definida por E(X) = x1 p1 + x2 p2 + · · · + xn pn =
n X
xi p i .
i=1
Observe que, no caso discreto, a esperan¸ca de uma vari´avel X nada mais ´e do que a m´edia ponderada de cada valor assumido pela vari´avel pela sua probabilidade de ocorrˆencia. Exemplo 1.5. Seja X o valor da face superior obtida no lan¸camento de um dado equilibrado. Neste caso temos P (X = 1) = P (X = 2) = P (X = 3) = P (X = 4) = P (X = 5) = P (X = 6) = 61 , ou seja p1 = p2 = p3 = p4 = p5 = p6 = 16 . Segue que E(X) =
6 X i=1
= =
1 1 1 1 1 1 pi xi = .1 + .2 + .3 + .4 + .5 + .6 6 6 6 6 6 6
1 6(6 + 1) 1 (1 + 2 + 3 + 4 + 5 + 6) = . 6 6 2 21 7 = = 3, 5. 6 2
O valor 3,5 obtido no resultado deve ser interpretado da seguinte forma: se jogarmos um dado equilibrado um n´ umero grande de vezes e calcularmos a m´edia dos valores obtidos, ele ser´ a pr´ oximo ` a 3,5. De fato, se fosse poss´ıvel repertir o experimento um n´ umero infinito de vezes, a m´edia dos resultados convergiria para 3,5. Defini¸ c˜ ao 1.4.2. Valor Esperado de g(X). Seja X uma vari´ avel aleat´ oria discreta assumindo n valores diferentes x1 , · · · xn com probabilidades p1 , · · · , pn , respectivamente. Seja g uma fun¸c˜ ao definida na imagem da vari´ avel aleat´ oria de X. Ent˜ ao E(g(X)) ´e dado por E(g(X)) = g(x1 )p1 + · · · + g(xn )pn =
n X i=1
g(xi )pi .
˜ CAP´ITULO 1. REVISAO
14 Exemplo 1.6. Para o Exemplo considere g(X) = X 2 . Obtemos 2
E(X ) =
6 X i=1
= =
1 1 1 1 1 1 pi x2i = .1 + .4 + .9 + .16 + .25 + .36 6 6 6 6 6 6
1 1 6(6 + 1)(12 + 1) (1 + 4 + 9 + 16 + 25 + 36) = . 6 6 6 91 = 15, 16666. 6
Note que E(X 2 ) 6= E(X)2 . Defini¸ c˜ ao 1.4.3. Esperan¸ ca de vari´ aveis aleat´ orias cont´ınuas. Supondo que X seja uma vari´ avel aleat´ oria cont´ınua com fun¸c˜ ao de densidade de probabilidade f , definimos a esperan¸ca de X por Z
∞
E(X) =
xf (x)dx. −∞
O valor esperado de uma fun¸c˜ ao integr´ avel qualquer de X, digamos g(X) ´e definido por Z
∞
E(g(X)) =
g(x)f (x)dx. −∞
Exemplo 1.7. Se X ∼ N (µ, σ 2 ), ent˜ ao E(X) = µ, como pode ser facilmente computado. Propriedades da Esperan¸ ca No que segue, assumimos que X, Y s˜ao vari´aveis aleat´orias e a, b, c s˜ao constantes reais. E1)
E(a) = a;
E2)
E(a + X) = a + E(X);
E3)
E(bX) = bE(X);
E4)
E(a + bX) = a + bE(X);
E5)
E(X + Y ) = E(X) + E(Y );
E6)
E(a + bX + cY ) = a + bE(X) + cE(Y );
Estas propriedades podem ser generalizadas para qualquer n´ umero de vari´aveis aleat´orias. Em particular, segue a esperan¸ca de uma combina¸c˜ao linear de vari´aveis aleat´orias ´e a combina¸c˜ao linear das suas esperan¸ca, isto ´e, se X1 , · · · , Xn s˜ao vari´aveis aleat´orias e a1 , · · · , an s˜ao constantes reais,
´ ´ 1.4. PROPRIEDADES DE VARIAVEIS ALEATORIAS
E7)
15
X X n n E ai Xi = ai E(Xi ). i=1
i=1
Por esse motivo, a fun¸c˜ ao E(·) que associa a cada vari´avel aleat´oria o seu valor esperado ´e um operador linear, chamado de operador esperan¸ca. Em geral, temos que E(XY ) 6= E(X)E(Y ). Por´em, no caso particular em que X e Y s˜ ao vari´aveis aleat´ orias independentes, a igualdade ´e v´alida, isto ´e, E(XY ) = E(X)E(Y ) 1.4.2
se, e somente se, X e Y s˜ao independentes.
Variˆ ancia
Seja X uma vari´ avel aleat´ oria (cont´ınua ou discreta)e defina µ = E(X). Ent˜ao a variˆancia de X ´e definida por Var(X) = E[(X − µ)2 )] = E(X 2 ) − [E(X)]2 .
(1.2)
Podemos interpretar a variˆ ancia como sendo o valor esperado do quadrado do desvio de X da sua pr´ opria m´edia. Em linguagem comum isto pode ser expresso como A m´edia do ´ assim a m´edia do quadrado dos desvios. quadrado da distˆ ancia de cada ponto at´e a m´edia. E 2 , ou simplesmente A variˆancia da vari´ avel aleat´ oria X ´e geralmente designada por Var(X), σX
σ 2 . A variˆ ancia ´e uma medida de dispers˜ao dos dados e sua unidade ´e a unidade dos dados elevada ao quadrado. Lembramos que a raiz quadrada positiva da variˆancia determina o chamado desvio padr˜ ao de X. 1.4.3
Covariˆ ancia
A covariˆ ancia entre duas vari´ aveis aleat´orias X e Y com E(X) = µX e E(Y ) = µY ´e definida por Cov(X, Y ) = E[(X − µX )(Y − µY )]. Desenvolvendo a express˜ ao para a covariˆancia, temos: Cov(X, Y ) = E (X − µX )(Y − µY ) = E (X − E(X))(Y − E(Y )) = E XY − XE(Y ) − Y E(X) + E(X)E(Y ) . Usando a propriedade de que a esperan¸ca da soma entre duas vari´aveis aleat´orias ´e igual a soma das esperan¸cas, segue que
˜ CAP´ITULO 1. REVISAO
16
Cov(X, Y ) = E(XY ) − E XE(Y ) − E Y E(X) + E E(X)E(Y ) = E(XY ) − E(Y )E(X) − E(X)E(Y ) + E(X)E(Y ) = E(XY ) − E(X)E(Y )
(1.3)
Note que quando X e Y s˜ ao independentes, temos que E(XY ) = E(X)E(Y ) de onde segue que Cov(X, Y ) = 0. A rec´ıproca, por´em, n˜ao ´e verdadeira pois existem exemplos de vari´aveis dependentes que possuem covariˆ ancia nula. Observe ainda que da express˜ao (1.3) podemos concluir que a covariˆ ancia ´e uma forma de medir o qu˜ao “distante” X e Y est˜ao de ser independentes. 1.4.4
Correla¸ c˜ ao
A correla¸c˜ ao, tamb´em chamada de coeficiente de correla¸c˜ao, indica a for¸ca e a dire¸c˜ ao do relacionamento linear entre duas vari´aveis aleat´orias, se existir. A correla¸c˜ao entre duas vari´aveis X e Y com 0 < Var(X) < ∞ e 0 < Var(Y ) < ∞, denotado por Cor(X, Y ) ou ρX,Y , ´e definida como Cov(X, Y ) E(XY ) − E(X)E(Y ) p Cor(X, Y ) = ρX,Y = p =p . 2 Var(X)Var(Y ) E(X ) − E2 (X) E(Y 2 ) − E2 (Y ) Note que a correla¸c˜ ao entre X e Y nada mais ´e do que a covariˆancia entre X e Y normalizada por seus desvios padr˜ oes. Esta normaliza¸c˜ao acaba dando `a correla¸c˜ao uma interpretabilidade ausente na covariˆ ancia como veremos a seguir. Observe ainda que, quando Cov(X, Y ) = 0, temos Cor(X, Y ) = 0 tamb´em e X e Y s˜ ao ditos ser vari´ aveis n˜ ao-correlacionadas. 1.4.5
Propriedades da Variˆ ancia, Covariˆ ancia e Correla¸ c˜ ao
Se a e b forem constantes reais e X uma vari´avel aleat´oria cuja variˆancia est´a definida, ent˜ao: V1)
Var(aX + b) = a2 Var(X);
V2) Var(X + Y ) = Var(X) + Var(Y ) + 2Cov(X, Y ). Da propriedade V1 segue que a variˆancia de uma constante ´e zero. Al´em disso, se a variˆancia de uma vari´ avel aleat´ oria ´e zero, ent˜ao esta vari´avel assume um u ´nico valor com probabilidade 1. Da propriedade V2 segue que se X e Y s˜ao n˜ao-correlacionados, ent˜ao a variˆancia da soma ´e a soma das variˆancias.
1.5. ESTIMADORES
17
Suponha agora que X e Y s˜ ao vari´aveis aleat´orias e a, b, c e d s˜ao constantes reais. Ent˜ ao Cv1)
Cov(X, X) = Var(X);
Cv2)
Cov(X, Y ) = Cov(Y, X);
Cv3)
Cov(aX + b, cY + d) = acCov(X, Y ); X X n m n X m X Cov Xi , Yj = Cov(Xi , Yj ).
Cv4)
i=1
j=1
i=1 j=1
Como mencionado anteriormente, se X e Y s˜ao independentes, ent˜ao Cov(X, Y ) = 0. A correla¸c˜ ao, por sua vez, possui as seguintes propriedades: Cr1)
Cor(X, Y ) ≤ 1;
Cr2)
Cor(X, Y ) = 1 se, e somente se, X ´e diretamente proporcional a Y no sentido de que X = a + bY para a ∈ R e b > 0;
Cr3)
Cor(X, Y ) = −1 se, e somente se, X ´e inversamente proporcional a Y no sentido de que X = a + bY para a ∈ R e b < 0;
Cr4)
Cor(X, Y ) = Cor(Y, X);
Cr5)
Cor(aX + b, cY + d) = sign(ac)Cor(X, Y ), onde a fun¸c˜ao sign(x) ´e a fun¸c˜ao sinal de x, sendo igual a −1, se x < 0, 1 se x > 0 e 0 se x = 0;
Cr6)
Se X e Y s˜ ao independentes, ent˜ao Cor(X, Y ) = 0. A reciproca, por´em, n˜ao ´e verdadeira.
1.5
Estimadores
Dada uma amostra x1 , x2 , · · · , xn de uma vari´avel aleat´oria X, o estimador de E(X) ´e simplesmente a m´edia aritm´etica dos dados: n
1X X= xi . n i=1
Com rela¸c˜ ao ` a variˆ ancia de X, existem dois estimadores muito utilizados na pr´atica. O estimador da variˆ ancia de X obtido pelo m´etodo de m´axima verossimilhan¸ca ´e dado por n
2 σ ˆX
1X 1 = (xi − x)2 = n n i=1
X n i=1
x2i
− nx . 2
˜ CAP´ITULO 1. REVISAO
18
Pode-se mostrar que, embora consistente, este estimador ´e viesado em amostras finitas. Um estimador consistente e n˜ ao-viesado em amostras finitas ´e dado por n
2 SX
1 X 1 = (xi − x)2 = n−1 n−1
X n
i=1
x2i
− nx . 2
i=1
Observe que para n grandes, a diferen¸ca entre os estimadores σ ˆ 2 e S 2 ´e irrelevante. Em amostras pequenas, por´em, o estimador S 2 apresenta uma performance melhor. Seja x1 , x2 , · · · , xn e y1 , y2 , · · · , yn amostras aleat´orias das vari´aveis aleat´orias X e Y . Ent˜ao um estimador para a covariˆ ancia entre X e Y ´e dado por n
γˆX,Y =
1 X 1 (xi − x)(yi − y) = n−1 n−1 i=1
X n
xi yi − nxy .
i=1
Um estimador para a correla¸c˜ ao entre X e Y ´e dado por ρˆX,Y =
1.5.1
γˆX,Y . SX SY
Propriedades dos Estimadores
Dado que temos alguns estimadores definidos acima, ´e interessante estudar algumas das propriedades qualitativas dos estimadores que nos permitam determinar qual estimador ´e ´ tamb´em importante definir crit´erios para compar diversos estimadores. “bom” e qual n˜ ao ´e. E 1.5.2
V´ıcio/Vi´ es
Seja θˆ um estimador do parˆ ametro θ. o v´ıcio/vi´es (bias, em inglˆes) ´e definido como ˆ = E(θ) ˆ − θ. b(θ)
(1.4)
ˆ = 0 segue que E(θ) ˆ − θ e, neste caso, dizemos que θˆ ´e n˜ao-viciado ou n˜ao-viesado Se b(θ) para o parˆ ametro θ. 1.5.3
Consistˆ encia
Em estat´ıstica, uma seq¨ uˆencia de estimadores para o parˆametro θ ´e dito ser consistente (ou assintoticamente consistente) se esta sequˆencia converge em probabilidade para θ. Isso significa que as distribui¸c˜ oes dos estimadores tornar-se mais e mais concentrados perto do verdadeiro valor do parˆ ametro a ser estimado, de modo que a probabilidade do estimador ser
1.5. ESTIMADORES
19
arbitrariamente perto θ converge para um. 1.5.4
Eficiˆ encia
Um estimador de θ ´e dito ser eficiente se for n˜ao viesado e sua variˆancia for menor ou ˆ ou seja, igual a variˆ ancia de qualquer outro estimador θ, ˆ para qualquer outro estimador θˆ de θ. Var(θˆ0 ) ≤ Var(θ), Na figura abaixo podemos observar a diferen¸ca entre v´ıcio e eficiˆencia. Estes conceitos est˜ao relacionados ` a m´edia e ` a variˆ ancia, respectivamente.
Figura 1.6: Diferen¸ca entre v´ıcio e eficiˆencia
1.5.5
Erro Quadr´ atico M´ edio (EQM)
O erro quadr´ atico m´edio de um estimador θˆ de θ ´e definido como ˆ = E(θˆ − θ)2 . EQM (θ)
(1.5)
Podemos reescrever esta ultima express˜ao como ˆ = Var(θ) + [E(θ) − θ]2 = Var(θ) ˆ + b(θ). ˆ EQM (θ) Assim, o erro quadr´ atico m´edio ´e definido como a variˆancia do estimador mais o quadrado
˜ CAP´ITULO 1. REVISAO
20
do seu vi´es. Podemos entender o EQM como sendo uma medida da performance de um estimador em rela¸c˜ ao ao seu v´ıcio e variˆancia. Note que EQM(θ) = Var(θ) sempre que o estimador for n˜ ao-viciado. 1.5.6
V´ıcio versus Variˆ ancia M´ınima
O erro quadr´ atico m´edio utilizado na compara¸c˜ao entre um ou mais estimadores para um mesmo parˆ ametro θ. Podemos observar de (1.5) que, no c´alculo do EQM, existe um balan¸co entre v´ıcio e variˆ ancia. Naturalmente, estimadores eficientes apresentar˜ao um EQM m´ınimo dentre os estimadores n˜ ao-viciados de θ. Muitas vezes, por´em, pode ser mais vantajoso do ponto de vista pr´ atico a utiliza¸c˜ ao de um estimador viciado mas com variˆancia pequena em detrimento a um estimador de maior variˆancia, mas que seja n˜ao-viciado. Isto ocorre por que se a variˆancia de um estimador ´e muito grande, ´e grande a chance de uma estimativa esteja longe do verdadeiro valor do parˆ ametro, mesmo que o estimador seja n˜ao-viciado. Este ´e um ponto importante a ser observado quando da escolha de um estimador para um determinado problema.
1.6
M´ etodo de M´ınimos Quadrados (MQO)
Considere o modelo Y = α + βX + U onde Y ´e a vari´ avel dependente, X ´e a vai´avel independente e U denota o termo de erro do modelo. Suponhamos que temos uma amostra (x1 , y1 ), · · · , (xn , yn ) provindo deste modelo. Qual crit´ erio devo utilizar para obter os estimadores dos parˆ ametros α e β? Podemos minimizar: 1. Soma dos erros: n˜ ao ´e um bom crit´erio pois pode anular positivos e negativos. 2. Soma Absoluta dos Res´ıduos: ´e um crit´erio v´alido e intuitivo, por´em seu estudo ´e de alta complexidade. Devido a isso, o estimador obtido por este crit´erio, denominado LAD (Least Absolute Deviations), ´e pouco utilizado na pr´atica. 3. Soma dos Quadrados dos Erros: possui propriedades estat´ısticas de simples utiliza¸c˜ ao ´ e interpreta¸c˜ ao o que o tornam bastante atrativo. E este o crit´erio que d´a origem ao estimador de m´ınimos quadr´ aticos ordin´arios (MQO).
´ 1.6. METODO DE M´INIMOS QUADRADOS (MQO)
21
Utilizando a soma dos quadrados dos erros como crit´erio, devemos resolver o seguinte problema de optimiza¸c˜ ao: min
X n
{α,β}
u2i
= min
X n
b {b α,β}
i=1
2
(yi − α − βxi )
.
(1.6)
i=1
As condi¸c˜ oes de primeira ordem (CPO’s) s˜ao obtidas difereciando-se o argumento do lado direito de (1.6) em rela¸c˜ ao ` a α e β. Em α, a solu¸c˜ao do problema de optimiza¸c˜ao ser´a o valor α ˆ ∈ R que satisfaz
−2
n n X X b i ) = 0 =⇒ (yi − α b − βx u bi = 0. i=1
i=1
Esta CPO nos mostra que a escolha do intercepto ´otimo implica que a soma dos res´ıduos ser´a zero. Continuando com essa CPO n X
b =0 b i ) = 0 ⇐⇒ ny − nb α − βnx (yi − α b − βx
i=1
b ⇐⇒ α bM QO = y − βx.
(1.7)
Assim, o estimador de MQO do intercepto α ´e dado por (1.7). Difereciando-se o argumento do lado direito de (1.6) em rela¸c˜ao `a β obtemos que a solu¸c˜ ao ˆ do problema de optimiza¸c˜ ao ser´ a o valor β ∈ R que satisfaz n X b i )2 = 0 (yi − α b − βx
⇐⇒
i=1
⇐⇒
yi xi − α b
i=1 n X
b yi xi = (y − βx)
n X i=1
n X
xi + βb
i=1
i=1
⇐⇒
n X
yi x i = y
n X i=1
n X
n X i=1
xi − βb
n X i=1
x2i
i=1
X n n X 2 b xi + β xi − x xi , i=1
i=1
onde a u ´ltima gualdade obt´em-se dividindo-se o numerador e denominador por n − 1. 1.6.1
Regress˜ ao Liner M´ ultipla (RML)
Considere o modelo de regress˜ ao linear m´ ultipla
yi = β0 + β1 x1i + β2 x2i + · · · + βk xki + ui
x2i = 0
˜ CAP´ITULO 1. REVISAO
22 em que temos k vari´ aveis explicativas x1 , · · · , xk . Definindo
y1
Y =
y2 .. .
,
1 x11
x21
···
xk1
X=
1 x12 .. .. . .
x22 .. .
··· .. .
xk2 .. .
,
1 x1n x2n · · ·
xkn
yn e
β0
u1
β=
β1 .. .
U =
u2 .. .
βk
un
obtemos o modelo de regress˜ ao em forma matricial Y = Xβ + U . A matriz X ´e chamada de matriz de design do modelo. Pode-se mostrar que o estimador de MQO para β ´e dado por: ˆ = (X 0 X)−1 X 0 Y. β 1.6.2
Hip´ oteses do modelo de regress˜ ao
Hip´ otese 1 (Linearidade dos Parˆ ametros): A rela¸c˜ao entre a vari´avel dependente Y e as explicativas X1 , · · · , Xk ´e linear Y = β0 + β1 X1 + · · · + βk Xk + U. Defini¸ c˜ ao 1.6.1. Um modelo de regress˜ ao ´e linear nos parˆ ametros se as CPOs associadas ao problema de obten¸c˜ ao dos EMQ (Estimadores de MQO) gerarem um sistema linear nos parˆ ametros. Exemplo 1.8. Seja o seguinte modelo Y = α + βX + U. e (xi , yi ), para i = 1, · · · , n, uma amostra do modelo. De acordo com o que foi visto anteriormente, o problema de optimiza¸c˜ ao a ser resolvido para a obten¸c˜ ao dos estimadores de MQO para α e β ser´ a
min
X n
{α,β}
i=1
2
(yi − α − βxi )
.
´ 1.6. METODO DE M´INIMOS QUADRADOS (MQO)
23
As CPOs ser˜ ao α b : −2
n X
b i) = 0 (yi − α b − βx
n X
=⇒
i=1
βb : −2
n X
yi = nb α + βb
i=1
b i )xi = 0 (yi − α b − βx
n X
=⇒
i=1
Pn
n
i=1 xi
Pn
i=1 xi
Pn
2 i=1 xi
#"
α b βb
#
yi xi = α b
n X
xi + βb
i=1
" P n =
xi
i=1
i=1
"
n X
i=1 yi
Pn
i=1 yi xi
n X
x2i
i=1
# .
Logo ´e o sistema linear e o modelo ´e linear nos parˆ ametros. Exemplo 1.9. Seja o seguinte modelo Y = α + βX γ + U e seja (xi , yi ), para i = 1, · · · , n, uma amostra do modelo. O problema de minimiza¸c˜ ao neste caso resume-se a min
X n
{α,β,γ}
(yi − α −
βxγi )2
.
i=1
A CPO em α ´e dada por α : −2
X
(yi − α − βxγi ) = 0,
i
que n˜ ao ´e linear por causa do γ. Exemplo 1.10. Seja o seguinte modelo Y = αX1β1 X2β2 eU . Este modelo ´e claramente n˜ ao-linear, por´em, ao tomarmos o logaritmo obtemos
ln(Y ) = ln(α) + β1 ln(X1 ) + β2 ln(X2 ) + U, que ´e linear nos parˆ ametros.
Hip´ otese 2 (Amostragem Aleat´ oria): Podemos extrair uma amostra aleat´oria {(x1i , · · · , xki , yi ), i = 1, · · · , n} da popula¸c˜ ao.
˜ CAP´ITULO 1. REVISAO
24
Observa¸ c˜ ao 1.6.1. Nos livros-texto esta hip´ otese ´e geralmente substitu´ıda por uma hip´ otese de que X ´e determin´ıstico (n˜ ao aleat´ orio) e seus valores podem ser escolhido de antem˜ ao.
Hip´ otese 3 (M´ edia Condicional Zero): E(U |X) = 0 Hip´ otese 4 (N˜ ao h´ a Multicolinearidade Perfeita): As vari´aveis explicativas X1 , · · · , Xk s˜ao linearmente independentes. Logo, Xj , j = 1, · · · , k n˜ao podem ser constantes. Lembrando que o posto de uma matriz X ´e a dimens˜ao do subspa¸co gerado pelas colunas da matriz, esta hip´otese implica que a matriz de design associada ao modelo,
1 x11
x21
···
xk1
X=
1 x12 .. .. . .
x22 .. .
··· .. .
xk2 .. .
1 x1n x2n · · ·
xkn
n×(k+1)
tem posto m´ aximo, isto ´e, posto(X) = k + 1, pois n ≥ k + 1. Relembre das propriedades de ´algebra matricial que posto(X 0 X) = posto(X) = k + 1, e assim, (X 0 X) ´e uma matriz invert´ıvel. Hip´ otese 5 (Homocedasticidade): Se U1 , · · · , Un ´e a sequˆencia de erros relativa ao modelo linear Y = Xβ + U baseado numa amostra de tamanho n do modelo. Ent˜ao Var(Ui |X) = σ 2 , para todo i, ou seja, a variˆ ancia do erro ´e constante. Hip´ otese 6 (Ausˆ encia de (Auto)Correla¸ c˜ ao (Serial) Condicional): Cov(Ui , Uj |X) = 0, para todo i e j com i 6= j. Hip´ otese 7 (Normalidade): Ui ∼ N (0, σ 2 ) para todo i. Tal hip´otese ser´a necess´aria para inferˆencia. Teorema 1.6.1. (de Gauss-Markov) Dentro da classe dos estimadores lineares e n˜ ao-viesados, e dadas as hip´ oteses do MCRL, os EMQs s˜ ao estimadores que possuem a menor variˆ ancia (BLUE - Best Linear Unbiased Estimator).
´ 1.6. METODO DE M´INIMOS QUADRADOS (MQO) 1.6.3
25
O Coeficiente de Determina¸ c˜ ao
Existe alguma medida que mostre que um determinado modelo apresenta um bom poder preditivo? Ou seja, se o regressor (X) que eu inclui no meu modelo explica bem a vari´avel dependente (Y )? Para construirmos tal medida, primeiramente definimos n X
(yi∗ )2 = Soma dos Quadrados Totais (SQT )
i=1 n X
(b yi∗ )2 = Soma dos Quadrados Explicados (SQE)
i=1 n X
u b2i = Soma dos Quadrados dos Res´ıduos (SQR)
i=1
Pode-se mostrar facilmente que SQT = SQE + SQR. Dividindo a express˜ ao por SQT , teremos 1=
SQE SQR + . SQT SQT | {z } R2
O R2 mede o quanto (em porcentagem) da varia¸c˜ao da vari´avel dependente pode ser explicado pela introdu¸c˜ ao do regressor no modelo. Pode-se mostrar que R2 ∈ [0, 1]. Express˜ oes alterntivas para R2 s˜ ao as que segue: P c2 P ∗ 2 Pn u (b yi − y)2 (b yi ) SQE SQR i=1 i R = =1− = P ∗ 2 = Pn = 1 − Pn i i , 2 2 SQT SQT i (yi ) i=1 (yi − y) i=1 (yi − y) 2
Uma deficiˆencia do R2 ´e que este nunca diminui quando adicionamos regressores, o que implica que o R2 favorece modelos mais complexos. Para minimizar esta deficiˆencia, uma alternativa ´e penalizar, em certo grau, a inclus˜ao de regressores. Um coeficiente muito utilizado na pr´atica e que faz exatamente isso ´e o chamado R2 ajustado definido por
R
2
[SQR/(n − k − 1)] [SQT /(n − 1)] σ2 SQR 2 = 1− , σ = . [SQT /(n − 1)] n−k−1 = 1−
˜ CAP´ITULO 1. REVISAO
26
O R2 ajustado tamb´em recebe o nome de R2 corrigido ou, em inglˆes, de R-bar squared Pode-se mostrar que SQR/(n − k − 1) ´e um estimador n˜ao-viesado de σ 2 , a variˆancia populacional do erro, e SQT /(n − 1) ´e um estimador n˜ao-viesado de σY2 , a variˆancia de Y . 2
Proposi¸ c˜ ao 1.6.1. Se adicionamos um novo regressor ` a regress˜ ao, ent˜ ao R aumenta e a estat´ıstica t deste novo regressor ´e maior que 1, em m´ odulo. 2
Proposi¸ c˜ ao 1.6.2. Adicionando um grupo de vari´ aveis ` a regress˜ ao, ent˜ ao R aumenta e a estat´ıstica F deste novo grupo de regressores ´e maior que 1. 2
Uma f´ ormula alternativa para o R ´e 2
R =1−
(1 − R2 )(n − 1) . (n − k − 1) 2
Al´em de permitir a compara¸c˜ ao entre modelos ao se incluir/excluir regressores, o R serve tamb´em para a escolha dentre modelos nonnested (n˜ao encaixantes). Por exemplo, o modelo 1 que tem X1 , X2 e X3 como vari´ aveis exlicativas e um outro modelo 2 que tem X1 , X2 e X4 . 2
Mas o R n˜ ao serve para escolher dentre formas funcionais diferentes da vari´avel dependente. Propriedade de N˜ ao-Vi´ es dos Estimadores MQO Assumindo X n˜ ao estoc´ astico, tomando a esperan¸ca dos estimadores MQO em vers˜ ao matricial, obtemos: ˆ = E[(X 0 X)−1 X 0 y] = E[(X 0 X)−1 X 0 (Xβ + U )] E(β) = E[(X 0 X)−1 X 0 Xβ] + E[(X 0 X)−1 X 0 U ] = β + (X 0 X)−1 E[X 0 U ] = β, pois E[X 0 U ] = 0 por hip´ otese. Ou seja, se as vari´aveis regressoras s˜ao n˜ao-correlacionadas com U , o estimador MQO ser´ a n˜ ao-viesado. Variˆ ancia dos Estimadores MQO Para um modelo de regress˜ ao linear m´ ultipla, a variˆancia do estimador de cada βj ´e dado por
Var(βˆj ) =
2 σu , Var(X j)
1 n−1
Pn
yi −y)2 i=1 (ˆ Var(Xj )
se a variˆancia de U , σU2 ´e conhecida; , se σU2 ´e desconhecida.
1.7. FORMAS FUNCIONAIS LOGAR´ITMICAS 1.6.4
27
Testes de Hip´ oteses
Teste t Se queremos testar individualmente a significˆancia (H0 : βj = 0) do modelo yi = β0 + β1 x1i + · · · + βk xki + ui , a estat´ısticade teste ´e dada por βˆj − βj t= q ∼ tn−k−1 ˆ Varβj Observa¸ c˜ ao 1.6.2. Se houver problema de multicolineariedade, Rj2 ser´ a alto, a variˆ ancia ser´ a alta, e a estat´ıstica de teste t ser´ a baixa, e os estimadores ser˜ ao pouco significativos (neste caso assumindo βj = 0). Teste F A estat´ıstica F para um modelo com intercepto, que serve para testar se o modelo ´e significante, ou seja se todos os regressores s˜ao conjuntamente significantes, i.e. H0 : β0 = β1 = · · · = βk = 0 vs. H1 : pelo menos um βj 6= 0, ´e dada por F =
R2 /k ∼ Fk,n−k−1 . (1 − R2 )/n − k − 1
Observa¸ c˜ ao 1.6.3. Se temos um problema de multicolineariedade, ainda assim a estat´ıstica F e R2 do modelo de y contra x n˜ ao depende da correla¸c˜ ao entre os regressores(apenas do SQR e SQT, ou seja, da soma dos quadrados dos res´ıduos e da vari´ avel dependente) e, assim, se tivermos regressores relevantes para explicar y, ent˜ ao F e R2 indicar˜ ao que o modelo como um todo ter´ a um alto poder explicativo.
1.7
Formas Funcionais Logar´ıtmicas
Considere o seguinte modelo: [y = βˆ0 + βˆ1 log x1 + βˆ2 x2 . log Ele ´e log-log de y em rela¸c˜ ao a x1 e ´e log-linear em rela¸c˜ao a x2 . β1 mede a elasticidade de y em rela¸c˜ao a x1 , fixado x2 . A interpreta¸c˜ ao de βˆ1 ´e que para o aumento de 1% em x1 temos um aumento de β1 % em y.
28
˜ CAP´ITULO 1. REVISAO
βˆ2 pode ser interpretado como: um aumento de uma unidade em x2 d´a um aumento exato de 100[exp β2 − 1]% em y. Uma medida aproximada, para uma mudan¸ca pequena em x2 seria 100βˆ2 %. Este coeficiente ´e denominado muitas vezes como semi-elasticidade.
1.8. EXERC´ICIOS
1.8
29
Exerc´ıcios
Exerc´ıcio 1.1. O custo de produ¸ca ˜o de certo bem ´e uma vari´ avel aleat´ oria com fun¸c˜ ao densidade de probabilidade: f (x) = kx2 , 1 ≤ x ≤ 4. (a) Calcule o valor de k; (b) Calcule o custo m´edio do produto; (c) Calcule a probabilidade do custo ser menor do que 2; (d) Calcule a variˆ ancia do custo do produto; (e) Calcule a probabilidade do custo ser maior do que 3;
Exerc´ıcio 1.2. Sejam X e Y duas vari´ aveis aleat´ orias independentes com m´edia µX = E(X) = 4, 2 = Var(X) = 1 e σ 2 = Var(Y ) = 2. µY = E(Y ) = 5, σX Y
(a) Calcule E(X 2 ) e E(Y 2 ); (b) Calcule Var(4X − 2Y ); (c) Calcule Cov(X, Y ); (d) Calcule Cov(X, 2X − 3Y ) (e) Suponha que X1 , X2 , · · · , Xn s˜ ao vari´ aveis aleat´ orias independentes entre si e independentes de X, mas com a mesma distribui¸c˜ ao de probabilidade de X, ou seja, X1 , X2 , · · · , Xn e X s˜ ao vari´ aveis aleat´ orias independentes e identicamente distribu´ıdas (i.i.d) com m´edia µ = 4 e variˆ ancia σ 2 = 1. Calcule: P • E(X) = E n1 ni=1 Xi ; • Var(X); • Cov(X, X).
Exerc´ıcio 1.3. Suponha o seguinte modelo linear: y = Xβ + ε, em que y e ε s˜ ao vetores n × 1, X < ∞ ´e uma matriz n × k e β ´e um vetor k × 1. (a) Determine a(s) hip´ otese(s) necess´ aria(s) para estimar esse modelo por MQO.
˜ CAP´ITULO 1. REVISAO
30
ˆ exista e seja u (b) Determine a(s) hip´ otese(s) necess´ aria(s) para que o β estimado, β, ´nico. (c) Determine a(s) hip´ otese(s) necess´ aria(s) para que βˆ seja n˜ ao viesado. (d) Determine a(s) hip´ otese(s) necess´ aria(s) para que βˆ seja eficiente. (e) Determine a(s) hip´ otese(s) necess´ aria(s) para que se possa fazer inferˆencia estat´ıstica. Exerc´ıcio 1.4. Os dados da tabela relacionam o peso de plantas, Y (em gramas) com o percentual de mat´eria orgˆ anica na terra, X1 e os Kilogramas de nitrogˆenio suplementares agregados a terra por 1000m2 , X2 :
y
x1
x2
78.5
7
2.6
74.3
1
2.9
104.3
11
5.6
87.6
11
3.1
95.9
7
5.2
109.2
11
5.5
102.7
3
7.1
Soma:
652.5
51
32.0
m´edia:
93.21
7.29
4.57
(a) Defina a equa¸c˜ ao de regress˜ ao com intercepto em que y ´e a vari´ avel dependente e x1 e x2 s˜ ao vari´ aveis explicativas. N˜ ao esque¸ca da suposi¸c˜ ao para o termo de erro do modelo. (b) Se
1.80
(X T X)−1 = −0.07
−0.07 −0.25
652.50
−0.00 , e X T Y = 4915.30 , −0.25 −0.00 0.06 3103.66 0.01
ˆ via MQO. determine β ˆ = (51.56, 1.49, 6.72). Resposta: β (c) Se SQres = 27.58 e SQtotal = 28.30, calcule o coeficiente de determina¸c˜ ao. Resposta:R2 = 0.9745, (d) Teste β0 = β1 = β2 = 0, ou seja, a significˆ ancia do modelo. (e) Se dp(βˆ1 ) = 0.2636, (dp=desvio padr˜ ao), teste se a vari´ avel X1 ´e relevante para o modelo.
1.8. EXERC´ICIOS
31
(f ) Se dp(βˆ2 ) = 0.6274, teste a hip´ otese H0 : β2 = 1.
Exerc´ıcio 1.5. Ad˜ ao Ismiti queria verificar se a produtividade aumentava com a divis˜ ao do trabalho. Para isso, fez a seguinte experiˆencia: regrediu a produtividade (p) de n trabalhadores de f´ abricas de alfinetes contra o n´ umero de fun¸c˜ oes exercidas pelo trabalhador (F ), os anos de escolaridade (E), o sal´ ario (w) e o n´ umero de filhos (N ). Formalmente, a regress˜ ao foi: pi = β1 + β2 Fi + β3 Ei + β4 ωi + β5 Ni + ui Usando o teste t-Student, Ismiti n˜ ao rejeitou a hip´ otese nula de parˆ ametro igual a zero para β3 . Retirou a vari´ avel E da regress˜ ao e estimou o modelo restrito, observando que βˆ5 se tornou tamb´em, estatisticamente n˜ ao significativo. Finalmente, retirou N da regress˜ ao e estimou o modelo novamente. (a) Por que n˜ ao foi preciso fazer o teste F em βˆ3 para retirar E do modelo? (b) Justifique se o procedimento adotado por Ismiti est´ a correto ou equivocado, para ter eliminado a vari´ avel N do modelo.
Exerc´ıcio 1.6. Suponha um modelo de regress˜ ao linear m´ ultiplo em que βˆ exista, seja n˜ ao viesado e eficiente, pois u ´e homoced´ astico. Suponha que vocˆe imponha falsas restri¸c˜ oes sobre os parˆ ametros do modelo. (a) Mostre que as estimativas nesse caso s˜ ao viesadas. (b) Mostre que a variˆ ancia das estimativas do modelo com restri¸c˜ oes ´e menor que a variˆ ancia das estimativas do modelo sem restri¸c˜ oes. (c) Qual ´e a implica¸c˜ ao desse resultado em termos de previs˜ ao? Qual ´e a intui¸c˜ ao desse resultado? Sugest˜ ao: Lembre o que ´e o EQM, ou seja, o erro quadr´ atico m´edio.
Exerc´ıcio 1.7. Responda: (a) Cite pelo menos dois testes para a hip´ otese de homocedasticidade. (b) Cite pelo menos um teste para a hip´ otese de autocorrela¸c˜ ao dos res´ıduos.
˜ CAP´ITULO 1. REVISAO
32
(c) Em caso de rejei¸c˜ ao da hip´ otese nula em (a), por qual m´etodo vocˆe estimaria o modelo? (d) Em caso de rejei¸c˜ ao da hip´ otese nula em (b), por qual m´etodo vocˆe estimaria o modelo?
Exerc´ıcio 1.8. Desafio: Fa¸ca os seguinte exerc´ıcios. (a) Suponha que
P∞
i=0 |xi |
< ∞. Mostre que
(b) Prove (ou n˜ ao) que limn→∞
Pn
(c) Prove (ou n˜ ao) que limn→∞
Pn
(d) Prove (ou n˜ ao) que, se
P∞
1 x=1 x 1 x=1 x2
2 i=0 xi
P∞
2 i=0 xi
< ∞.
= ∞. = ∞.
< ∞, ent˜ ao
P∞
i=0 |xi |
< ∞.
Cap´ıtulo 2
S´ eries Temporais O estudo de s´eries temporais tem por objetivos principais definir o processo gerador de dados, fazer previs˜ oes futuras da s´erie, identificar ciclos, tendˆencias e/ou sazonalidades de forma que a decis˜ ao que envolve as vari´aveis em quest˜ao seja a mais acurada poss´ıvel.
2.1
S´ eries Temporais: Defini¸c˜ ao Formal
Neste cap´ıtulo vamos descrever os conceitos b´asicos utilizados dentro da teoria dos modelos de s´eries temporais. Inicialmente vamos introduzir os conceitos de processos estoc´asticos, m´edia e fun¸c˜ ao de covariˆ ancia, processo estacion´ario, e fun¸c˜ao de autocorrela¸c˜ao.
2.1.1
Processos Estoc´ asticos
Seja T um conjunto arbitr´ ario de ´ındices. Um processo estoc´astico ´e uma fam´ılia Z = {Zt , t ∈ T } tal que, para cada t ∈ T , Zt ´e uma vari´avel aleat´oria (v.a.) definida num espa¸co de probabilidades (Ω, A, P ). O conjunto T ´e normalmente tomado como o conjunto dos inteiros Z = {0, ±1, ±2, . . .} ou o conjunto dos reais R. Como, para t ∈ T , Zt ´e uma v.a. definida sobre Ω, na realidade Zt ´e uma fun¸c˜ao de dois argumentos, Z(t, ω), t ∈ T , ω ∈ Ω.
Especifica¸ c˜ ao de um Processo Estoc´ astico Sejam t1 , t2 , . . . , tn elementos quaisquer de T e consideremos F (Z1 , . . . , Zn ; t1 , . . . , tn ) = P Z(t1 ) ≤ z1 , . . . , Z(tn ) ≤ zn
(2.1)
ent˜ao, o processo estoc´ astico Z = {Z(t), t ∈ T } estar´a especificado se as distribui¸c˜oes finitodimensionais de (2.1), s˜ ao conhecidas para todo n ≥ 1. Contudo, em termos pr´aticos, n˜ ao 33
´ CAP´ITULO 2. SERIES TEMPORAIS
34
conhecemos todas essas distribui¸c˜ oes finito- dimensionais. Estudaremos ent˜ao certas caracter´ısticas associadas a (2.1) e que sejam simples de calcular e interpretar. Uma maneira de especificar o processo Z seria determinar todos os produtos dos momentos, ou seja, µ(r1 , . . . , rn ; t1 , . . . , tn ) = E Z r1 (t1) . . . Z rn (tn) ou
Z
∞
µ(r, t) =
Z
∞
... −∞
−∞
Z1r1 . . . Z1rn f (z1 , . . . , zn ; t1 , . . . , tn )dz1 . . . dzn
(2.2)
(2.3)
em que f (Z, t) ´e a fun¸c˜ ao de densidade de F (Z, t). Por´em o que vai nos interessar s˜ ao os momentos de baixa ordem, ou seja, os chamados processos estacion´arios de 2a ordem. Consideramos somente os momentos de primeira e segunda ordem, que ser˜ao apresentados a seguir.
2.2
M´ edias e Covariˆ ancias
Para um processo estoc´ astico {Zt : t = 0, ±1, ±2, . . .} a fun¸c˜ao m´edia (f.m.) ´e definida por µt = E(Zt ), para t = 0, ±1, ±2, . . .
(2.4)
e a fun¸c˜ao de autocovariˆ ancia (FACV) como
γ(t, s) = Cov(Zt , Zs ) = E[(Zt − µt )(Zs − µs )] = E(Zt Zs ) − µt µs , para t, s = 0, ±1, ±2, . . . (2.5) A fun¸c˜ ao de autocorrela¸c˜ ao (FAC) ´e dada por Cov(Zt , Zs ) γ(t, s) ρ(t, s) = Cor(Zt , Zs ) = p =p . Var(Zt )Var(Zs ) γ(t, t)γ(s, s)
(2.6)
Observe que, em princ´ıpio, as fun¸c˜oes γ(t, s) e ρ(s, t) dependem tanto de t quanto de s. Existem, por´em, processos em que essas quantidades n˜ao possuem dependˆencia temporal. Processos com estas caracter´ısticas s˜ao de grande importˆancia e ser˜ao estudados em detalhes mais adiante.
2.3. ESTACIONARIEDADE
35
Propriedades Importantes As seguintes propriedades s˜ ao an´alogas `as da da covariˆancia e correla¸c˜ao ordin´arias: 1. γ(t, t) = Var(Zt ),
ρ(t, t) = 1;
2. γ(t, s) = γ(s, t), ρ(t, s) = ρ(s, t). p 3. |γ(t, s)| ≤ γ(t, t)γ(s, s) e −1 ≤ ρ(t, s) ≤ 1. Como sabemos a correla¸c˜ ao ´e uma medida da dependˆencia linear entre duas vari´aveis. Se Cor(X, Y ) = ±1, isto significa que existem constantes β0 e β1 tais que Y = β0 + β1 X. Valores pr´oximos de ±1 indicam forte dependˆencia (linear) e valores pr´oximos de 0 indicam fraca dependˆencia (linear). Se ρ(t, s) = 0, Zt e Zs s˜ao n˜ao-correlacionadas, mas note que isso n˜ ao quer dizer que elas s˜ ao necessariamentes independentes. Agora, se Zt e Zs s˜ao independentes, ent˜ao ρ(t, s) = 0. Para analisar as propriedades da covariˆancia de v´arios modelos de s´eries temporais, o seguinte resultado ser´ a utilizado: se c1 , c2 , . . . , cm e d1 , d2 , . . . , dn s˜ao constantes e t1 , t2 , . . . , tm e s1 , s2 , . . . , sn s˜ ao pontos no tempo, ent˜ao
Cov
X m
ci Z(ti ),
i=1
n X j=1
X m X n dj Z(sj ) = ci dj Cov Z(ti ), Z(sj )
(2.7)
i=1 j=1
podemos dizer que, a covariˆ ancia entre duas combina¸c˜oes lineares ´e a soma de todas as covariˆancias entre termos de suas combina¸c˜oes lineares. Esta express˜ao pode ser verificada utilizando as propriedades de esperan¸ca e covariˆancia. Como caso especial, podemos obter o seguinte resultado X X n n n n−1 X X Var ci Z(ti ) = c2i Var Z(ti ) + 2 ci cj Cov Z(ti ), Z(tj ) . i=1
2.3
i=1
(2.8)
i=2 j=1
Estacionariedade
Uma s´erie temporal ´e estacion´ aria quando ´e de que uma s´erie temporal estacion´aria Y ela se desenvolve aleatoriamente, no tempo, tende a “flutuar” aleat´oriamente ao redor de em torno de uma m´edia constante, refletindo uma m´edia constante. Uma s´erie temporal ´e alguma forma de equil´ıbrio est´ avel. A id´eia dita possuir uma tendˆencia determin´ıstica se a
´ CAP´ITULO 2. SERIES TEMPORAIS
36 s´erie “flutua” aleatoriamente em torno de uma fun¸c˜ao deterministica. Existe ainda o caso em que a s´erie temporal apresenta uma tendˆencia dita estoc´ atica. Esta se comporta como uma tendˆencia aleat´ oria com o tempo e a s´erie tipicamente flutua ao redor desta. A Figura 2.3 apresenta uma s´erie temporal com tendˆencia determin´ıstica (linear, acima) e uma apresentando o comportamento t´ıpico de tendˆencia estoc´astica (abaixo). Mais detalhes ser˜ao tratados adiante.
Entretanto, a maior parte das s´eries que encontramos na pr´atica apresenta alguma forma de n˜ao estacionariedade. As s´eries econˆomicas apresentam em geral tendˆencias lineares positivas ou negativas. Podemos ter, tamb´em, uma forma de n˜ao-estacionariedade explosiva, como o crescimento de uma colˆ onia de bact´erias.
2.3.1
Estacionariedade forte ou estrita
Um processo estoc´ astico Z(t) ´e dito ser um processo estritamente estacion´ ario se a distribui¸c˜ao conjunta de Z(t1 ), Z(t2 ), . . . , Z(tn ) ´e a mesma distribui¸c˜ao conjunta de Z(t1 −k), Z(t2 − k), . . . , Z(tn − k), para todas as combina¸c˜oes de tempos t1 , t2 , . . . , tn e para todos os “lags” (posi¸c˜oes) k (constante). Quando n = 1, a distribui¸c˜ ao de Zt ´e igual a distribui¸c˜ao de Zt−k para qualquer k, ou seja, se os Z 0 s s˜ ao identicamente distribu´ıdos, E(Zt ) = E(Zt−k ), para todo t e k, e as fun¸c˜ oes
2.3. ESTACIONARIEDADE
37
m´edia, µt , e variˆ ancia Var(Zt ) = Var(Zt−k ) s˜ao constantes para todo tempo t. Quando n = 2, a distribui¸c˜ ao de (Zt , Zs ) ´e a mesma de (Zt−k , Zs−k ), de onde segue que Cov(Zt , Zs ) = Cov(Zt−k , Zs−k ), para todo t, s e k. Fazendo k = s temos: γ(t, s) = Cov(Zt , Zs ) = Cov(Zt−k , Zs−k )
e se k = t, γ(t, s) = Cov(Zt−t , Zs−t ) = Cov(Z0 , Zs−t )
= Cov(Zt−s , Zs−s ) = Cov(Zt−s , Z0 )
= Cov(Z0 , Zt−s )
= γ(t − s, 0);
= γ(0, s − t),
onde podemos concluir que t − s, γ(t, s) = γ(0, |t − s|), onde |t − s| = s − t,
para t > s; para s > t.
A covariˆ ancia entre Zt e Zs depende somente da diferen¸ca temporal |t − s| e n˜ao dos tempos t e s. Al´em disso, para um processo estacion´ario podemos simplificar a nota¸c˜ao:
γ(k) = Cov(Zt , Zt−k )
ρ(k) = Cor(Zt , Zt−k ).
As propriedades gerais para um processo estacion´ario s˜ao: 1. γ0 = Var(Zt ), ρ(0) = 1; 2. γ(k) = γ(−k), ρ(k) = ρ(−k); 3. |γ(k)| ≤ γ(0), |ρ(k)| ≤ 1. Se um processo ´e estritamente estacion´ario e tem variˆancia finita, ent˜ao a FACV depende somente de um certo lag k.
´ CAP´ITULO 2. SERIES TEMPORAIS
38 2.3.2
Estacionariedade fraca ou de segunda ordem
A estacionariedade forte ´e um conceito na maioria das vezes dif´ıcil de ser identificado na pr´atica. Uma outra maneira de se definir a estacionariedade de uma s´erie, de forma a ser u ´til e matematicamente mais simples de se verificar na pr´atica do que a estacionariedade forte ´e a seguinte: um processo estoc´ astico Zt ´e dito ser fracamente estacion´ ario ou estacion´ ario de segunda-ordem se:
1. a fun¸c˜ ao m´edia ´e constante para todo tempo t; 2. γ(t, t − k) = γ(0, k) = γ(k) para todo tempo t e de “lag” k. A condi¸c˜ ao γ(t, t − k) = γ(k) para todo tempo t e “lag” k ´e equivalente a ρ(t, t − k) = ρ(k). Como veremos adiante, em processos fracamente estacion´arios as fun¸c˜oes de autocovariˆancia e autocorrela¸c˜ ao desempenham papel central.
2.3.3
Teste para significˆ ancia das autocorrela¸ c˜ oes
Mais adiante quando estudarmos modelagem ARIMA, precisaremos de ferramentas para decidir se uma dada s´erie ´e n˜ ao-correlacionada. Para testar a hip´otese conjunta de que ρ(1) = · · · = ρ(m) = 0 contra a hip´ otese de que algum ρ(k) 6= 0, pode-se usar a estat´ıstica QBP desenvolvida por Box e Pierce, ou a estat´ıstica QLB desenvolvida por Ljung-Box , definidas, respectivamente, por: Box e Pierce QBP (m) = n
Ljung-Box m X
ρˆ2k (ˆ ε)
k=1
m X ρˆ2k (ˆ ε) QLB (m) = n(n + 2) n−k k=1
em que n ´e o tamanho da amostra (s´erie) e m ´e
a qual se distribui como uma qui-quadrado com
o maior lag considerado na hip´ otese. A estat´ıstica
m graus de liberdade em grandes amostras. A es-
QBP em grandes amostras tem distribui¸ca ˜o qui-
tat´ıstica QLB possui maior poder para amostras
quadrado com m graus de liberdade.
pequenas que a estat´ıstica QBP .
2.3. ESTACIONARIEDADE 2.3.4
39
Fun¸ c˜ ao de autocorrela¸ c˜ ao parcial (FACP)
A fun¸c˜ ao de autocorrela¸c˜ ao parcial (FACP) ´e a correla¸c˜ao entre as vari´aveis yt e yt+k dado que s˜ao conhecidos yt+1 , yt+2 , . . . , yt+k−1 . A FACP para um processo estacion´ario com m´edia zero pode ser obtida a partir da regress˜ao yt+k = φk1 yt+k−1 + φk2 yt+k−2 + · · · + φkk yt + εt+k ,
(2.9)
da qual podem ser obtidas as equa¸co˜es de Yule-Walker. Multiplicando ambos os lados por yt+k−j e calculando o valor dividindo pela variˆancia, tem-se
ρj = φk1 ρj−1 + φk2 ρj−2 + · · · + φkk ρk−j . Ent˜ao para j = 1, 2, . . . , k, temos:
ρ1 = φk1 ρ0 + φk2 ρ1 + · · · + φkk ρk−1 ; ρ2 = φk1 ρ1 + φk2 ρ0 + · · · + φkk ρk−2 ; .. . ρk = φk1 ρk−1 + φk2 ρk−2 + · · · + φkk ρ0 ;
Para k = 1 → φˆ11 = ρ1 . Para k = 2 → ρ1 = φ21 + φ22 ρ1 e ρ2 = φ21 ρ1 + φ22 . Ou podemos escrever a ultima equa¸c˜ao em nota¸c˜ao matricial: " # ρ1 ρ2
" =
1
ρ1
ρ1
1
#" # φ21 φ22
.
cuja solu¸c˜ ao para o estimador de φ22 ´e dada pela regra de Cramer:
φˆ22
1 ρ 1 ρ1 ρ2 = 1 ρ 1 ρ1 1
´ CAP´ITULO 2. SERIES TEMPORAIS
40 Para k = 3 temos as equa¸c˜ oes:
ρ1 = φ31 + φ32 ρ1 + φ33 ρ2 ρ2 = φ31 ρ1 + φ32 + φ33 ρ1 ρ3 = φ31 + φ32 ρ1 + φ33 . Em nota¸c˜ ao matricial temos: φ31 1 ρ1 ρ2 ρ1 ρ2 = ρ1 1 ρ1 φ32 . ρ3 φ33 ρ2 ρ1 1 cuja solu¸c˜ ao para o estimador de φ33 ´e dada por:
φˆ33
1 ρ1 ρ2 = 1 ρ1 ρ2
ρ1 ρ1 1 ρ2 ρ1 ρ3 , ρ1 ρ2 1 ρ1 ρ1 1
e assim sucessivamente.
2.3.5
Operador de defasagem ou operador lag
Em s´eries temporais ´e usual trabalhar com operadores que defasam a vari´avel. Definimos ent˜ao o operador de defasagem L como um operador linear tal que: Operador defasagem Lj Yt = Yt−j S˜ao v´ alidas as seguintes propriedades do operador L: 1. O lag de uma constante ´e a pr´opria constante Lc = c; 2. O operador lag segue a propriedade distributiva em rela¸c˜ao `a soma (Li + Lj )Yt = Li Yt + Lj Yt = Yt−i + Yt−j ;
2.3. ESTACIONARIEDADE
41
´ v´ 3. E alida a propriedade associativa da multiplica¸c˜ao Li Lj Yt = Li (Lj Yt ) = Li (Yt−j ) = Yt−i−j . Ou ainda Li Lj Yt = Li+j Yt = Yt−i−j ; 4. Potˆencias negativas de L significam um operador de avan¸co, L−i Yt = Lj Yt , fazendo j = −i. Ent˜ ao L−i Yt = Lj Yt = Yt−j = Yt+i ; 5. Se |a| < 1 a soma infinita (1 + aL + a2 L2 + · · · )Yt =
2.3.6
6. Se |a| > 1 a soma infinita Yt 1 − aL
(1+(aL)−1 +(aL)−2 +· · · )Yt = −
aL Yt 1 − aL
Ru´ıdo Branco
Um importante exemplo de processo estacion´ario ´e o ru´ıdo branco, o qual ´e definido como uma sequˆencia de vari´ aveis aleat´ orias {εt }∞ t=−∞ com as seguintes propriedades: Ru´ıdo Branco 1. E(εt ) = 0, para todo t ∈ R; 2. E(ε2t ) = σ 2 para todo t ∈ R; 3. E(εt as ) = 0, para todo t 6= s, com t, s ∈ R. Denotaremos um processo ru´ıdo branco por RB(0, σ 2 ). Muitos processos podem ser constru´ıdos a partir do ru´ıdo branco. Pode-se verificar facilmente que se {εt } ´e um RB(0, σε2 ), ent˜ao ´e estritamente estacion´aria, pois P εt1 ≤ x1 , εt2 ≤ x2 , · · · , εtn ≤ xn = = P εt1 ≤ x1 P εt2 ≤ x2 × · · · × P εtn ≤ xn = P εt1 −k ≤ x1 P εt2 −k ≤ x2 · · · P εtn −k ≤ xn = P εt1 −k ≤ x1 , εt2 −k ≤ x − 2, · · · , εtn −k ≤ xn , onde a primeira igualdade ´e devido a independˆencia das vari´aveis e a segunda por serem identicamente distribu´ıdas. Temos tamb´em que µt = E(εt ) ´e constante com FACV dada por
´ CAP´ITULO 2. SERIES TEMPORAIS
42
( γ(k) =
σε2 ,
se k = 0;
0,
se k 6= 0.
( ρ(k) =
1,
se k = 0;
0,
se k 6= 0.
O termo ru´ıdo branco resulta do fato que em uma an´alise de frequˆencia do modelo, podemos mostrar que todas as frequˆencias s˜ao iguais. As caracte´ıristicas de um processo ru´ıdo branco ficam expl´ıcitas quando analisamos o seguinte gr´ afico
Figura 2.1: Ru´ıdo branco gaussiano simulado,FAC amostral e FACP amostral
Exemplo 2.1. (M´ edia-M´ ovel de ordem 1) Esse ´e um exemplo de um processo estacion´ ario. Suponha que Processo MA(1) Yt = εt − 0.5εt−1 , em que εt ´e um RB(0, σε2 ).
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA M´edia do MA(1)
43
Variˆ ancia do MA(1)
Var(Yt ) = Var(εt − 0.5εt−1 )
µt = E(Yt )
= σε2 + 0.5σε2 = 1.25σε2 .
= E(εt ) − 0.5E(εt−1 ) = 0
Tamb´em Cov(Yt , Yt−1 ) = Cov(εt − 0.5εt−1 , εt−1 − 0.5εt−2 ) = −0.5Cov(εt−1 , εt−1 ), ou γ(t, t − 1) = −0.5σε2 . Al´em disso Cov(Yt , Yt−k ) = 0, para k ≥ 2. Concluimos que −0.5σ 2 , ε γ(k) = 0,
2.4
se |k| = 1; se |k| > 1.
e
−0.4, ρ(k) = 0,
se |k| = 1; se |k| > 1.
Metodologia de Box-Jenkins - Modelagem ARMA
Na an´ alise de s´eries temporais, a metodologia de Box-Jenkins, em homenagem ao estat´ısticos George Box e Jenkins Gwilym, aplica-se os modelos autorregressivo de m´edia m´ovel ARMA ou ARIMA para encontrar o melhor ajuste dos valores passados de uma s´erie temporal, para ent˜ao fazer previs˜ oes. O procedimento pode ser resumido em trˆes etapas: 1. Identifica¸c˜ ao e sele¸c˜ ao do modelo. Nesta etapa verificamos se as vari´aveis s˜ao estacion´ arias, identificando poss´ıveis tendˆencias e/ou sazonalidades na s´erie, removendo-as quando detectadas. Fazemos o uso das fun¸c˜oes de autocorrela¸c˜ao e autocorrela¸c˜ao parcial para decidir qual modelo da classe ARIMA ´e adequado para uma primeira tentativa de modelagem. 2. Estima¸c˜ ao dos parˆ ametros usando algoritmos computacionais para chegar a coeficientes que melhor se adaptam ao modelo ARIMA selecionado. Os m´etodos mais comuns s˜ ao a m´ axima verossimilhan¸ca e os m´ınimos quadrados n˜ao-lineares. 3. Verifica¸c˜ ao do ajuste do modelo por meio de testes. Nesta fase, verificamos se o modelo estimado est´ a em conformidade com as especifica¸c˜oes do modelo te´orico proposto. De suma importˆ ancia ´e a an´ alise residual na qual o objetivo ´e verificar se os res´ıduos
´ CAP´ITULO 2. SERIES TEMPORAIS
44
satisfazem a hip´ otese de serem n˜ao-correlacionados. De grande utilidade s˜ao os teste Ljung-Box. Se o modelo proposto ´e inadequado, temos que voltar para a primeira etapa e tentar encontrar um modelo melhor. Um dos modelos mais simples e bastante u ´til ´e o modelo autorregressivo. Consideremos o caso mais simples.
2.4.1
Modelo Autorregressivo de Ordem 1 AR(1)
Processo AR(1) Yt = c + φYt−1 + εt , em que εt ´e um RB(0, σε2 ). Por simplicidade, assumimos que os momentos incondicionais seja iguais, o que implica que EYt = EYt−1 .
A m´edia do processo AR(1) ´e
Observe que µ = 0, quando c = 0. A variˆancia do AR(1) ´e
µ = EYt = Ec + φEYt−1 + Eεt Assim, µ = c + φµ + 0, o que implica em µ=
Var(Yt ) = E(Yt2 ) − µ2 =
σ2 . 1 − φ2
c . 1−φ
Observe que se |φ| > 1, a variˆ ancia ser´a negativa, o que ´e um absurdo. Neste caso as equa¸c˜oes n˜ ao s˜ ao compat´ıveis com nenhum processo. Quando |φ| = 1, a variˆancia de Yt ser´ a infinita, o que dificulta imensamente a inferˆencia estat´ıstica. Deste exemplo, ´e poss´ıvel concluir que ´e necess´ario estabelecer algumas restri¸c˜oes sobre a s´erie temporal para que se possa estim´a-la. Em particular, uma condi¸c˜ao necess´aria para estimar a s´erie temporal ´e que |φ| < 1. Podemos encontrar o mesmo resultado sem a suposi¸c˜ao de que os momentos incondicionais sejam iguais. Para isso usamos o operador defasagem L para reescrever o AR(1) como um MA(∞) (processo que ser´ a definido a seguir )
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
45
Yt = c + φYt−1 + εt ;
(1 − φL)Yt = c + εt ; ∞
Yt =
X c + φj εt−j = µ + ψ(L)εt , 1−φ j=0
em que µ = c/(1 − φ) e ψ(L) = (1 − φL)−1 = 1 + φL + φ2 L2 + · · · . Pode-se ent˜ ao calcular
EYt = µ +
∞ X
φj E(εt−j ) = µ.
j=0
X 2 X ∞ ∞ j Var(Yt ) = E(Yt − µ) = E φ εt−j = φ2j E(ε2t−j ) = 2
j=0
j=0
σ2 . 1 − φ2
A fun¸c˜ ao de autocovariˆ ancia de lag j ´e:
γj
= E[(Yt − µ)(Yt−j − µ)] X X ∞ ∞ s s = E φ εt−s φ εt−s−j 2
s=0 j j+2
= σ (φ + φ φj = σ2, 1 − φ2
+φ
s=0 j+4
+ ···)
Como a m´edia e as covariˆ ancias n˜ao s˜ao fun¸c˜oes do tempo o processo ´e fracamente estacion´ario, independente do valor de φ (com a restri¸c˜ao de que 0 < φ2 < 1). A fun¸c˜ ao de autocorrela¸c˜ ao de ordem j ´e dada por
ρj =
φj σ2 1−φ2 σ2 1−φ2
= φj .
´ CAP´ITULO 2. SERIES TEMPORAIS
46
Podemos ver que a fun¸c˜ ao de autocorrela¸c˜ao decresce.
2.4.2
Passeio Aleat´ orio (Random Walk)
Quando φ = 1 no caso anterior, temos o processo chamado passeio aleat´orio. Seja {εt }t∈N um RB(0, σε2 ). A s´erie temporal, Zt , ´e constru´ıda da seguinte maneira: Z1 = ε1 , Z2 = ε1 + ε2 , . . . , Zt = ε1 + ε2 + . . . + εt , ou Passeio Aleat´ orio Zt = Zt−1 + εt .
M´edia µt
Variˆ ancia =
E(Zt ) = E(ε1 + ε2 + · · · + εt )
=
Var(ε1 + ε2 + · · · + εt )
=
E(ε1 ) + E(ε2 ) + · · · + E(εt )
=
Var(ε1 ) + · · · + Var(εt )
=
0 + 0 + · · · + 0 = 0,
=
σε2 + σε2 + · · · + σε2 = tσε2 .
Var(Zt )
Assim, Var(Zt ) = tσε2 .
como E(εt ) = 0, temos: µt = 0, para todo t.
Observe que a variˆ ancia do processo cresce linearmente com o tempo, sendo assim um processo n˜ ao-estacion´ ario. Suponha agora que 1 ≤ t ≤ s, teremos ent˜ao, γ(t, s) = Cov(Zt , Zs ) = Cov(ε1 + ε2 + · · · + εt , ε1 + ε2 + . . . + εs ) = Cov(ε1 , ε1 ) + Cov(ε2 , ε2 ) + · · · + Cov(εt , εt ) = σε2 + σε2 + · · · + σε2 = tσε2 em que Cov(εt , εs ) = 0 para t 6= s temos ent˜ao que a FACV ´e dada por
FACV do passeio aleat´ orio γ(t, s) = tσε2 , para 1 ≤ t ≤ s
FAC do passeio aleat´ orio r t ρ(t, s) = , para 1 ≤ t ≤ s. s
O passeio aleat´ orio ´e um exemplo simples que representa diversos fenˆomenos como o movimento comum de pre¸cos e t´ıtulos e tamb´em a posi¸c˜ao de pequenas part´ıculas suspensas
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA dentro de um flu´ıdo, chamado movimento Browniano.
Figura 2.2: Passeio aleat´ orio simulado, FAC amostral e FACP amostral
2.4.3
Modelos Autorregressivos de Ordem p, AR(p)
O processo autorregressivo de ordem p ´e definido como AR(p) Defini¸c˜ao com o operador defasagem Yt = c + φ1 Yt−1 + · · · + φp yt−p + εt p X = c+ φj yt−j + εt .
Φp (L)Yt = εt ,
j=1
Φp (L) = 1 − φ1 L − φ2 L2 − . . . − φp Lp .
Alguns processos simulados:
47
48
´ CAP´ITULO 2. SERIES TEMPORAIS
Figura 2.3: AR(1) simulado com coeficiente φ1 = 0.5, FAC amostral e FACP amostral.
Figura 2.4: AR(1) simulado com coeficiente φ1 = −0.5, FAC amostral e FACP amostral.
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
49
Figura 2.5: AR(1) simulado com coeficiente φ1 = 0.8, FAC amostral e FACP amostral.
Figura 2.6: AR(2) simulado com coeficientes φ1 = 0.5 e φ2 = −0.7, FAC amostral e FACP amostral.
50
´ CAP´ITULO 2. SERIES TEMPORAIS
Figura 2.7: AR(2) simulado com coeficientes φ1 = 0.5, φ2 = −0.7 e φ3 = 0.6, FAC amostral e FACP amostral.
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA 2.4.4
51
Modelo de M´ edias-M´ oveis (MA(q))
Considere a s´erie Yt , chamamos de m´edias-m´oveis de ordem q o modelo: MA(q) Yt = εt + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q em que εt ´e um RB(0, σε2 ). Esta
terminologia
vem
do
fato
que
Yt
´e
obtido
aplicando-se
os
pesos
1, −θ1 , −θ2 , . . . , −θq , ` as vari´ aveis εt − εt−1 − εt−2 − . . . − εt−q e ent˜ao movendo os mesmos pesos 1 unidade do tempo a frente e aplicando-lhes a εt+1 − εt − εt−1 − . . . − εt−q+1 para obter Yt+1 . Usando o operador L, podemos reescrever o modelo MA(q) como MA(q) Yt = Θq (L)εt ,
(2.10)
Θq (L) = 1 + θ1 L + θ2 L2 + . . . + θq Lq .
(2.11)
em que
2.4.5
O modelo MA(1)
Para q = 1, obtemos o modelo: Yt = εt − θ1 εt−1 , em que εt ´e um RB(0, σε2 ). Segue que E(Yt ) = 0, e a variˆancia ´e igual a: γ0 = Var(Yt ) = Var(εt − θ1 εt−1 ) = σε2 + θ12 σε2 = σε2 (1 + θ2 ).
(2.12)
´ CAP´ITULO 2. SERIES TEMPORAIS
52 temos ainda que a fun¸c˜ ao de autocovariˆancia ´e: γ1 = Cov(Yt , Yt−1 )
= Cov(εt − θ1 εt−1 , εt−1 − θ1 εt−2 ) = −θ1 Cov(εt−1 , εt−1 ) = −θ1 σε2 e para k ≥ 2 teremos γk = Cov(Yt , Yt−k ) = 0, e a FAC ser´ a dada por: ρk =
2.4.6
1
−θ
1+θ2 0
se
k = 0;
se
k = 1;
se
k ≥ 2.
Propriedades do modelo MA(q)
Considere o modelo de ordem q Yt = εt + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q em que εt ´e um RB(0, σε2 ). Segue que E(Yt ) = 0 e a variˆancia ´e
γ0 = Var(Yt ) = Var(εt + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q ) = (1 + θ12 + . . . + θq2 )σε2 a fun¸c˜ao de autocovariˆ ancia ´e dada por
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
γ1 = Cov(Yt , Yt−1 ) = Cov(εt + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q , εt + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q ) = θ1 σε2 + θ1 θ2 σε2 + · · · + θq−1 θq σε2 = (θ1 + θ1 θ2 + · · · + θq−1 θq )σε2 , para k = 1; e γ2 = (θ2 + θ1 θ3 + . . . + θq−2 θq )σε2 , para k = 2; e para k ≥ q + 1 vamos ter γk = 0. Enquanto que a FAC ser´ a dada por
ρk =
θk + θ1 θk+1 + . . . + θq−k θq , 1 + θ12 + . . . + θq2
para k = 1, . . . , q.
Figura 2.8: MA(1) simulado com coeficiente θ1 = 1, FAC amostral e FACP amostral.
53
54
´ CAP´ITULO 2. SERIES TEMPORAIS
Figura 2.9: MA(1) simulado com coeficiente θ1 = −0.8, FAC amostral e FACP amostral.
Figura 2.10: MA(2) simulado com coeficientes θ1 = −0.8 e θ2 = 0.4, FAC amostral e FACP amostral.
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
55
Figura 2.11: MA(2) simulado com coeficientes θ1 = −0.8, θ2 = 0.4 e θ3 = 1.4, FAC amostral e FACP amostral. 2.4.7
Modelo ARMA(p,q)
Um modelo mais geral ´e dado pela representa¸c˜ao AR e MA, chamada ARMA, ARMA(p,q) Φp (L)Yt = Θq (L)εt , em que εt ´e um RB(0, σε2 ), L ´e o operador “lag”, Φp (L) e Θp (L) s˜ao polinˆomios de graus p e q. O polinˆ omio Φp (L) define a parte autorregressiva (AR) do modelo enquanto o polinˆomio Θp (L) define a parte m´edia m´ ovel (MA). Por exemplo, o modelo ARMA(2,3) ´e escrito como
Φ2 (L)Yt = Θ3 (L)εt (1 − φ1 L − φ2 L2 )Yt = (1 + θ1 L + θ2 L2 + θ3 L3 )εt Yt = φ1 Yt−1 + φ2 Yt−2 + εt + θ1 εt−1 + θ2 εt−2 + θ3 εt−3 .
56
´ CAP´ITULO 2. SERIES TEMPORAIS
Exemplos de modelos ARMA simulados
Figura 2.12: ARMA(1,1) simulado com coeficientes φ1 = 0.5 e θ1 = −0.8, FAC amostral e FACP amostral.
Figura 2.13: ARMA(1,3) simulado com coeficientes φ1 = 0.5, θ1 = −0.8, θ2 = 0.4 e θ3 = 1.4, FAC amostral e FACP amostral.
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
57
Figura 2.14: ARMA(3,1) simulado com coeficientes φ1 = 0.5, φ2 = −0.7, φ3 = 0.6 e θ1 = −0.8, FAC amostral e FACP amostral.
´ CAP´ITULO 2. SERIES TEMPORAIS
58 2.4.8
Causalidade, Invertibilidade e Estacionariedade
O conceito de causalidade consiste em escrever um processo AR(q) como um MA(∞). Um processo linear {Yt } ´e CAUSAL (estritamente, uma fun¸c˜ao causal de {εt }) se existe Ψ(L) = ψ0 + ψ1 L + ψ2 L2 + · · · com
P∞
j=0 |ψj |
<∞e Yt = Ψ(L)εt .
O modelo AR(1):
Yt = φYt−1 + εt , pode ser escrito como Yt = εt + φεt−1 + φ2 εt−2 + · · · + φk−1 εt−(k−1) + φk yt−k , em que para k grande tem-se
Yt = εt + φεt−1 + φ2 εt−2 + . . . = ψ0 εt + ψ1 εt−1 + ψ2 εt−2 + . . . , em que |φ| < 1 e ψj = φj . O que acontece com a variˆancia de Yt ? Assim, essa representa¸c˜ ao P∞ somente faz sentido se j=0 ψj < ∞, o que ocorre se, e somente se, |φ| < 1.
2.4.9
Invertibilidade
Mostramos que um processo AR pode ser reescrito como um processo MA de ordem infinita atrav´es de pesos ψj ’s. Al´em disso podemos escrever um processo MA como um autorregressivo.
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
59
Um processo linear {Yt } ´e INVERT´IVEL (estritamennte, uma fun¸c˜ao invert´ıvel de {εt }) se existe Φ(L) = φ0 + φ1 L + φ2 L2 + · · · , com
P∞
j=0 |φj |
<∞e εt = Φ(L)Yt .
Considere o modelo MA(1)
Yt = εt − θεt−1 , em que εt ´e um RB(0, σ 2 ). Reescrevendo a equa¸c˜ao acima como εt = Yt + θεt−1 e substituindo t por t − 1 e εt−1 na equa¸c˜ao modificada, temos:
εt = Yt + θ(Yt−1 + θεt−2 ) = Yt + θYt−1 + θ2 Yt−2 Se |θ| < 1, podemos continuar a substitui¸c˜ao e obter:
εt = Yt + θYt−1 + θ2 Yt−2 + . . . , ou seja, Yt = −θYt−1 − θ2 Yt−2 − . . . + εt . Assim, da mesma forma como foi feito para o AR(1), mostramos acima que se |θ| < 1, o MA(1) pode ser invertido (transformado) para um AR(∞). Neste caso dizemos que o modelo MA(1) ´e invert´ıvel.
2.4.10
Polinˆ omio Caracter´ıstico
Nos exemplos mostrados acima tratamos da causalidade e invertibilidade dos casos AR(1) e MA(1) em particular. Para os casos mais gerais AR(p) e MA(q) utilizamos os chamados polinˆ omios caracter´ısticos para decidir se os processos s˜ao causais e/ou invert´ıveis.
´ CAP´ITULO 2. SERIES TEMPORAIS
60
Para um modelo geral AR(p), definimos o polinˆ omio caracter´ıstico AR como Φ(z) = 1 − φ1 z + φ2 z 2 + · · · + φp z p .
Teorema Uma (´ unica) solu¸c˜ ao estacion´ aria para Φ(L)Yt = εt existe se, e somente, as ra´ızes de Φ(z) n˜ ao pertence ao c´ırculo de raio um, ou seja, |z| = 1 → Φ(z) = 1 − φ1 z − · · · − φp z p 6= 0. O processo AR(p) ´e causal se, e somente se as ra´ızes de Φ(z) est˜ao fora do c´ırculo unit´ario, ou seja, |z| ≤ 1 → Φ(z) = 1 − φ1 z − · · · − φp z p 6= 0. Para um modelo geral MA(q), definimos o polinˆ omio caracter´ıstico MA como Θ(z) = 1 + θ1 z + θ2 z 2 + · · · + θq z q .
Teorema Um processo MA(q) ´e invert´ıvel se, e somente se, as ra´ızes de Θ(z) est˜ao fora do c´ırculo unit´ ario, isto ´e, |z| ≤ 1 → Θ(z) = 1 + θ1 z + θ2 z 2 + · · · + θq z q 6= 0. Um processo ARMA ser´ a invert´ıvel e estacion´ario se a parte AR o for, e ser´a invert´ıvel se a parte MA o for.
2.4.11
Estacionariedade e causalidade de um processo ARMA
Para um processo ARMA, as condi¸c˜oes para causalidade, invertibilidade e estacionariedade s˜ao dadas no seguinte teorema.
Teorema 2.4.1. Se Φ(·) e Θ(·) n˜ ao possuem fatores em comum, existe (´ unica) solu¸c˜ ao esta-
´ ´ 2.5. EXERC´ICIOS SOBRE SERIES TEMPORAIS ESTACIONARIAS
61
cion´ aria {Yt } para Φ(L)Yt = Θ(L)εt se, e somente se, |z| = 1 → Φ(z) = 1 − φ1 z − · · · − φp z p 6= 0. Esse processo ARMA(p, q) ´e causal se, e somente se, |z| ≤ 1 → Φ(z) = 1 − φ1 z − · · · − φp z p 6= 0. Ser´ a invert´ıvel se, e somente se |z| ≤ 1 → Θ(z) = 1 + θ1 z + θ2 z 2 + · · · + θq z q 6= 0.
2.5
Exerc´ıcios sobre s´ eries temporais estacion´ arias
Exerc´ıcio 2.1. Defina processo estoc´ astico e ilustre graficamente. Explique o que ´e a realiza¸c˜ ao de um processo estoc´ astico e por que s´eries econˆ omicas podem ser entendidas como geradas por um processo estoc´ asticos. Exerc´ıcio 2.2. Seja {yt }Tt=1 uma s´erie temporal. Quais caracter´ısticas essa s´erie deve apresentar para ser considerada uma s´erie de covariˆ ancia estacion´ aria?
Exerc´ıcio 2.3. Fa¸ca os seguintes items: (a) Defina o que ´e um processo ru´ıdo branco. (b) Defina o que ´e um processo independente e identicamente distribu´ıdo (i.i.d.). (c) Defina ru´ıdo branco Gaussiano. (d) Qual a rela¸c˜ ao entre ru´ıdo branco, ru´ıdo branco Gaussiano e processo i.i.d.? (e) Esses processos s˜ ao estacion´ arios?
Exerc´ıcio 2.4. Considere um processo MA(1): yt = et + α1 et−1 ; onde et ∼ RB(0, σe2 ). (a) Calcule a m´edia e variˆ ancia de yt . (b) Calcule as autocovariˆ ancias de lags 1 e 2 para a s´erie yt .
´ CAP´ITULO 2. SERIES TEMPORAIS
62
(c) Esse processo ´e estacion´ ario? (Justifique sua resposta usando os valores encontrados nos itens anteriores juntamente com o conceito de estacionariedade definido na Quest˜ ao 1). (d) Comente a afirmativa: “Todo processo MA(q), onde q < ∞, ´e estacion´ ario”. (e) Suponha que α1 = 0.5. O processo ´e invert´ıvel? (f ) Calcule a autocorrela¸c˜ ao de ordem 1 para o processo do item anterior e fa¸ca o gr´ afico da FAC com 5 lags.
Exerc´ıcio 2.5. Considere um processo MA(2): yt = et +α1 et−1 +α2 et−2 ; onde et ∼ RB(0, σe2 ). (a) Calcule a m´edia e variˆ ancia de yt . (b) Calcule as autocovariˆ ancias de lags 1, 2 e 3 para a s´erie yt . (c) Esse processo ´e estacion´ ario? (Justifique sua resposta usando os valores encontrados nos itens anteriores juntamente com o conceito de estacionariedade definido na Quest˜ ao 1). (d) Suponha que α1 = 0.65 e que α2 = −0.20. O processo ´e invert´ıvel? (e) Calcule a autocorrela¸c˜ ao de ordem 1 e 2 para o processo do item anterior e fa¸ca o gr´ afico da FAC com 5 lags.
Exerc´ıcio 2.6. Considere os seguintes processos 1 yt = et + θet−1 e yt = et + et−1 , θ onde et ∼ iid(0, σe2 ) e θ 6= 0. (a) Os processos acima possuem as mesmas autocorrela¸c˜ oes? Verifique. (b) Os processos acima s˜ ao invert´ıveis? Verifique.
Exerc´ıcio 2.7. Considere um processo AR(1): yt = 5 + 0.9yt−1 + et , onde et ∼ RB(0, σe2 ). (a) Esse processo ´e estacion´ ario? Verifique. (b) Calcule as autocorrela¸c˜ oes de ordem 1, 2 e 3 para esse processo. Fa¸ca um esbo¸co do gr´ afico da FAC para esse processo com 5 lags.
´ ´ 2.5. EXERC´ICIOS SOBRE SERIES TEMPORAIS ESTACIONARIAS
63
(c) O que significa o coeficiente de yt−1 num processo AR(1)? (d) Fa¸ca um gr´ afico da FACP desse processo com 5 lags.
Exerc´ıcio 2.8. (a) Explique como se comportam os gr´ aficos da FAC e da FACP em processos AR(p) e em processos MA(q). (b) Esboce os gr´ aficos da FAC e FACP para os seguintes processos: AR(1), AR(3), MA(2) e MA(3).
Exerc´ıcio 2.9. (a) Supondo que E(yt ) = µ e que yt = c0 + β1 yt−1 + et + α1 et−1 , calcule o valor de c0 em termos de µ e β1 . (b) Explique como se comportam os gr´ aficos da FAC e da FACP em processos ARMA(p, q). (c) Esboce os gr´ aficos da FAC e FACP para um processos ARMA(1,1).
Exerc´ıcio 2.10. Explique os passos que devem ser seguidos para a modelagem de uma s´erie temporal na metodologia ARMA.
Exerc´ıcio 2.11. (2014-5) Suponha que Yt seja representado pelo seguinte processo autoregressivo de primeira ordem: Yt = 10 + 0, 6Yt−1 + et , em que et ´e um ru´ıdo branco que satisfaz as condi¸co ˜es: E(et ) = 0, E(e2t ) = σ 2 , E(et es ) = 0 para t 6= s. Suponha tamb´em que Y0 = 0. Obtenha E(Yt ) para t = 2.
Exerc´ıcio 2.12. (2014-10) Considere o seguinte processo: Yt = ρYt−1 + et , t = 1, 2, · · · , em que Y0 = 0 e et ´e um ru´ıdo branco que satisfaz as condi¸c˜ oes: E(et ) = 0, E(e2t ) = σ 2 , E(et es ) = 0 para t 6= s. S˜ ao corretas as afirmativas: O) Se ρ = 1, E(Yt ) = 0 para todo t; 1) Se ρ = 1, Var(Yt ) = t para todo t; 2) Se ρ = 1, E(Yt+h /Yt ) > Yt para todo h ≥ 1;
´ CAP´ITULO 2. SERIES TEMPORAIS
64 3) Se |ρ| < 1, Var(Yt ) = 1; 4) Se |ρ| < 1, E(Yt+h /Yt ) = ρh Yt para todo h ≥ 1.
Exerc´ıcio 2.13. (2013-13) Considere o seguinte processo xt = µ + et + α1 et−1 , para t = 1, 2, · · · , no qual et ´e uma sequˆencia i.i.d com m´edia 0 e variˆ ancia σe2 . Julgue as seguintes afirmativas: O) Var[xt ] = (1 + α12 )σe2 . 1) Cov(xt , xt+h ) = 0, h > 1. 2) E[xt ] = µ + t. 3) O processo descrito acima ´e estacion´ ario em covariˆ ancia. 4) A fun¸ca ˜o de autocorrela¸ca ˜o deste processo ´e: ρ1 =
α1 1+α21
e ρj = 0 para j > 1.
Exerc´ıcio 2.14. (2012-08) Suponha que Y t seja descrito por um processo auto-regressivo de ordem 3, isto ´e, Yt = Yt−1 − 0, 50Yt−3 + εt e que εt |Yt−j ∼ N (0, σ 2 ), ∀j > 0. Calcule a correla¸c˜ ao entre Yt e Yt−2 . Multiplique o resultado por 100.
Exerc´ıcio 2.15. (2011-11) Julgue as seguintes afirmativas: O) O processo AR(2), yt = ρ1 yt−1 + ρ2 yt−2 + εt , em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ 2 , ´e estacion´ ario de segunda ordem se e somente se as ra´ızes do polinˆ omio x2 − ρ1 x + ρ2 est˜ ao fora do c´ırculo unit´ ario. 1) No processo MA(2), yt = εt + θ1 εt−1 + θ2 εt−2 , em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ 2 , a covariˆ ancia entre yt e yt−3 ´e igual a zero. 2) No passeio aleat´ orio com drift, yt = c + yt−1 + εt , y0 = 0, em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ 2 , a m´edia de yt varia com t. 3) No processo MA(1), yt = εt + θ1 εt−1 , em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ 2 , a correla¸c˜ ao entre yt e yt − 1 ´e menor ou igual a 0,5 em valor absoluto.
´ ´ 2.5. EXERC´ICIOS SOBRE SERIES TEMPORAIS ESTACIONARIAS
65
4) O processo ARMA(1,1), yt = ρyt−1 + εt + θεt−1 , em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ 2 , ´e estacion´ ario de segunda ordem se e somente se |ρ| < 1 e |θ| < 1.
Exerc´ıcio 2.16. (2009-15) ´ correto afirmar que: E O) No processo AR(1), yt = φ0 + φ1 yt−1 + et , em que φ1 < 1 e et ´e um ru´ıdo branco de m´edia nula e variˆ ancia σ 2 , a m´edia de yt ser´ a igual a φ0 . 1) O processo MA(1), yt = et + θet−1 , em que et ´e um ru´ıdo branco de m´edia nula e variˆ ancia constante, ser´ a estacion´ ario mesmo que θ > 1. ´ 2) Seja a fun¸c˜ ao de autocorrela¸c˜ ao do processo AR(1) definido no item (0) dada por ρj . E correto afirmar que ρj = φj1 . 3) O processo AR(2), yt = φ0 + φ1 yt−1 + φ2 yt−2 + et , em que et ´e um ru´ıdo branco de m´edia nula e variˆ ancia σ 2 , ser´ a estacion´ ario de segunda ordem se, e somente se, φ1 < 1 e φ2 < 1. 4) No modelo ARMA(1,1), yt = φ0 + φ1 yt−1 + et + θet−1 , em que et ´e um ru´ıdo branco de m´edia nula e variˆ ancia constante (σ 2 ), a variˆ ancia de yt ´e dada por
σ 2 (1+θ2 ) 1−φ2
Exerc´ıcio 2.17. Considere uma s´erie temporal com 200 observa¸c˜ oes. A figura 1 mostra a evolu¸c˜ ao da s´erie ao longo do tempo. A tabela 1 fornece as autocorrela¸co ˜es, ρ’s, e autocorrela¸c˜ oes parciais, φ’s, estimados a partir dessa s´erie.
Figura 2.15: s´erie temporal simulada
´ CAP´ITULO 2. SERIES TEMPORAIS
66 Tabela 1 k
1
2
3
4
5
6
7
8
9
10
ρk
0.51
0.13
0.01
0.04
0.03
0.00
0.04
0.02
0.08
0.01
φk,k
0.51
-0.18
0.03
0.06
-0.03
-0.00
0.07
-0.05
0.13
-0.11
(a) Analisando a Figura 1 a s´erie parece ser estacion´ aria? Explique. (b) Fa¸ca o gr´ afico da FAC e FACP para esse processo. (c) Calcule o crit´erio para decis˜ ao quanto ` a significˆ ancia das autocorrela¸c˜ oes estimadas e represente esse crit´erio nos gr´ aficos da FAC e FACP. (d) Qual(is) modelo(s) vocˆe prop˜ oe para ajustar essa s´erie temporal? Justifique.
Exerc´ıcio 2.18. Usando a esperan¸ca condicional, calcule as previs˜ oes 1, 2 e 3 passos a frente (b yT (1), ybT (2), ybT (3)) para os seguintes processos: (a) AR(1); (b) AR(2); (c) MA(1); (d) MA(3); (e) ARMA(1,1); (f ) ARMA(2,2).
Exerc´ıcio 2.19. Abaixo (Figura 2) encontram-se os gr´ aficos da FAC e FACP calculados para uma s´erie {yt }200 t=1 .
(a) Analisando a Figura 2 a s´erie parece ser estacion´ aria? Explique. (b) Usando os gr´ aficos da FAC e FACP, qual(is) modelo(s) vocˆe prop˜ oe para ajustar essa s´erie temporal? Justifique. (Note que o primeiro lag ´e o 1 em ambos os gr´ aficos).
´ ˜ ESTACIONARIAS ´ 2.6. SERIES TEMPORAIS NAO
67
Figura 2.16: lag’s de ACF e PACF
2.6
S´ eries temporais n˜ ao estacion´ arias
Nos cap´ıtulos anteriores assumimos que E(Zt ) = 0; Var(Zt ) = σ 2 , para todo t, e γk = Cov(Zt , Zt−k ) n˜ao depende de t, somente de k, No entanto muitas s´eries temporais econˆomicas s˜ao claramente n˜ao estacion´arias no sentido de que a m´edia e a variˆ ancia dependem do tempo, e elas tendem a se afastar permanentemente de qualquer valor ` a medida que o tempo passa. Se esse movimento ´e predominantemente em uma dire¸c˜ ao (para cima ou para baixo), dizemos que a s´erie exibe uma tendˆencia. A tendˆencia das s´eries temporais n˜ao-estacion´arias deve ser removida antes que an´alises adicionais sejam feitas. Existem dois procedimentos usados para remover a tendˆencia: 1. Estima¸c˜ ao das regress˜ oes no tempo; 2. Diferencia¸c˜ ao sucessiva. Na figura a seguir o exemplo cl´assico de dados de companhias a´ereas apresentados por Box & Jenkins. Os dados apresentam o total mensal de passageiros internacionais no per´ıodo de 1949 `a 1960.
Observe que a s´erie Zt apresenta n˜ao estacion´ariedade causada por uma tendˆencia determin´ıstica e tamb´em por uma sazonalidade. A defasagem, no caso Zt−4 , apresenta a mesma
´ CAP´ITULO 2. SERIES TEMPORAIS
600
68
500
Série de passageiros Série defasada − X(t−4)
300 200 100 −100
0
Passageiros/milhões
400
Série diferenciada
1950
1952
1954
1956
1958
1960
anos
Figura 2.17: Passageiros do tansporte aereo americano de 1949-1960 tendˆencia da s´erie original. Esta tendˆencia determin´ıtica pode ser eliminada por uma diferen¸ca, o que fica evidenciado no gr´afico, no entanto essa n˜ao ´e a forma recomendada. Recomenda-se eliminar com regressores no tempo. 2.6.1
Como lidar com tentˆ encia determin´ıstica
Quando a tendˆencia ´e determin´ıstic,a recomenda-se incluir uma vari´avel tempo t no modelo. Podemos dar alguns exemplos de modelos com tendˆencia detemin´ıstica: O modelo Yt = a + bt + εt
(2.13)
em que εt ∼ RB(0, σε2 ) ´e um ru´ıdo branco, torna-se um ru´ıdo branco com tendˆencia determin´ıstica. O modelo AR(1) com tendˆenca determin´ıstica pode ser escrito da segunte forma Yt = a + bt + φYt−1 + εt .
(2.14)
Quando diferenciamos um modelo com tendˆencia determin´ıstica, podemos potencialmente estar acrescentando ru´ıdo a s´erie, isto ´e, aumentamos a sua variˆancia. Como exemplo disso
´ ˜ ESTACIONARIAS ´ 2.6. SERIES TEMPORAIS NAO
69
consideremos o modelo (2.13), cuja variˆancia ´e Var(Yt ) = Var(a + bt + εt ) = Var(εt ) = σε2 . J´a para a diferen¸ca de Yt temos
Var(∆Yt ) = Var(a + bt + εt − a − b(t − 1) − εt−1 ) = Var(εt ) + Var(εt−1 ) = 2σε2 . Assim, a variˆ ancia da diferen¸ca ´e duas vezes a variˆancia da s´erie e isso se refletir´a na previs˜ ao. Logo, quando uma s´erie possui tendˆencia determin´ıstica ´e mais eficiente utilizar uma vari´avel tempo. Vejamos o seguinte exemplo: 280
260
240
pop
220
200
180
160
140
1950
1955
1960
1965
1970
1975
1980
1985
1990
1995
Figura 2.18: Popula¸c˜ao dos EUA (em milh˜oes) 1948-1995
Ajustando o modelo Yt = a + bt + εt via m´ınimos quadrados, temos Modelo 1: MQO, usando as observa¸c˜ oes 1948–1995 (T = 48) Vari´ avel dependente: pop
const time
Coeficiente
Erro Padr˜ ao
147,858 2,41152
0,529293 0,0188056
raz˜ ao-t
p-valor
279,3504 128,2342
0,0000 0,0000
´ CAP´ITULO 2. SERIES TEMPORAIS
70 M´ edia var. dependente Soma res´ıd. quadrados R2 F (1, 46) Log da verossimilhan¸ca Crit´ erio de Schwarz ρˆ
206,9404 149,8604 0,997210 16444,00 −95,43313 198,6087 0,938893
D.P. var. dependente E.P. da regress˜ ao R2 ajustado P-valor(F ) Crit´ erio de Akaike Hannan–Quinn Durbin–Watson
33,80851 1,804947 0,997150 2,07e–60 194,8663 196,2805 0,035818
pop efetivo e ajustado 280
ajustado efetivo
260
240
pop
220
200
180
160
140
1950
1955
1960
1965
1970
1975
1980
1985
1990
1995
Figura 2.19: Ajuste x efetivo para popula¸c˜ao dos EUA entre 1948-1995 O res´ıduo ´e obtido da seguinte forma εˆt = Yt − Yˆt = Yt − a ˆ − ˆbt = Yt − 147, 858 − 2, 41152t, e n˜ao mais apresenta tendˆencia determin´ıstica, como pode ser observado na figura Em alguns casos ´e necess´ ario incluir potˆencias da vari´avel tempo. Cada potˆencia da vari´avel tempo ´e uma nova vari´ avel. Para o exemplo anterior, ter´ıamos ano
pop(milh˜oes)
t
t2
t3
1948
146,631
1
1
1
1949
149,188
2
4
8
1950
152,271
3
9
27
1951
154,878
4
16
64
1952
157,553
5
25
125
1953 .. .
160,184 .. .
6 .. .
36 .. .
216 .. .
´ ˜ ESTACIONARIAS ´ 2.6. SERIES TEMPORAIS NAO
71
Resíduo do ajuste (observado - ajustado) 0,6
0,4
resíduo
0,2
0
-0,2
-0,4
-0,6
1950
1955
1960
1965
1970
1975
1980
1985
1990
1995
Figura 2.20: Popula¸c˜ ao dos EUA entre 1948-1995 eliminando-se a tendˆencia
No caso em que Yt ´e uma fun¸c˜ ao do tempo, constituindo uma s´erie com tendˆencia determin´ıstica, o procedimento ´e semelhante ao exemplo apresentado. Devemos estimar Yt contra o tempo e armazenar os res´ıduos. Estes res´ıduos constituem uma nova s´erie que dever´a ser modelada separadamente. Resumidamente, 1. Estime por m´ınimos quadrados ordin´arios o modelo: Yt = α0 + α1 t + α2 t2 + · · · + αn tn + εt . Comece com n = 1. Enquanto os testes t, F n˜ao rejeitam a significˆancia dos α0 s, deve-se tentar colocar uma potˆencia maior (n + 1). 2. Estima o modelo ARMA(p, q) para os res´ıduos estimados, conforme o cap´ıtulo anterior. Como vimos, neste caso n˜ ao ´e necess´ario diferenciar a s´erie. Uma v´ariavel “tempo” resolve o problema. No entanto, em algumas situa¸c˜oes existe tendˆencia, mas est´a n˜ao ´e previs´ıvel, o que chamamos de tendˆencia estoc´ astica.
´ CAP´ITULO 2. SERIES TEMPORAIS
72 2.6.2
Testes de ra´ız unit´ aria - Identificando tendˆ encia estoc´ astica
Uma s´erie com uma tendˆencia estoc´astica se diferencia de outra com uma tendˆencia determin´ıstica, pois as mudan¸cas na mesma deixam de ter um car´ater transit´orio e passam a apresentar um car´ ater permanente [(Pereira, 1988) e (Gujarati, 2000)]. “A presen¸ca de uma tendˆencia estoc´ astica implica que flutua¸c˜ oes em uma s´erie temporal s˜ ao o resultado de choques n˜ ao somente no componente transit´ orio ou c´ıclico, mas tamb´em no componente de tendˆencia.” [Balke (1991) apud Gujarati (2000, p. 730)] Os testes de ra´ız unit´ aria s˜ ao u ´teis para identficar tendˆencia estoc´astica numa s´erie temporal. Caso a s´erie apresente uma ra´ız unit´aria, a s´erie ser´a n˜ao-estacion´aria e isso afeta diretamente a abordagem/modelagem. Um dos testes mais conhecidos na literatura de s´eries temporais ´e o teste de Dickey Fuller. 2.6.3
Teste de Dickey Fuller (DF)
Considere o modelo autorregessivo de ordem 1, AR(1)
Yt = a0 + ρYt−1 + εt
(2.15)
em que Yt ´e a vari´ avel de interesse, t ´e o ´ındice temporal, ρ ´e coeficente e εt ´e o termo de erro. Uma ra´ız unit´ aria est´ a presente se ρ = 1. O modelo ser´a n˜ao estacion´ario. Nota-se que, quando ρ = 1
Yt = a0 + Yt−1 + εt pode ser reescrito como
Yt = Y0 +
t X
εi + a0 t
i=1
com uma tendˆencia determin´ıstica vindo de a0 t e um intercepto estoc´astico vindo de Y0 + Pt e conhecido como tendˆencia estoc´astica. O modelo de regress˜ ao i=1 εi , resultando no que ´ (2.6.3) pode ser escrito como O teste de Dickey Fuller consiste em fazer um “teste t” (mas com distribui¸c˜ao de DickeyFuller) para a significˆ ancia do seguinte modelo
´ ˜ ESTACIONARIAS ´ 2.6. SERIES TEMPORAIS NAO
73
Teste de Dickey Fuller
∆Yt = (ρ − 1)Yt−1 + εt = δYt−1 + εt , H0 : δ = 0 (N˜ ao estacion´ ario) H1 : δ < 0 (Estacion´ ario)
em que δ ´e a operador diferen¸ca. Testar a presen¸ca de ra´ız unit´aria neste modelo (ρ = 1) ´e equivalente a atestar se δ = 0 em que δ = ρ − 1. Como o teste ´e feito sobre os res´ıduos, n˜ao ´e poss´ıvel usar o teste t de significˆancia devido `a potencial n˜ao-normalidade dos res´ıduos. Para isso existe uma estat´ıstica de teste espec´ıfica, τ cujos valores cr´ıticos est˜ao dispostos na tabela de Dickey Fuller. Existem trˆes vers˜ oes principais do teste: • Teste para ra´ız unit´ aria: ∆Yt = δYt−1 + εt → τ ; • Teste para ra´ız unit´ aria com drift: ∆Yt = µ + δYt−1 + εt → τµ ; • Teste de ra´ız unit´ aria com drift e tendˆecia temporal determin´ıstica: ∆Yt = µ + at + δYt−1 + εt → ττ o teste de Dickey Fuller ´e um teste unilateral a esquerda(veja figura) A estat´ıstica τˆ para cada um dos modelos pode ser obtida da seguinte forma:
τˆ =
δˆ ˆ s(δ)
ˆ ´e o desvio padr˜ em que s(δ) ao de Pn Yt−1 Yt δˆ = Pt=1 − 1, n 2 t=1 Yt−1
(2.16)
´ CAP´ITULO 2. SERIES TEMPORAIS
74
Figura 2.21: Distribui¸c˜ ao da estat´ıstica τ e a regi˜ao cr´ıtica do teste de Dickey Fuller
que ´e a estimativa (via m´ınimos quadrados) de ρ menos 1, para garantir que sob H0 tenhamos δ = 0. O desvio padr˜ ao pode ser obtido a partir do c´alculo da variˆancia amostral n 1X ˆ t−1 ). S = (∆ − δY T 2
t=1
Cada vers˜ ao do teste (τ , τµ e ττ ) tem sua pr´opria estat´ıstica de teste e portanto tem seu pr´oprio valor cr´ıtico o qual depende do tamanho amostral. Esses valores foram obtidos a partir e simula¸c˜ oes de Monte Carlo. Em cada caso, a hip´ otese nula de que existe ra´ız unit´ aria, δ = 0. Para estes testes ´e conhecido que eles tem baixo poder no sentido de que frequentemente n˜ao conseguem distinguir entre processos com ra´ız unit´ aria (δ = 0) de processos com ra´ız quase-unit´aria (δ pr´oximo de zero). A tabela a seguir apresenta alguns valores cr´ıticos para o teste de Dickey Fuller
´ ˜ ESTACIONARIAS ´ 2.6. SERIES TEMPORAIS NAO Estat´ıstica
τ
τµ
ττ
2.6.4
75
n
1%
2.5%
5%
10%
25
-2.66
-2.26
-1.95
-1.60
50
-2.62
-2.25
-1.95
-1.61
100
-2.60
-2.24
-1.95
-1.61
250
-2.58
-2.23
-1.95
-1.61
500
-2.58
-2.23
-1.95
-1.61
¿500
-2.58
-2.23
-1.95
-1.61
25
-3.75
-3.33
-3.00
-2.62
50
-3.58
-3.22
-2.93
-2.60
100
-3.51
-3.17
-2.89
-2.58
250
-3.46
-3.14
-2.88
-2.57
500
-3.44
-3.13
-2.87
-2.57
¿500
-3.43
-3.12
-2.86
-2.57
25
-4.38
-3.95
-3.60
-3.24
50
-4.15
-3.80
-3.50
-3.18
100
-4.04
-3.73
-3.45
-3.15
250
-3.99
-3.69
-3.43
-3.13
500
-3.98
-3.68
-3.42
-3.13
Dickey-Fuller Aumentado
Existe uma exten¸c˜ ao do teste de Dickey-Fuller (DF) chamado de Teste de Dickey-Fuller aumentado (ADF) o qual remove todos os efeitos estuturais (autocorrela¸c˜oes) da s´erie temporal e ent˜ao testa usando o mesmo procedimento. Existem outro testes bem reconhecidos, que surgiram para resolver o problema de baixo poder do teste de Dickey Fuller. Estes testes devem ser tamb´em utilizados em caso de d´ uvida na hora da modelagem. S˜ ao os testes de Phillips-Perron, KPSS, ERS, NG e Perron entre outros. Alguns est˜ ao dispon´ıveis no Gretl, na op¸c˜ao vari´ avel − > testes de ra´ız unit´ aria. 2.6.5
Eliminando tendˆ encia estoc´ astica - Diferen¸ cas sucessivas
O m´etodo de diferencia¸c˜ ao sucessivas ´e utilizado para eliminar tendˆencia estoc´astica. Considere o Operador Diferen¸ca ∆=1−B em que B ´e o operador de defasagem (retardo).
´ CAP´ITULO 2. SERIES TEMPORAIS
76
O resultado de aplicar o operador diferen¸ca a uma s´erie Zt com T observa¸c˜oes ´e obter uma nova s´erie com T − 1 observa¸c˜ oes. Assim,
∆2 Zt = (1 − B)2 Zt
∆Zt = (1 − B)Zt = Zt − BZt
= Zt − 2BZt + B 2 Zt
= Zt − Zt−1 .
= Zt − 2Zt−1 + Zt−2 .
Na figura a seguir temos uma aplica¸c˜ao do operador diferen¸ca. Passeio Aleatório
10
Passeio Aleatório
−10
−5
0
5
Passeio Aleatório diferenciado
0
20
40
60
80
100
tempo
Figura 2.22: Passeio Aleat´orio e sua diferen¸ca
Obs: No Gretl tem uma op¸c˜ ao para acrescentar uma vari´ avel diferen¸ca.
2.7. MODELAGEM ARIMA
2.7
77
Modelagem ARIMA
Quando uma s´eries temporal apresenta tendˆencia estoc´atica (n˜ao estacion´aria) diz-se que ´ necess´ est´a ´e integrada (I(·)). E ario retirar a tendˆencia para ent˜ao analisar o ru´ıdo. Esse ru´ıdo n˜ao necess´ ariamente ´e um ru´ıdo branco. Pode ser um modelo ARMA, por exemplo. Como visto anteriormente, a maneira de retirar a tendˆencia estoc´astica de uma s´erie temporal ´e diferencindo-´ a. Algumas vezes, ´e necess´ario diferenciar mais do que uma vez a s´erie temporal at´e torn´a-la estacion´ aria.
Diz que uma s´erie sem nenhuma ra´ız unit´aria ´e I(0). A s´erie ´e dita I(1) se for necess´ ario diferenci´a-la uma vez para torn´a-la estacion´aria. A s´erie ´e dita I(d) se for necess´ ario diferenci´a-la d vezez para torn´a-la estacion´aria.
0 10 20 30 40 50 60
Vendas
Na figura 2.23 s˜ ao apresentados a s´erie sobre dados de vendas BJsales de Box & Jankins.
50
100
150
0 −4
−2
diff(diff(Vendas))
2 0 −2
diff(Vendas)
2
4
0
0
50
100
150
0
50
Time
100 Time
Figura 2.23: S´erie de vendas, primeira e segunda diferen¸cas
Exerc´ıcio 2.20. (2012-07) Suponha que ∆Yt pode ser representado pelo seguinte processo:
150
´ CAP´ITULO 2. SERIES TEMPORAIS
78
∆Yt = εt − 0, 6εt−1 , para t = 1 ∆Yt = ∆Yt−1 + εt − 0, 6εt−1 , para t ≥ 2 em que εt , t = 1, 2, · · · ´e uma sequˆencia de vari´ aveis aleat´ orias independentes e identicamente distribu´ıdas com m´edia igual a 0. Se Yt = 0, quando t = 0, calcule o valor da E[Y3 ].
2.8
Previs˜ ao
Um dos objetivos finais na an´ alise de s´eries temporais ´e a previs˜ao. Assim, pode-se usar informa¸c˜oes do passado para tomar decis˜oes para o futuro. Existem outros m´etodos de previs˜ao para s´eries temporais, como o de M´ edia M´ oveis S´ımples (MMS), Suavizamento Exponencial (SE), entre outros, mas estes m´etodos n˜ao dependem de um ajuste de um modelo e n˜ ao s˜ ao considerados agora. Para uma boa previs˜ao ´e fundamental que o modelo esteja bem ajustado e por isso deixamos este t´opico para o final. Como ´e feita a previs˜ao na pr´atica? A id´eia da previs˜ ao ´e utilizar o conhecimento/observa¸c˜ oes que se tem at´e o tempo
6,8
t, (digamos que temos observa¸c˜ oes para uma
6,6
lg previsão Intervalo a 95 por cento
6,4
certa vari´ avel durante os u ´ltimos 20 anos e, assim, t seria o u ´ltimo ano observado e ´ conve· · · , Yt−2 , Yt−1 , Yt as observa¸c˜ oes). E niente definir
6,2 6 5,8 5,6 5,4 5,2
1955
1956
1957
1958
1959
1960
1961
1962
Previs˜ ao para o log da s´ erie de passageiros das companhias
εt (Ys ) = E(Ys |Yt , Yt−1 , · · · , Y2 , Y1 ),
a´ ereas americanas
Assim, εt (Ys ) = Ys , se s ≤ t Para um exemplo de previs˜ ao, consideremos o modelo AR(1):
Yt+1 = c + φYt + εt . Assim,
˜ 2.8. PREVISAO
79
εt (Yt+1 ) = c + φYt = Yt+1 − εt+1 εt (Yt+2 ) = c + φεt (Yt+1 ) = c + φ(c + φYt ) .. . h−1 X εt (Yt+h ) = c φi−1 + φh Yt . i=1
Assim, Previs˜ ao yˆt (h) = εt (Yt+h ) representa previs˜ ao h-passos a frente, dado que observamos at´e o tempo t.
2.8.1
Erro de previs˜ ao
O erro de previs˜ ao ´e definido como sendo o valor observado menos o valor previsto. Para um per´ıodo h, εt (h) ´e dado por: Erro de previs˜ ao εt (h) = Yt+h − εt (Yt+h ) os quais s˜ ao n˜ ao viesados, isto ´e, E(εt (h)) = 0;
εt (1) = Yt+1 − εt (Yt+1 ) = εt+1 εt (2) = Yt+2 − εt (Yt+2 ) = c + ρYt+1 + εt+2 − c − ρεt (Yt+1 ) = ρεt+1 + εt+2 εt (3) = Yt+3 − εt (Yt+3 ) = c + ρYt+2 + εt+3 − c − ρεt (Yt+2 ) = ρ2 εt+1 + ρεt+2 + εt+3 .. . εt (h) = Yt+h − εt (Yt+h ) = ρh−1 εt+1 + ρh−2 εt+2 · · · + ρεt+h−1 + εt+h
´ CAP´ITULO 2. SERIES TEMPORAIS
80
Tomando-se a esperan¸ca do erro de previs˜ao, podemos observar que estes s˜ao n˜ao viesados, E(εt (h)) = 0; A variˆ ancia do erro de previs˜ao ´e dada por:
Var(εt (h)) = Var ρh−1 εt+1 + ρh−2 εt+2 · · · + ρεt+h−1 + εt+h = σε2 φ2(h−1) + φ2(h−2) + · · · + φ2 + 1 Note que a variˆ ancia converge para uma constante, quando h → ∞, que ´e
σε2 1−ρ2
que ´e a
variˆancia n˜ ao condicional da s´erie Yt . Se a distribui¸c˜ ao dos res´ıduos εt ´e a Normal, ent˜ao o intervalo de confiˆan¸ca para os res´ıduos ´e dado portanto
c
h−1 X
1 2 ρi−1 + ρh y ± 2σε φ2(h−1) + φ2(h−2) + · · · + φ2 + 1
i=1
Medidas de desempenho Diferentes modelos produzem previs˜oes distintas, o que torna necess´arios avaliar essas previs˜oes. Para isso s˜ ao utilizadas algumas medidas de desempenho. As estat´ısticas mais conhecidas s˜ ao: 1. MSE- Mean Square Error (erro quadr´atico m´edio) s
PH
2 h=1 εt (h)
M SEt,H =
H
Para calcul´ a-los, deve-se deixar algumas observa¸c˜oes fora da amostra. Por exemplo, em uma s´erie com n observa¸c˜ oes , deixa-se as H u ´ltimas observa¸c˜oes fora da amostra e estima-se o modelo agora com n − H observa¸c˜oes restantes. 2. MAE- Mean Absolute Error (erro absoluto m´edio) PH M AEt,H =
h=1 |εt (h)|
H
3. MAPE- Mean Absolute Percentual Error (erro absoluto percentual m´edio)
M AP Et,H
H X εt (h) = Hyt+h h=1
˜ 2.8. PREVISAO
81
Previs˜ ao dinˆ amica e est´ atica Quando faz-se previs˜ oes h passos a frente, yˆt (h), usando somente a informa¸c˜ao at´e o tempo t, tem-se a previs˜ ao dinˆ amica cuja variˆancia acaba sendo maior. Quando, para prever algum passo a frente usa-se as observa¸c˜ oes at´e o tempo imediatamente anterior, tem-se a previs˜ ao est´atica. A previs˜ ao est´ atica s´ o ´e u ´til para efeito de compara¸c˜ao de modelos. Na pr´atica, a previs˜ao dinˆ amica ´e a u ´nica que interessa de fato.
´ CAP´ITULO 2. SERIES TEMPORAIS
82
2.9
Regress˜ ao Esp´ uria - Cointegra¸c˜ ao
A utiliza¸c˜ ao dos modelos de regress˜ao envolvendo s´eries temporais n˜ao estacion´arias pode conduzir ao problema que se convencionou chamar de regress˜ao esp´ uria, isto ´e quando temos um alto R2 sem uma rela¸c˜ ao significativa entre as vari´aveis (Harris, 1995). Assim, na presen¸ca de ra´ız unit´ aria podem-se encontrar rela¸c˜oes econom´etricas entre duas vari´aveis econˆomicas sem qualquer rela¸c˜ ao de causalidade entre uma e outra por puro acaso. Por exemplo, a regress˜ao de uma vari´ avel I(1) com outra I(1) obtida independentemente gera alto R2 e estat´ıstica t significante. No entanto o resultado n˜ao tem significado econˆomico. Fizemos a seguinte esperiˆencia. Geramos duas s´eries I(1) independentes entre si e regredimos um contra a outra. O resultado segue. Call: lm(formula = Y ∼ X) Residuals: Min 1Q Median 3Q Max -25.861 -7.875 0.179 6.713 30.970 Coefficients: Estimate Std. Error t value Pr(¿—t—) (Intercept) -6.971267 0.538128 -12.96 ¡2e-16 *** X 0.527969 0.005861 90.08 ¡2e-16 *** — Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1 Residual standard error: 10.69 on 2498 degrees of freedom Multiple R-squared: 0.7646, Adjusted R-squared: 0.7645 F-statistic: 8115 on 1 and 2498 DF, p-value: ¡ 2.2e-16
Como podemos observar, econtramos um R2 = 0.76 alto e estat´ısticas significativas. No entanto, as s´eries s˜ ao independentes. O resultado disso, ´e que quando colocamos no mesmo gr´afico, a s´erie Y e o predito, podemos observar que o predito n˜ao ´e nem de perto razo´avel. Veja figura 2.24. Isto ocorre devido ao fato de que a presen¸ca de uma tendˆencia, decrescente ou crescente, em ambas as s´eries leva a um alto valor do R2 mas n˜ao necessariamente, a presen¸ca de uma rela¸c˜ao verdadeira entre s´eries (Gujarati, 2000). Dectada a presen¸ca de raiz unit´aria, ent˜ao se deve trabalhar com as s´eries temporais diferenciadas e n˜ ao em n´ıvel, ou seja, a tendˆencia precisa ser removida. Assim, quando uma s´erie econˆ omica apresentar uma tendˆencia estoc´astica tornar-se-´a estacion´aria ap´os a aplica¸c˜ ao
˜ ESPURIA ´ ˜ 2.9. REGRESSAO - COINTEGRAC ¸ AO
83
0
20
40
60
80
Regressão de Dois Passeios Aleatórios Ajustado em Azul
0
500
1000
1500
2000
2500
tempo
Figura 2.24: S´eries com rela¸c˜ao esp´ uria
de uma ou mais diferen¸cas, pois ter´ a pelo menos uma raiz unit´aria. No entanto, ao se remover a tendˆencia, elementos de longo prazo entre as vari´aveis s˜ao eliminados. A interpreta¸c˜ ao econˆ omica da cointegra¸c˜ao ´e que se duas (ou mais) vari´aveis possuem uma rela¸c˜ ao de equil´ıbrio de longo prazo, ent˜ao mesmo que as s´eries possam conter tendˆencias estoc´asticas (isto ´e, serem n˜ ao estacion´arias), elas ir˜ao mover-se juntas no tempo e a diferen¸ca entre elas ser´ a est´ avel (isto ´e, estacion´aria). Em suma, o conceito de cointegra¸c˜ao indica a existˆencia de um equil´ıbrio de longo prazo, para o qual o sistema econˆomico converge no tempo (Harris, 1995).
2.9.1
Quando ´ e poss´ıvel regredir duas s´ eries I(d)
Para que a regress˜ ao entre duas s´eries temporais n˜ao seja esp´ uria, elas devem satisfazer uma das seguintes situa¸c˜ oes:
´ CAP´ITULO 2. SERIES TEMPORAIS
84
S´eries que cointegram 1. {Yt } e {Xt } devem ser estacion´arias. 2. {Yt } e {Xt } devem ser integradas de mesma ordem e o res´ıduo deve ser estacion´ ario. Se {Yt } e {Xt } s˜ ao integrados de ordens diferesntes ou se {Yt } e {Xt } s˜ao integrados de mesma ordem e o res´ıduo ainda ´e integrado, ent˜ao a regress˜ao ´e esp´ uria. Um teste utilizado para detectar cointegra¸c˜ao ´e o teste de Durbin-Watson.
2.10
Exerc´ıcios para s´ eries temporais n˜ ao estacion´ arias
Exerc´ıcio 2.21. (2013-05) Um pesquisador corretamente postula o seguinte modelo de regress˜ ao: yt = β1 + β2 t + ut ,
t = 1, · · · , T ;
(2.17)
em que ut ´e uma vari´ avel aleat´ oria independente e identicamente distribu´ıda ao longo do tempo, com m´edia zero e variˆ ancia finita. Julgue as afirmativas: O) yt ´e um processo estacion´ ario. 1) ∆yt = yt − yt−1 ´e um processo estacion´ ario de segunda ordem. 2) M´ınimos quadrados ordin´ arios aplicado ` a equa¸c˜ ao (2.17) produz uma estimativa n˜ ao viesada de β2 . P 3) Seja βˆ2 = Tt=2 (yt − yt−1 )/(T − 1). βˆ2 ´e um estimador consistente de β2 . 4) Suponha que ut = ρut−1 + εt , ρ < 1 e que εt seja uma vari´ avel aleat´ oria independente e identicamente distribu´ıda ao longo do tempo, com m´edia zero e variˆ ancia finita. O estimador de m´ınimos quadrados ordin´ arios de β2 na equa¸c˜ ao (2.17) ´e n˜ ao viesado. Exerc´ıcio 2.22. (2007-07) Sejam Yt e Xt duas s´eries temporais. Considere os resultados dos seguintes modelos de regress˜ ao estimados por m´ınimos quadrados ordin´ arios (MQO):
∆Yt = 4, 8788 − 0, 1512Yt−1 e∆Xt = 0, 1094 − 0, 1807Xt−1 (1,70)
(−1,97)
(1,26)
Considere tamb´em os resultados da regress˜ ao de Yt em Xt
(−2,21)
´ ˜ ESTACIONARIAS ´ 2.10. EXERC´ICIOS PARA SERIES TEMPORAIS NAO
85
Yt = 23, 3924 + 14, 4006Xt + ebt , (1,70)
−1,97
em que ebt ´e o res´ıduo. Finalmente, considere a seguinte regress˜ ao: ∆b et = 0, 0730 − 0, 4157ebt−1 . (0,06)
(−3,43)
Os n´ umeros entre parˆenteses s˜ ao os valores do teste t de significˆ ancia individual dos parˆ ametros. Dado que o valor cr´ıtico a 5% da estat´ıstica de Dickey-Fuller ´e -2,938, ´e correto afirmar que: 0) Yt e Xt s˜ ao s´eries temporais integradas de ordem 1. 1) A regress˜ ao de Yt em Xt ´e esp´ uria. 2) A hip´ otese de cointegra¸c˜ ao entre Yt e Xt ´e rejeitada pois os res´ıduos da regress˜ ao de Yt em Xt s˜ ao n˜ ao-estacion´ arios. 3) Para que duas vari´ aveis sejam cointegradas ´e necess´ ario que ambas tenham a mesma ordem de integra¸ca ˜o. 4) A rejei¸c˜ ao da hip´ otese nula do teste Dickey-Fuller implica que a vari´ avel em quest˜ ao ´e n˜ aoestacion´ aria. Exerc´ıcio 2.23. (2007-09) Julgue as proposi¸c˜ oes: O) A soma de dois processos estoc´ asticos independentes e estacion´ arios de segunda ordem ser´ a estacion´ aria de segunda ordem. 1) A soma de dois processos estoc´ asticos n˜ ao-estacion´ arios ser´ a n˜ ao-estacion´ aria. 2) Seja L o operador defasagem tal que LYt = Yt−1 . Se Yt segue um processo AR(1) estacion´ ario de segunda ordem, ent˜ ao (1 − L)2 Yt ´e um processo ARMA(2,2). 3) O processo ARMA(2,2) definido na forma (1 − L − 0, 25L2 )Yt = (1 − 0, 5L − 0, 06L2 )ut ´e n˜ ao estacion´ ario, em que ut ´e o erro aleat´ orio com m´edia nula e variˆ ancia constante. 4) Todo processo MA ´e estacion´ ario de segunda ordem. Exerc´ıcio 2.24. Para este exerc´ıcio consideremos uma s´erie temporal de taxa de cˆ ambio da It´ alia (EXRIT L). Foram realizados testes de ra´ız unit´ aria para a s´erie EXRIT L e para a sua primeira diferen¸ca d EXRIT L.
´ CAP´ITULO 2. SERIES TEMPORAIS
86 Teste Aumentado de Dickey-Fuller para EXRITL incluindo 5 defasagens de (1-L)EXRITL dimens˜ ao de amostragem 196 hip´ otese nula de raiz unit´ aria: a = 1 teste com constante modelo: (1-L)y = b0 + (a-1)*y(-1) + ... + e coeficiente de 1a ordem para e: -0,002 diferen¸cas defasadas: F(5, 189) = 5,488 [0,0001] valor estimado de (a - 1): -0,00802367 estat´ıstica de teste: τc (1) = -1,46078 p-valor assint´ otico 0,5537 com constante e tendˆencia modelo: (1-L)y = b0 + b1*t + (a-1)*y(-1) + ... + e coeficiente de 1a ordem para e: -0,003 diferen¸cas defasadas: F(5, 188) = 5,557 [0,0001] valor estimado de (a - 1): -0,0140724 estat´ıstica de teste: τct (1) = -1,4575 p-valor assint´ otico 0,8439
Teste de Dickey-Fuller para d EXRIT L dimens˜ ao de amostragem 200 hip´ otese nula de raiz unit´ aria: a = 1 teste com constante modelo: (1-L)y = b0 + (a-1)*y(-1) + e coeficiente de 1a ordem para e: -0,006 valor estimado de (a - 1): -0,685419 estat´ıstica de teste: τc (1) = -10,1243 p-valor 2,166e-16 com constante e tendˆencia modelo: (1-L)y = b0 + b1*t + (a-1)*y(-1) + e coeficiente de 1a ordem para e: -0,005 valor estimado de (a - 1): -0,690473 estat´ıstica de teste: τct (1)= -10,1693 p-valor 1,241e-15
a) O que podemos afirmar a respeito da tendˆencia da s´erie EXRIT L? Use os resultados dos testes de hip´ oteses para justificar a sua resposta. b) O que podemos afirmar a respeito da tendˆencia da primeira diferen¸ca da s´erie EXRIT L? Use os resultados dos testes de hip´ oteses para justificar a sua resposta. c) Dos gr´ aficos apresentados na figura 2.25, qual(is) pode(m) representar a s´erie EXRIT L? E qual(is) pode(m) representar a primeira diferen¸ca da s´erie EXRIT L? Explique.
´ ˜ ESTACIONARIAS ´ 2.10. EXERC´ICIOS PARA SERIES TEMPORAIS NAO 5
87
7.8
4
7.6
3 7.4 2 7.2
S2
S1
1 0 -1
7
6.8
-2 6.6 -3 6.4
-4 -5
6.2 1974
1976
1978
1980
1982
1984
1986
1988
1990
1974
1976
1978
(a)
1980
1982
1984
1986
1988
1990
(b) 150
100
S3
50
0
-50
-100
-150 1974
1976
1978
1980
1982
1984
1986
1988
1990
(c)
Figura 2.25: S´eries Temporais S1,S2 e S3 d) Na figura 2.26 qual(is) dos gr´ aficos de FAC e FACP pode(m) corresponder ` a FAC e FACP de um ru´ıdo branco? Justifique. ACF para X1
ACF para X2
0,2 0,15 0,1 0,05 0 -0,05 -0,1 -0,15 -0,2
+- 1,96/T0,5
0
5
10
15
20
0 -0,5 -1 0
5
PACF para X1
15
20
0
5
15
20
(a)
15
20
PACF para X3 1
+- 1,96/T0,5
0,3 0,2 0,1 0 -0,1 -0,2 -0,3
defasagem
10 defasagem
PACF para X2 +- 1,96/T0,5
10
10 defasagem
0,2 0,15 0,1 0,05 0 -0,05 -0,1 -0,15 -0,2 5
+- 1,96/T0,5
0,5
defasagem
0
ACF para X3 1
+- 1,96/T0,5
0,3 0,2 0,1 0 -0,1 -0,2 -0,3
+- 1,96/T0,5
0,5 0 -0,5 -1 0
5
10 defasagem
(b)
15
20
0
5
10
15
20
defasagem
(c)
Figura 2.26: FAC e FACP para trˆes s´eries temporais distintas X1 , X2 e X3 . e) Na figura 2.26 qual(is) dos gr´ aficos de FAC e FACP pode(m) corresponder ` a FAC e FACP de um ru´ıdo branco? Justifique. f ) Na figura 2.26 qual(is) dos gr´ aficos de FAC e FACP pode(m) corresponder ` a FAC e FACP da S´erie EXRIT L? Justifique. g) Dos seguintes modelos: AR(1), MA(1), ARMA(1,1), ARIMA(1,1,1), ARIMA(3,1,2) e ARIMA(1,2,1), qual(is) poderiam ajustar corretamente a s´erie temporal EXRIT L? Justifique.
´ CAP´ITULO 2. SERIES TEMPORAIS
88
h) Foram ajustados 3 modelos para a s´erie EXRIT L: ARMA(1,1) (AIC =417,1), ARIMA(2,1,3)(AIC =422,12) e ARIMA(1,1,2) (AIC =417,5). A FAC e FACP dos res´ıduos dos ajustes s˜ ao apresentados na figura 2.27. Qual ´e o melhor modelo? Justifique. ACF para dY11
ACF para Z2
0.2 0 -0.2 -0.4 0
5
10
15
20
+- 1.96/T0.5
0
5
10
defasagem PACF para dY11
0
5
10
0 -0.2 -0.4 15
20
0
5
10
15
+- 1.96/T0.5
0.4 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4
20
0
5
10
defasagem
(a)
20
PACF para Z3 +- 1.96/T0.5
defasagem
15 defasagem
PACF para Z2
0.2
10
20
0.2 0.15 0.1 0.05 0 -0.05 -0.1 -0.15 -0.2
+- 1.96/T0.5
5
15
+- 1.96/T0.5
0.4 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4
defasagem
0.4
0
ACF para Z3
0.2 0.15 0.1 0.05 0 -0.05 -0.1 -0.15 -0.2
+- 1.96/T0.5
0.4
15
20
defasagem
(b)
(c)
Figura 2.27: FAC e FACP dos res´ıduos do ajuste de trˆes modelos a s´erie EXRIT L. i) Fa¸ca a correspondˆencia da tabela 1 com a figura 2.27 explicando o seu racioc´ınio. Tabela 2.1: Teste LJUNG-BOX Def 1 2 3 4 5 6 7 8 9 10
ACF -0.483 -0.079 0.089 -0.029 0.044 -0.095 0.072 -0.002 -0.108 0.167
***
**
Teste 1 PACF -0.483 *** -0.408 *** -0.254 *** -0.216 *** -0.098 -0.189 *** -0.121 * -0.100 -0.249 *** -0.090
Q-stat 47.49 48.77 50.40 50.58 50.98 52.87 53.99 53.99 56.49 62.44
[p-valor] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00]
ACF -0.406 0.044 0.016 0.030 0.008 -0.020 0.027 0.045 -0.096 0.122
***
*
Teste 2 PACF -0.406 *** -0.145 ** -0.026 0.042 0.052 0.008 0.023 0.075 -0.056 0.073
Q-stat 31.42 31.79 31.85 32.03 32.04 32.12 32.27 32.68 34.52 37.54
[p-valor] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00]
ACF -0.031 -0.121 0.089 0.038 0.066 0.034 0.053 -0.031 0.043 0.048
*
Teste 3 PACF Q-stat -0.031 0.19 -0.122 * 3.22 0.082 4.88 0.029 5.19 0.091 6.12 0.040 6.37 0.070 6.96 -0.035 7.18 0.045 7.58 0.023 8.09
j) Escreva a equa¸c˜ ao do modelo para a seguinte sa´ıda do gretl: Modelo 2: ARIMA, usando as observa¸c˜ oes 1973:04–1989:10 (T = 199) Vari´ avel dependente: (1 − L)S 3 Erros padr˜ ao baseados na Hessiana Coeficiente const φ1 θ1
−0.00586445 −0.350312 −1.00000
M´ edia var. dependente M´ edia de inova¸c˜ oes Log da verossimilhan¸ca Crit´ erio de Schwarz
Erro Padr˜ ao 0.0315017 0.0665472 0.0124930
−0.303518 −0.280781 −990.5755 2002.324
z
p-valor
−0.1862 −5.2641 −80.0449
0.8523 0.0000 0.0000
D.P. var. dependente D.P. das inova¸c˜ oes Crit´ erio de Akaike Hannan–Quinn
60.82785 34.59412 1989.151 1994.482
Exerc´ıcio 2.25. Seja {yt }440 erie temporal. Essa s´erie foi ajustada de acordo com um t=1 uma s´ modelo AR(2). A equa¸c˜ ao estimada foi: yt = 14.62 − 0.61yt−1 + 0.15yt−2 . Os seguintes dados est˜ ao dispon´ıveis:
[p-va [0.6 [0.1 [0.1 [0.2 [0.2 [0.3 [0.4 [0.5 [0.5 [0.6
´ ˜ ESTACIONARIAS ´ 2.10. EXERC´ICIOS PARA SERIES TEMPORAIS NAO t
436
437
438
439
440
yt
9.88
10.42
11.08
8.12
11.71
ebt
-0.21
0.40
1.33
-1.30
0.38
89
(a) Calcule a previs˜ ao um passo a frente e dois passos a frente para a s´erie yt , ou seja, yb440 (1) e yb440 (2). R: yb440 (1) = 8.6949 e yb440 (2) = 11.07261. (b) Calcule o erro de previs˜ ao um e dois passos a frente, e440 (1) e e440 (2), sabendo-se que y441 = 8.83 e y442 = 12.24. R: e440 (1) = 0.1351 e e440 (2) = 1.167389.
Exerc´ıcio 2.26. Seja {yt }450 erie temporal. Essa s´erie foi ajustada de acordo com um t=1 uma s´ modelo MA(2). A equa¸c˜ ao estimada foi: yt = 10.01 + et − 0.64et−1 + 0.22et−2 . Os seguintes dados est˜ ao dispon´ıveis: t
446
447
448
449
450
yt
9.79
10.22
7.43
12.41
8.35
ebt
-0.52
0.21
-2.34
0.87
-0.60
(a) Calcule a previs˜ ao um, dois e trˆes passos a frente para a s´erie yt , ou seja, yb450 (1), yb450 (2) e yb450 (3). R: yb450 (1) = 10.5854, yb450 (2) = 9.878 e yb450 (3) = 10.01. (b) Calcule o erro de previs˜ ao um, dois e trˆes passos a frente, e450 (1), e450 (2) e e450 (3), sabendo-se que y451 = 9.80, y452 = 8.78 e y453 = 9.33. R: e450 (1) = −0.7767, e450 (2) = −1.098 e e450 (3) = −0.68.
Exerc´ıcio 2.27. Escreva cada um dos seguintes processos usando o operador de defasagem B. (a) Xt = 0.3Xt−1 + at ; (b) Xt =
Pt
j=1 at ,
t ≥ 1;
(c) Xt = at + 0.4at−1 − 0.2at−2 + 0.17at−3 ; (d) Xt = 1.5Xt−1 − 0.75Xt−2 + at + 4.0; (e) Xt = 0.5Xt−1 + at + 0.4at−1 − 0.2at−2 ; (f ) Xt − Xt−1 = −0.3Xt−1 + at + 0.4at−1 ;
´ CAP´ITULO 2. SERIES TEMPORAIS
90
Exerc´ıcio 2.28. Seja {yt }450 erie temporal. Essa s´erie foi ajustada de acordo com um t=1 uma s´ modelo ARMA(2,2). A equa¸c˜ ao estimada foi: yt = 1.61 + 1.39yt−1 − 0.55yt−2 + et − 0.81et−1 + 0.25et−2 . Os seguintes dados est˜ ao dispon´ıveis: t
446
447
448
449
450
yt
12.16
11.69
11.56
10.32
10.87
ebt
0.56
-0.07
0.19
-0.75
0.62
(a) Calcule a previs˜ ao um, dois e trˆes passos a frente para a s´erie yt , ou seja, yb450 (1), yb450 (2) e yb450 (3). R: yb450 (1) = 10.3536, yb450 (2) = 10.178 e yb450 (3) = 10.06295. (b) Calcule o erro de previs˜ ao um, dois e trˆes passos a frente, e450 (1), e450 (2) e e450 (3), sabendo-se que y451 = 9.80, y452 = 8.78 e y453 = 9.33. R: e450 (1) = 1.5264, e450 (2) = 2.051996 e e450 (3) = 0.6870544.
Exerc´ıcio 2.29. Considere o modelo autorregressivo de primeira ordem, AR(1), definido por
Yt = a + bYt−1 + ut , em que a e b s˜ ao parˆ ametros e ut ´e uma seq¨ uˆencia de vari´ aveis aleat´ orias independentes e igualmente distribu´ıdas, com m´edia nula e variˆ ancia σ 2 . Suponha que |b| < 1. A previs˜ ao n passos-` a-frente para a vari´ avel Y convergir´ a para (a) a. (b) a m´edia de ut . (c)
a 1−b .
(d) E(Yt ). (e) ∞.
Exerc´ıcio 2.30. As vendas mensais de um certo produto s˜ ao representadas pelo modelo Zt = 3 + at + 0.5at−1 − 0.25at−2 , ˆ (a) Obtenha Z(`), ` = 1, 2, 3, 100;
σa2 = 4.
´ ˜ ESTACIONARIAS ´ 2.10. EXERC´ICIOS PARA SERIES TEMPORAIS NAO
91
(b) Calcule Var[et (`)], ` = 1, 2, 3, 100; (c) Dados Z1 = 3.25, Z2 = 4.75, Z3 = 2.25 e Z4 = 1.75, calcule Zˆ4 (`) para ` = 1, 2, 3, 100;
Exerc´ıcio 2.31. Explique os passos que devem ser seguidos para a modelagem de uma s´erie temporal na metodologia ARIMA. Considere a possibilidade de n˜ ao-estacionariedade da s´erie.
Exerc´ıcio 2.32. Usando a esperan¸ca condicional, calcule as previs˜ oes 1, 2 e 3 passos a frente (b yT (1), ybT (2), ybT (3)) para os seguintes processos: (a) ARIMA(1,1,0) (b) ARIMA(1,1,1) (c) ARIMA(1,2,1) (d) ARIMA(2,1,2)
Exerc´ıcio 2.33. Seja {yt }440 erie temporal. Essa s´erie foi ajustada de acordo com um t=1 uma s´ modelo ARIMA(1,1,1). O coeficiente estimado para o componente auto-regressivo foi 0,6347 e o coeficiente estimado referente ` a parte MA foi 0,3711. As seguintes informa¸c˜ oes est˜ ao dispon´ıveis: t
436
437
438
439
440
yt
20.52
20.04
20.52
19.64
16.13
ebt
-0.092
-1.29
1.27
-1.66
-2.33
(a) Escreva o modelo usando a nota¸c˜ ao do operador lag. (b) Calcule a previs˜ ao um passo a frente e dois passos a frente para a s´erie yt , ou seja, yb440 (1) e yb440 (2). R: yb440 (1) = 13.05 e yb440 (2) = 11.09. (c) Calcule o erro de previs˜ ao um e dois passos a frente, e440 (1) e e440 (2), sabendo-se que y441 = 12.57 e y442 = 9.93. R: e440 (1) = 0.478 e e440 (2) = −1.157.
Exerc´ıcio 2.34. Seja {yt }440 erie temporal. Essa s´erie foi ajustada de acordo com um t=1 uma s´ modelo ARIMA(1,2,1). O coeficiente estimado para o componente auto-regressivo foi 0,6364 e o coeficiente estimado referente a parte MA foi 0,3599. As seguintes informa¸c˜ oes est˜ ao dispon´ıveis:
´ CAP´ITULO 2. SERIES TEMPORAIS
92 t
436
437
438
439
440
yt
782.78
803.30
823.34
843.86
863.50
ebt
1.34
-0.08
-1.30
1.26
-1.65
(a) Escreva o modelo usando a nota¸c˜ ao do operador lag. (b) Calcule a previs˜ ao um passo a frente e dois passos a frente para a s´erie yt , ou seja, yb440 (1) e yb440 (2). R: yb440 (1) = 881.99 e yb440 (2) = 899.74. (c) Calcule o erro de previs˜ ao um e dois passos a frente, e440 (1) e e440 (2), sabendo-se que y441 = 879.64 e y442 = 892.21. R: e440 (1) = −2.35 e e440 (2) = −7.53.
Exerc´ıcio 2.35. Seja yt o logaritmo de taxa de cˆ ambio iene/US$. A seguinte regress˜ ao foi proposta: ∆yt = β0 + β1 yt−1 + ut . As estimativas seguem abaixo:
βb0 βb1
Estimativa
dp(·)
0.162
0.435
0.099
0.025
Sabendo-se que n = 777, fa¸ca o teste DF e responda se a s´erie inf apresenta raiz unit´ aria. Nota: A tabela com os valores cr´ıticos para o teste de DF se encontra no final da lista. Note que τ se refere ao modelo sem constante, τµ ao modelo com constante e ττ ao modelo com tendˆencia.
Exerc´ıcio 2.36. Utilizando os dados anuais (1959-1995) de log(P IB) norte americano, a seguinte regress˜ ao foi proposta: ∆log(P IB)t = β0 + β1 t + β2 log(P IB)t−1 + β3 ∆log(P IB)t−1 + ut . As estimativas seguem abaixo:
βb0 βb1 βb2 βb3
Estimativa
dp(·)
1.650
0.670
0.0059
0.003
-0.320
0.087
0.264
0.126
n = 35 (a) Fa¸ca o teste ADF e responda se a s´erie inf apresenta raiz unit´ aria.
´ ˜ ESTACIONARIAS ´ 2.10. EXERC´ICIOS PARA SERIES TEMPORAIS NAO
93
(b) A inclus˜ ao da vari´ avel ∆log(P IB)t−1 no modelo acima parece ser necess´ aria? Justifique.
Exerc´ıcio 2.37. Utilizando os dados anuais (1948-1996) de infla¸c˜ ao norte americana, a seguinte regress˜ ao foi proposta: ∆inft = β0 + β1 inft−1 + β2 ∆inft−1 + ut . As estimativas seguem abaixo:
βb0 βb1 βb2
Estimativa
dp(·)
1.360
0.517
-0.310
0.103
0.138
0.126
n = 47 (a) Fa¸ca o teste ADF e responda se a s´erie inf apresenta raiz unit´ aria. (b) A inclus˜ ao da vari´ avel ∆inft−1 no modelo acima parece ser necess´ aria? Justifique.
Exerc´ıcio 2.38. Responda V ou F, justificando sua resposta: Seja o processo auto-regressivo: yt = φ1 yt−1 + εt . Pode-se afirmar que: (a) O processo ´e estacion´ ario para φ1 < 1. F (b) Se φ1 = 1, o processo ´e dito um passeio aleat´ orio. V (c) O estimador de MQO do parˆ ametro φ1 ´e n˜ ao-viciado. F (d) A estat´ıstica t-Student pode ser usada para testar a presen¸ca de raiz unit´ aria. F (e) O processo pode ser escrito em uma forma alternativa como ∆yt = δyt−1 + εt em que δ = φ1 − 1 e ∆yt = yt − yt−1 . V
Exerc´ıcio 2.39. Responda V ou F, justificando sua resposta: Um econometrista estimou uma fun¸c˜ ao consumo usando 25 observa¸co ˜es anuais da renda pessoal dispon´ıvel e consumo, a partir do modelo: Ct = β0 + β1 Yt + ut em que Ct representa consumo em t; Yt representa renda pessoal dispon´ıvel em t e ut ´e um erro aleat´ orio. O econometrista fez o teste de Dickey-Fuller aumentado (ADF) para as s´eries de renda e de consumo, obtendo estimativas para a estat´ıstica do teste menores que os valores cr´ıticos tabelados, a 1%, 5% e 10%. Consequentemente, o econometrista:
´ CAP´ITULO 2. SERIES TEMPORAIS
94
(a) Aceitou a hip´ otese nula do teste ADF, concluindo que as s´eries de renda e consumo s˜ ao n˜ ao-estacion´ arias. V (b) Concluiu que o teste t n˜ ao ´e v´ alido. V (c) Concluiu que a regress˜ ao estimada ´e esp´ uria. F (d) Necessita fazer mais outros testes para verificar se a regress˜ ao estimada ´e esp´ uria. V
Exerc´ıcio 2.40. Responda V ou F, justificando sua resposta. Considere o modelo de regress˜ ao linear Ct = β0 + β1 Yt + ut . As vari´ aveis s˜ ao definidas como na quest˜ ao anterior. (a) se Ct e Yt s˜ ao I(1), ent˜ ao ut ser´ a obrigatoriamente estacion´ ario. F (b) se Ct e Yt s˜ ao integradas, mas com ordens de integra¸c˜ ao diferentes, ent˜ ao a regress˜ ao ser´ a inv´ alida. V (c) se Ct e Yt s˜ ao I(1), ent˜ ao o teste ADF aplicado aos res´ıduos da regress˜ ao poder´ a identificar a presen¸ca de co-integra¸c˜ ao entre as vari´ aveis. V (d) se Ct e Yt s˜ ao I(1), mas os res´ıduos s˜ ao I(0), ent˜ ao h´ a co-integra¸ca ˜o entre as vari´ aveis. V (e) se Ct e Yt s˜ ao I(1) e os res´ıduos tamb´em s˜ ao I(1), ent˜ ao a regress˜ ao de ∆Ct em ∆Yt ´e inv´ alida. F
Exerc´ıcio 2.41. Responda V ou F, justificando sua resposta. Considere a seguinte regress˜ ao entre yt e zt : yt = αzt + ut , em que ut ´e o erro. S˜ ao corretas as afirmativas: (a) se yt for I(1) e zt for I(0), ent˜ ao yt e zt s˜ ao co-integradas. F (b) se yt for I(0) e zt for I(1), ent˜ ao yt e zt s˜ ao co-integradas. F (c) se yt for I(1) e zt for I(1), ent˜ ao yt e zt s˜ ao co-integradas. F (d) se yt for I(1), zt for I(1) e ut for I(0), ent˜ ao yt e zt s˜ ao co-integradas. V
Exerc´ıcio 2.42. Responda V ou F, justificando sua resposta. Com respeito ` a teoria das s´eries temporais, s˜ ao corretas as afirmativas:
´ ˜ ESTACIONARIAS ´ 2.10. EXERC´ICIOS PARA SERIES TEMPORAIS NAO
95
(a) Considere uma s´erie temporal Yt auto-regressiva de ordem 1 com parˆ ametro ρ. No modelo: Yt − Yt−1 = δYt−1 + ut , em que ut ´e um ru´ıdo branco e δ = ρ − 1, se δ for de fato igual a zero, a s´erie Yt ser´ a n˜ ao estacion´ aria. V (b) Numa regress˜ ao linear simples de duas s´eries temporais n˜ ao estacion´ arias de ordem 1, o teste usual t de Student ainda ´e v´ alido. F (c) Numa regress˜ ao linear m´ ultipla de s´eries temporais de ordem 1, mas cointegr´ aveis, n˜ ao se corre o risco de os resultados serem esp´ urios. V (d) Numa regress˜ ao linear m´ ultipla de s´eries temporais de ordem 1, mas cointegr´ aveis, os res´ıduos da regress˜ ao s˜ ao estacion´ arios. V (e) Se uma s´erie temporal tiver que ser diferenciada n vezes antes de se tornar estacion´ aria, a s´erie original ´e integrada de ordem n − 1. F
Exerc´ıcio 2.43. Sejam Yt e Xt duas s´eries temporais. Considere os resultados dos seguintes modelos de regress˜ ao estimados por m´ınimos quadrados ordin´ arios (MQO): ∆Yˆt = 4, 8788 − 0, 1512Yt−1 (1,70)
e
ˆ t = 0, 1094 − 0, 1807Xt−1 . ∆X
(−1,97)
(1,26)
(2,21)
Considere tamb´em os resultados da regress˜ ao de Yt em Xt . Yt = 23, 3924 + 14, 4006Xt + eˆt , (1,70)
(−1,97)
em que eˆt ´e o res´ıduo. Finalmente, considere a seguinte regress˜ ao: ∆ˆ et = 0, 0730 − 0, 4157eˆt−1 (0,06)
(−3,43)
Os n´ umeros entre parˆenteses s˜ ao os valores do teste t de significˆ ancia individual dos parˆ ametros. Dado que o valor cr´ıtico a 5% da estat´ıstica de Dickey-Fuller ´e -2,938, ´e correto afirmar que: (a) Yt e Xt s˜ ao s´eries temporais integradas de ordem 1. (b) A regress˜ ao de Yt em Xt ´e esp´ uria. (c) A hip´ otese de cointegra¸c˜ ao entre Yt e Xt ´e rejeitada pois os res´ıduos da regress˜ ao de Yt em Xt s˜ ao n˜ ao-estacion´ arios.
´ CAP´ITULO 2. SERIES TEMPORAIS
96
(d) Para que duas vari´ aveis sejam cointegradas ´e necess´ ario que ambas tenham a mesma ordem de integra¸c˜ ao. (e) A rejei¸c˜ ao da hip´ otese nula do teste Dickey-Fuller implica que a vari´ avel em quest˜ ao ´e n˜ ao-estacion´ aria.
Exerc´ıcio 2.44. (2013-10) Julgue as seguintes afirmativas: O) O passeio aleat´ orio com drift, yt = c + yt−1 + εt , y0 = 0, em que εt ´e um ru´ıdo branco, com m´edia zero e variˆ ancia σ 2 , ´e um processo estacion´ ario de segunda ordem se c = 0. 1) O processo MA(1), yt = εt + θ1 εt−1 , em que εt ´e um ru´ıdo branco, com m´edia zero e variˆ ancia σ 2 , ´e estacion´ ario de segunda ordem se, e somente se, a raiz do polinˆ omio 1 + θ1 x cair fora do c´ırculo unit´ ario. 2) O processo MA(1), yt = εt − θ1 εt−1 , em que εt ´e um ru´ıdo branco, com m´edia zero e variˆ ancia σ 2 , ´e invers´ıvel se, e somente se, |θ1 | < 1. 3) O processo AR(2), yt = φ1 yt−1 + φ2 yt−2 + εt , em que εt ´e um ru´ıdo branco, com m´edia zero e variˆ ancia σ 2 , ´e estacion´ ario de segunda ordem se |φ2 | < 1, φ2 − φ1 < 1
e
φ2 + φ1 < 1.
4) No passeio aleat´ orio, yt = yt−1 + εt , y0 = 0, em que εt ´e um ru´ıdo branco, com m´edia zero e variˆ ancia σ 2 , a variˆ ancia de yt varia com t.
Exerc´ıcio 2.45. Fa¸ca o exerc´ıcio 18.5 do livro do Wooldridge.
Exerc´ıcio 2.46. Desafio: Fa¸ca o exerc´ıcio 18.8, itens 1, 2 e 3 do livro do Wooldridge.