CAPITULO 2. ANALISIS UNIVARIANTE DE SERIES TEMPORALES: MODELOS ARIMA.
2.1. INTRODUCCIÓN Una serie temporal es una sucesión de observaciones de una variable en distintos momentos del tiempo. Aunque el tiempo es, en realidad, una variable continua, en la práctica utilizaremos mediciones en periodos aproximadamente equidistantes. Por ejemplo, la sucesión de valores del PNBpm para un país desde 1900 hasta 1990. Básicamente, lo que se pretende con el estudio univariante de las series temporales es el conocimiento de una variable a lo largo del tiempo para, a partir de este conocimiento y bajo el supuesto de que no van a producirse cambios estructurales, poder realizar predicciones. Hay casos en los que la variable observada tiene un patrón de comportamiento fijo. En términos estadísticos estamos ante una serie determinista. Por el contrario hay series que resultan impredecibles. Su pauta de comportamiento no responde a un patrón fijo, por lo que son puramente aleatorias. Un ejemplo típico es la sucesión de números premiados en un sorteo de loterías. En general, las series económicas contienen una componente determinista y una componente aleatoria. Hasta el primer cuarto del siglo XX, los métodos de análisis de series temporales se basaban en los modelos de descomposición. Según éstos, las series reales resultan de la agregación de cuatro componentes básicas: tendencia, componente estacional, componente cíclica y componente irregular. Cada una de estas componentes se estudia por separado mediante el uso de métodos matemáticos. La tendencia se corresponde con la evolución de la serie a largo plazo, evolución que puede ser creciente, decreciente o estable. Suele estar reflejada por una línea alrededor de la cual oscilan los valores de la serie. En la figura 2.1.1. se aprecia la representación gráfica de una serie simulada con tendencia creciente. Los movimientos cíclicos son variaciones o movimientos oscilatorios de amplitud superior al año, en general no periódicos y se suelen apreciar cuando la serie tiene gran longitud. La duración del ciclo no se mantiene constante. En economía, una explicación sobre la aparición
68
de los ciclos, es la existencia de los períodos de prosperidad y recesión de los países (la serie observada puede ser la renta per cápita).
e i r e S
Tiempo
Figura 2.1.1.
La figura 2.1.2. presenta un ejemplo de serie con componente cíclica y con tendencia constante o estacionaria. Las ondas periódicas plurianuales son los ciclos de la serie.
e i r e S
Tiempo
Figura 2.1.2.
La estacionalidad se refiere a las oscilaciones que acontecen dentro del año y que se repiten en años sucesivos. Es consecuencia de factores climáticos, organizativos y administrativos, fundamentalmente. Considérese como ejemplo, el aumento de la venta de juguetes durante la fiesta de Reyes Reyes cada año.
69
Así como los ciclos se caracterizan por su irregularidad, en la componente estacional se pueden encontrar movimientos parecidos de un año a otro. El gráfico de la figura 2.1.3. representa una serie estacionaria con movimientos estacionales.
e i r e S
Tiempo
Figura 2.1.3.
La componente irregular contiene variaciones esporádicas que no responden a ningún patrón fijo, y que son originadas por acontecimientos singulares. Recoge los efectos sobre la serie de hechos no previsibles, como pueden ser las catástrofes o huelgas, o factores inapreciables no explicables a causa de la conducta impredecible de los sujetos. Estos elementos se pueden combinar de forma aditiva, multiplicativa o mixta, para formar el valor total de la serie temporal. En el esquema aditivo, el valor total de la serie es la suma de sus elementos: Yt = Tt + Ct + Et + It En el esquema multiplicativo: Yt = Tt Ct Et It Un modelo mixto, puede ser: Yt = Tt Ct Et + It T es la tendencia, C los movimientos cíclicos, E la estacionalidad e I la componente irregular. 70
El análisis clásico tiene como fin describir la pauta de comportamiento que siguen cada una de estas componentes, con el fin de reproducir su conducta y realizar predicciones. Se parte de un esquema previo y se trata de aislar cada uno de los componentes. Posteriormente surgió la concepción moderna o estocástica, basada en la teoría de los procesos aleatorios. Se trata de los modelos estocásticos de series temporales, los cuales se representan mediante relaciones analíticas que conectan los valores de la variable con combinaciones lineales o no, de parámetros y variables. Entre estas variables, al menos, una tiene carácter probabilístico, hecho que confiere a la serie un rasgo aleatorio. En este sentido, los modelos predictivos univariantes de series temporales propuestos por Box y Jenkins (1970), serán el punto de atención de este capítulo. Son los denominados modelos ARIMA. La parte aleatoria de una serie no debe confundirse con el movimiento irregular, debido a que éste no está sujeto a periodicidad alguna pero puede ser previsible (por ejemplo, el efecto de una huelga en la producción). El componente aleatorio se caracteriza por no ser previsible.
2.2. MODELOS LINEALES DE SERIES TEMPORALES: MODELOS ARIMA 2.2.1. PROCESOS ESTOCÁSTICOS Un proceso estocástico es una familia de variables aleatorias que corresponden a momentos sucesivos del tiempo. En cada período o momento temporal se dispone de una variable que tendrá su correspondiente distribución de probabilidad. Sea el proceso Yt. Para t = 1, por ejemplo, Y 1 es una variable aleatoria que tomará diferentes valores con diferentes probabilidades. Lo mismo ocurre para t odo t =1, 2, .... En la metodología ARIMA, una serie temporal es una muestra de un proceso estocástico. Está formada por una sola observación de cada una de las variables que componen el proceso, es decir, es una realización del mismo 1. Dicho de otra forma, la serie ha sido generada por un proceso estocástico, y, y, por tanto, tiene carácter aleatorio2.
1
La notación Y t puede representar tanto una variable aleatoria como una observación muestral, depende del contexto. 2 No se pueden obtener los valores de la serie de forma exacta a través de una función matemática del tiempo, por ejemplo Y t = 2t. 71
Por ejemplo, el PIBpm desde 1970 hasta 1990 de un país es, en cada año, una variable aleatoria que puede tomar infinitos valores con distintas probabilidades. La sucesión de observaciones efectuadas cada año en ese país formaría la serie temporal. Un proceso estocástico Yt, se suele describir mediante las siguientes características: esperanza matemática, varianza, autocovarianzas y coeficientes de autocorrelación. La esperanza matemática de Yt se traduce en la sucesión de las esperanzas matemáticas de las variables que componen el proceso, a lo largo del tiempo. E(Yt) = µt, t = 1,2,3,... La varianza de un proceso aleatorio es una sucesión de varianzas, una para cada variable del proceso. Var (Yt) = E(Yt - µt)2, t =1,2,3,...
Las autocovarianzas son las covarianzas entre cada par de variables del proceso. Cov(Yt,Yt+k) = E[(Yt - µt)(Yt+k - µt+k)] = γ t,t+k t,t+k, t = 1,2,3...
Los coeficientes de autocorrelación son los coeficientes de correlación entre cada par de variables que componen el proceso.
ρt,t+k =
γ t ,t
k
Var (Yt ) Var (Yt k )
, t=1,2,3,..., con
1 ρ t ,t
k
1
La función de autocorrelación simple o correlograma (FAS) es la representación gráfica de los coeficientes de autocorrelación, en función de los distintos retardos o desfases entre las variables. La función de autocorrelación parcial (FAP) responde a la medición de la correlación existente entre dos variables del proceso en distintos períodos de tiempo, pero una vez eliminados los efectos sobre las mismas de los períodos intermedios. Parte de la correlación que 72
pueda detectarse entre Yt e Yt-2 puede ser debida a que ambas variables estén correlacionadas con Yt-1.
2.2.1.1. PROCESOS ESTACIONARIOS Un tipo de procesos que alcanzan gran importancia en este análisis es el de los procesos estacionarios, en contraposición a los procesos evolutivos. La estacionariedad de un proceso puede concebirse en sentido estricto y en sentido amplio. Un proceso es estacionario en sentido estricto si cualquier conjunto m de variables aleatorias del proceso tienen la misma distribución de probabilidad que cualquier otro conjunto de m variables, para todo m dado. Implica que las características del proceso no sufren alteración al considerar tiempos diferentes. El mayor problema de esta definición es que no es empíricamente contrastable, porque la serie temporal está formada por una sola observación de cada una de las distribuciones de probabilidad que componen el proceso en cada período de tiempo. Además, el número de condiciones a comprobar podría ser infinito. Para fines prácticos se definió la estacionariedad en sentido amplio o de segundo orden. Un proceso es estacionario en sentido amplio si su media es constante e independiente del tiempo, su varianza es finita y constante, y el valor de la covarianza entre dos periodos no depende del tiempo en el cual se ha calculado, sino de la distancia o desfase entre aquellos. Todos los momentos de primer y segundo orden del proceso son independientes del tiempo, incluyendo la función de autocorrelación parcial. E(Yt) = µ, t =1,2,3... Var(Yt) = E(Yt - µ)2 = σ2, t =1,2,3...
γ t ,t
k
γt
k ,t
γ k , t =1,2,3...
γ k es la covarianza entre dos variables del proceso separadas k períodos. Si k = 0,
γ 0 = E(Yt - µ)( Yt - µ) = σ2 73
ρt,t+k =
γ k γ k = = ρk 2 2 γ 0 σσ
ρk es el coeficiente de autocorrelación simple de dos variables separadas k períodos.
Estacionariedad en media y varianza varianza
Vamos a suponer que una serie temporal muestra una tendencia creciente. Como cada observación de la serie proviene de la distribución de probabilidad del período correspondiente, es razonable creer que la esperanza matemática de dichas distribuciones también crece en el tiempo. Para conocer si la serie temporal es estacionaria en varianza, puede realizarse la observación de los datos originales. Si alcanzan oscilaciones desiguales en torno a la tendencia, se puede defender la no estacionariedad de la serie. La figura 2.2.1. presenta una serie temporal generada por un proceso no estacionario en varianza, siendo ésta creciente con el tiempo.
e i r e S
Tiempo
Figura 2.2.1.
Los modelos de predicción de series temporales están diseñados para procesos estacionarios. Si las características del proceso cambian a lo largo del tiempo, resultará difícil representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal sencillo. Sin embargo, por regla general, las series económicas no son series que proceden de procesos estacionarios, sino que suelen tener una tendencia creciente o decreciente, y
74
variabilidad no constante. Esta limitación no es tan importante porque, en la práctica, se pueden transformar las series no estacionarias en otras que sí lo son. Un tipo de proceso estacionario particular es el denominado ruido blanco, formado por una sucesión de variables aleatorias con distribución normal, esperanza cero, varianza constante e incorreladas entre sí (figura 2.2.2):
εt es ruido blanco si εt ∼ N(0,σ2ε), para cualquier t, tal que Cov( εt,εt’) = 0, t
ρk
t' .
1 0,5 0
e i r e S
-0,5
1
2
3
4
5
6
7
-1 Tiempo
Figura 2.2.2.
Retardo
Figura 2.2.3.
Por otra parte, un proceso estocástico se dice ergódico cuando los valores de la serie alejados en el tiempo están poco correlacionados, es decir, cuando ρk decrece al aumentar el retardo k (figura 2.2.3.).
2.2.1.2. ESTIMACIÓN DE LA FUNCIÓN DE AUTOCORRELACIÓN SIMPLE EN UN PROCESO ESTACIONARIO. En la práctica se dispone de una muestra de un proceso estocástico, Y1, ...Yn. Se pueden obtener los coeficientes de autocorrelación simple y parcial muestral y, a partir de ellos, la función de autocorrelación simple y parcial teórica 3. Función de autocorrelación simple de la muestra: 3
La estimación de la FAP se tratará t ratará en el epígrafe 3 del capítulo. 75
n
µˆ = Y =
n
∑
Yt
t
t =1
n
∑ (Y −Y)(Y
ρk
n
∑ (Y
t −k
−Y)(Yt − Y )
t = k +1
=
n−k
2
t =1
n
− Y)
t +k
ˆ k = t = k +1 γ
ˆ0 = γ
,
n
t
∑ (Y −Y)
n−k
γ k γ 0
Si el tamaño de la muestra es grande con respecto a k, dividir por n o por n-k es prácticamente lo mismo, así como el cálculo de la media con n o con n-k observaciones:
n
∑ (Y −Y)(Y
t +k
t
ρk
γ k = γ 0
t = k +1
n−k
n
∑ (Y −Y) t
t =1
− Y)
n
∑ (Y −Y)(Y = ∑ (Y −Y)
t+k
t
− Y)
t = k +1
2
n
t
2
t =1
n
2.2.2. MODELIZACIÓN UNIVARIANTE DE SERIES TEMPORALES. La representación formal de los procesos aleatorios que generan series reales se puede realizar a través de los modelos lineales de series temporales, desarrollados especialmente a través de la metodología de Box y Jenkins. Considerando que la serie temporal ha sido generada por un proceso estocástico, en este apartado se describirán los posibles modelos teóricos que permitan explicar el comportamiento de la misma y, por tanto, el de su proceso generador. Después, se utilizarán con fines predictivos. Las estructuras estocásticas estacionarias lineales que se tratarán de asociar a una serie de datos económicos se clasifican en tres tipos: el modelo autorregresivo, el modelo de medias móviles y el modelo mixto. 76
2.2.2.1. PROCESOS AUTORREGRESIVOS Representan los valores de una variable durante un instante del tiempo en función de sus valores precedentes. Un modelo autorregresivo de orden p (AR(p)) tiene la forma siguiente: Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt
δ es un término constante. εt es una variable ruido blanco, que representa los errores del ajuste y otorga el carácter aleatorio a la misma. Las características de los procesos AR(1) y AR(2) se analizarán a continuación y los resultados obtenidos se van a generalizar al AR(p). Modelos autorregresivos autorregresivos de primer orden AR(1): AR(1):
Yt = δ + φ1Yt-1 + εt Si el proceso es estacionario en media y varianza: E(Yt) = E(Yt-1) y Var (Yt) = Var(Yt-1),
∀t. Entonces: Media: E(Yt) = E(Yt-1) = µ ⇒ µ = δ + φ1µ ⇒ µ =
δ 1 φ1
σ 2ε Varianza: Var(Yt) = Var(Yt-1) = γ 0 ⇒ γ 0 = φ γ σε ⇒ γ 0 = 1 φ 12 2 1 0+
2
La condición a cumplir para que γ 0 sea positiva y finita es que
φ1
1 . En ese caso el
modelo es estacionario en media y varianza. Si el modelo es estacionario en sentido amplio, además: Autocovarianzas: Cov(Yt-1,Yt) = Cov(Yt,Yt+1) = γ 1 , ∀t. Cov (Yt-1,Yt)=E[( Yt-1-µ)(Yt-µ)] = E(yt-1yt)
77
Yt = δ + φ1Yt-1 + εt = µ(1- φ1) + φ1Yt-1 + εt⇒Yt-µ = φ1(Yt-1-µ) + εt⇒ yt = φ1yt-1+ εt
γ 1 = E(yt-1yt) = E(yt-1(φ1yt-1+εt)) = φ1E(yt-12) + E(yt-1εt ) = φ1γ 0 yt-1 está correlacionado con εt-1 pero no con εt, debido a que ésta es una variable ruido blanco y no presenta autocorrelación.
γ 2 = E(yt-2yt) = E(yt-2(φ1yt-1 + εt))= φ1E(yt-2Yt-1)+ E(yt-2εt ) = φ1γ 1 = φ12γ 0 ............
γ k = φ1kγ 0 Coeficientes de autocorrelación simple:
ρ0 = 1 ρ1 =
γ 1 =φ γ 0 1
ρ2 =
γ 2 2 =φ γ 0 1
.........
ρk =
γ k = φ1k ∀k γ 0
Los valores de la función de autocorrelación son las sucesivas potencias de φ1. La condición φ1 < 1 garantiza que los sucesivos valores ρk converjan a cero, por lo que la función de autocorrelación o correlograma puede tener dos aspectos distintos, dependiendo del signo de
φ1 (figura 2.2.4.). Utilizando el operador de retardos L que, aplicado sobre una variable en un periodo del tiempo t, la retarda un período, podemos establecer de otro modo la condición de estacionariedad: LYt = Yt-1, LYt-1 = Yt-2 = LLYt =L2Yt, ... Yt-k = LkYt L0 =1 por lo que L 0Yt = Yt Podemos escribir el modelo: 78
Yt = δ + φ1Yt-1 + εt = δ + φ1LYt + ε t⇒ Yt - φ1LYt = δ + εt Yt(1 - φ1L) = δ + εt donde (1 - φ1L) = φ(L) es el operador operador polinomial de retardos. Para que el proceso AR(1) sea estacionario, φ1 < 1 y es equivalente a la condición de que la raíz del operador polinomial φ(L) = 0 debe caer fuera del círculo unidad, es decir: 1 - φ1L = 0 ⇒ L > 1 ⇒ Si φ1 < 1 ⇒
1
φ1
> 1 ⇒ φ1 < 1 .-
1 < 1 ⇒ L > 1 .L
>0 rk
<0
1
1
0,5 0,5
0,5
0
0
-0,5
-0,5
-1
-1
Retardo
Retardo
Figura 2.2.4. FAS de un modelo AR(1)
Modelos autorregresivos autorregresivos de segundo orden AR(2):
Yt = δ + φ1Yt-1 + φ2Yt-2 + εt Si el proceso es estacionario en media y varianza: E(Y t) = E(Yt-1) y Var(Yt) = Var(Yt-1),
∀t. Entonces: Media: E(Yt) = E(Yt-1) = µ ⇒ µ = δ + φ1µ + φ2µ ⇒ µ =
δ 1 − φ1 − φ 2
Para que la media sea finita φ1+ φ2 ≠1.
79
Varianza: Var(Yt) = Var(Yt-1)= Var (Yt-2) = γ 0 ⇒ Var (Yt) = E(yt2) = E(ytyt) = E[yt(φ1yt-1 +... + φ2yt-2 + εt)] = φ1γ 1+ φ2γ 2 + E(ytεt) = φ1γ 1 + φ2γ 2 + σ2ε Ya que yt = φ1yt-1 + φ2yt-2 + εt Autocovarianzas: Cov(Yt-1,Yt) = Cov(Yt,Yt+1) = γ 1 , ∀t.
γ 1 = Cov (Yt-1,Yt) = E[( Y t-1 - µ)(Yt - µ)] = E(yt-1yt) = E[yt-1(φ1yt-1 + φ2yt-2 + εt)] = φ1γ 0 + φ2γ 1.1. Hay que recordar que en un proceso estacionario γ 1= γ -1-1.
γ 2 = Cov (Yt-2,Yt) = E(yt-2yt) = E(yt-2(φ1yt-1 + φ2yt-2 + εt)) = φ1γ 1 + φ2γ 0 ...
γ k = φ1γ k-1 k-1 + φ2γ k-2 k-2 (k>0). Coeficientes de autocorrelación simple:
ρ0 =1 ρ1 =
γ 1 = φ1 + φ2ρ1 γ 0
ρ2 =
γ 2 γ 0
φ1ρ1 +φ2
γ k γ 0
φ1ρk-1 + φ2ρk-2 , k>0
....
ρk =
En la figura 2.2.5. se pueden observar los correlogramas de procesos AR(2). Modelos autorregresivos autorregresivos de orden p, AR(p):
Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt Si el proceso es estacionario en media y varianza: E(Y t) = E(Yt-1) =...= E(Yt-p) y Var(Yt) = Var(Yt-1) =...= Var(Yt-p), ∀t. Entonces: 80
µ=
δ ; para que la media sea finita φ1 + φ2 +...+ φp ≠ 1. 1 − φ1 − φ 2 − ... − φ p
La condición de estacionariedad es que las raíces de la ecuación polinomial φ(L) = 0 estén fuera del círculo unidad4. 1 − φˆ 1 L − φˆ 2 L2 ... − φˆ p Lp = 0 Si Li es una raíz de la ecuación polinomial se demuestra que
1 = λi Li
Donde λi son las raíces de la denominada ecuación característica:
λp - φ1λp-1 - φ2λp-2 -...- φp = 0. Por tanto, la condición de invertibilidad se puede obtener de forma alternativa y es que las raíces de la ecuación característica deben ser menores a la unidad en valor absoluto.
1
1 s e t n e i c i f e o C
s e t n e i c i f e o C
0,5 0 -0,5
0,5 0 -0,5 -1
-1
Retardo
Retardo
1 s e t n e i c i f e o C
1 s e t n e i c i f e o C
0,5 0 -0,5 -1
0,5 0 -0,5 -1
Retardo
Retardo
Figura 2.2.5. FAS de procesos AR(2)
81
Generalizando:
γ 0 = φ1γ 1 + φ2γ 2 +...+ φpγ p + σ2ε γ k = φ1γ k-1 k-1 + φ2γ k-2 k-2 +...+ φpγ k-p k-p, para todo k 1 (*) El sistema de ecuaciones (*) para p ara k = 1...p, relaciona las p primeras autocovarianzas con los parámetros del proceso. Se denominan ecuaciones de Yule-Walker:
γ 1= φ1γ 0 + φ2γ 1 +...+ φpγ p-1 p-1 γ 2 = φ1γ 1 + φ2γ 0 +...+φpγ p-2 p-2 .............................................
γ p= φ1γ p-1 p-1 + φ2γ p-2 p-2 +...+φpγ 0 Las ecuaciones de Yule-Walker se pueden expresar en términos de los coeficientes de autocorrelación dividiendo por γ 0 ambos miembros:
ρ1 = φ1ρ0 + φ2ρ1 +...+ φpρp-1 ρ2 = φ1ρ1 + φ2ρ0 +...+ φpρp-2 .............................................
ρp = φ1ρp-1 + φ2ρp-2 +...+φpρ0 Mediante estas ecuaciones se pueden obtener los coeficientes o parámetros del proceso AR(p) con los datos de los coeficientes de autocorrelación o autocovarianzas. Si se resuelve sucesivamente el sistema de Yule-Walker bajo la hipótesis de la serie es un AR(1), AR(2), AR(3), etc., y se toma el último coeficiente de cada uno de los procesos se obtiene la función de autocorrelación parcial teórica. Bajo el supuesto de que p es el orden del proceso autorregresivo, se obtiene que los coeficientes de autocorrelación parcial serán distintos de cero para retardos iguales o inferiores a p (figura 2.2.6.).
4
En caso de que las raíces sean s ean números complejos basta calcular su módulo. 82
1
1
s e t 0,5 n e i 0 c i f e o -0,5 C
s e t 0,5 n e i c 0 i f e o -0,5 C
-1
-1
Retardo
Retardo
Figura 2.2.6. FAP de procesos AR (1)
2.2.2.2. PROCESOS DE MEDIA MÓVIL En los procesos de media móvil de orden q, cada observación Y t es generada por una media ponderada de perturbaciones aleatorias, con un retardo de q períodos. Se simboliza por MA(q): Yt = δ + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q, εt es ruido blanco. Modelo MA(1):
Yt = δ + εt - θ1εt-1 E(Yt) = δ Var (Yt) = Var (εt) + θ12Var (εt-1) = σε2(1+ θ12) = γ 0 Autocovarianzas:
γ 1 = E(Yt-1 - δ)(Yt - δ) = E(εt-1 - θ1εt-2)( εt - θ1εt-1) = - θ1σε2 γ 2 = E(Yt-2 - δ)(Yt - δ) = E(εt-2 - θ1εt-3)( εt - θ1εt-1) = 0 ....
γ k = 0, k 1 Se dice que el proceso tiene una memoria de sólo un período. Cualquier valor de Yt está correlacionado con Yt-1 e Yt+1, pero con ningún otro valor de la serie. Coeficientes de autocorrelación: 83
ρ0 = 1 ρ1 = ρk =
γ 1 − θ1 = γ 0 1 + θ12 γ k γ 0
0, k>1
Un modelo MA(1) siempre es estacionario con independencia del valor de θ1.
1
1
s e 0,5 t n e i 0 c i f e o C -0,5
s e 0,5 t n e i 0 c i f e o -0,5 C
-1
-1
Retardo
Retardo
Figura 2.2.7. FAS de un proceso MA(1)
Modelo MA(2):
Yt = δ + εt - θ1εt-1 - θ2εt-2 E(Yt) = δ
γ 0 = Var (Yt) = Var (εt) + θ12Var (εt-1) + θ22Var (εt-2) = σε2(1+ θ12+θ22) = γ 0 Autocovarianzas:
γ 1 = E(Yt-1 - δ)(Yt - δ) = E(εt-1 - θ1εt-2 - θ2εt-3)( εt - θ1εt-1 - θ2εt-2) = σε2(-θ1 + θ1θ2) γ 2 = E(Yt-2 - δ)(Yt - δ) = E(εt-2 - θ1εt-3 - θ1εt-4)( εt - θ1εt-1 - θ2εt-2) = -θ2σε2 ....
γ k= 0, k 2 84
Coeficientes de autocorrelación:
ρ0 =1 ρ1 =
γ 1 θ 1 θ 1θ 2 = γ 0 1 θ 12 θ 22
ρ1 =
γ 2 θ2 = γ 0 1 θ 12 θ 22
......
ρk =
γ k γ 0
0, k>2
Un modelo MA(2) siempre es estacionario con independencia del valor de sus parámetros y su memoria es de dos períodos.
,
,
1
1
s e t 0,5 n e i 0 c i f e o -0,5 C
s e t 0,5 n e i 0 c i f e o -0,5 C
-1
-1
Retardo
Retardo
,
,
1
1
s e t 0,5 n e i 0 c i f e o -0,5 C
s e t 0,5 n e i 0 c i f e o -0,5 C
-1
-1
Retardo
Retardo
Figura 2.2.8. FAS del modelo MA(2)
85
Modelo MA(q):
Yt = δ + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q E(Yt) = δ
γ 0 = Var (Yt) = Var (εt) + θ12Var (εt-1) + θ22Var (εt-2) = σε2(1 + θ12+θ22+...+θq2) Autocovarianzas:
γ 1 = E(Yt-1 - δ)(Yt - δ) = σε2(-θ1 + θ1θ2 + θ2θ3 +...+ θq-1θq) γ 2 = E(Yt-2 - δ)(Yt - δ) = (-θ2 + θ1θ3 + θ2θ4 +...+ θq-2θq )σε2 ....
γ q = -θqσε2 ....
γ k = 0, k q Los coeficientes de autocorrelación pueden ser obtenidos a partir de las autocovarianzas. Todos los procesos MA de orden finito son estacionarios.
Concepto de invertibilidad de los procesos MA Cualquier proceso MA(q) puede expresarse como un AR(∞). Un modelo modelo MA(1): MA(1): Yt = δ + εt - θ1εt-1 Yt-1 = δ + εt-1 - θ1εt-2 Yt-2 = δ + εt-2 - θ1εt-3
εt = Yt - δ +θ1εt-1 = Yt - δ +θ1(Yt-1 - δ + θ1εt-2) = Yt - δ + θ1Yt-1 -θ1 δ + θ12εt-2 = Yt - δ + θ1Yt-1 -θ1 δ + θ12 (Yt-2 - δ+θ1εt-3) = Y t - δ + θ1Yt-1 -θ1 δ + θ12Yt-2 - θ12δ + θ13εt-3 ⇒ Yt = δ(1 + θ1 + θ12) - θ1Yt-1 - θ12Yt-2 - θ13εt-3 + εt 86
Si continuamos eliminando εt-3 y siguientes, el procedimiento continuará hasta el infinito. Lleva a expresar Yt como función de sus valores retardados más una constante y un término de error. Esto tiene sentido si θ1 < 1 , ya que, de otro modo, el efecto del pasado sería más importante para explicar el comportamiento comportamiento actual. Lo más lógico es pensar que el efecto del pasado va siendo cada vez vez menor y el proceso es invertible. Si θ1 = 1 , es un caso límite de invertibilidad, en el que el efecto se mantiene constante con el retardo. θ1 < 1, equivale a que las raíces de 1-θ1L = 0 ⇒ L >1. Para un modelo MA(2), la condición de invertibilidad es 1 - θ1L - θ2L2 = 0 ⇒ L >1 Para un modelo MA(q), dicha condición es 1 - θ1L - θ2L2-...- θqLq = 0 ⇒ L >1 Debido a que el proceso MA(q) se puede expresar como un AR( ∞), consta de infinitos coeficientes de autocorrelación parcial distintos de cero, aunque a partir del valor q decaerán rápidamente. Así, la FAP de un proceso MA se comporta de manera análoga a como lo hace la FAS en un AR (véase figura figura 2.2.9.).
,
,
1
1
s e t 0,5 n e i 0 c i f e o -0,5 C
s e t 0,5 n e i 0 c i f e o -0,5 C
-1
-1
Retardo
Retardo
,
,
1
1
s e t 0,5 n e i 0 c i f e o -0,5 C
s e t 0,5 n e i 0 c i f e o -0,5 C
-1
-1
Retardo
Retardo
Figura 2.2.9. FAP de procesos MA(2)
87
2.2.2.3. PROCESOS ARMA Un modelo mixto con componente autorregresiva y con componente de medias móviles se denomina ARMA (p,q), donde p es el orden de la parte autorregresiva y q el de la parte de medias móviles: Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q La condición de estacionariedad es que las raíces de la ecuación característica φ(L) = 0 estén fuera del círculo unidad. La condición de invertibilidad es que las raíces de la ecuación θ(L) = 0 estén fuera del círculo unidad. Vamos a analizar las características de un modelo ARMA (1,1): Yt = δ + φ1Yt-1 + εt - θ1εt-1
Media: µ =
δ < ∞ , |φ1|≠1 1 − φ1
Varianza: γ 0 = E(Yt2), ya que δ = 0 no afecta a la varianza.
γ 0 = E(δ + φ1Yt-1 + εt- θ1εt-1)2 = φ12 γ 0 + σ2ε + θ12σ2ε - 2φ1σ2ε ⇒ σ ε2 (1 + θ12 − 2φ1θ1 ) ⇒ γ 0 = , con φ1 < 1 1 − φ12 Autocovarianzas:
γ 1 = E(Yt-1Yt) = φ1 γ 0 - θ1σ2ε γ 2 = E(Yt-2Yt) = φ1 γ 1 ....
γ k = E(Yt-kYt) = φ1 γ k-1 k-1 , ∀k ≥ 2 Lógicamente, en un proceso ARMA (p,q) tanto la FAS como la FAP tienen infinitos elementos distintos de cero ( figura 2.2.10.).
88
,
,
1 s e t n e i c i f e o C
1 s e t n e i c i f e o C
0,5 0 -0,5 -1
0,5 0 -0,5 -1
Retardo
Retardo
Figura 2.2.10. FAS y FAP para un proceso ARMA(1,1).
2.2.2.4. MODELOS ARIMA Hasta este momento se han tratado procesos estacionarios. Sin embargo, las series de datos económicos suelen caracterizarse por ser no estacionarias: nótese la simple observación de una tendencia creciente en el tiempo o de unas fluctuaciones que crecen en tamaño con el paso del tiempo, como, por ejemplo, puede ocurrir con el precio de algunos activos financieros. Es cierto que muchas series económicas se convierten en aproximadamente estacionarias después de aplicar diferencias en una ó más etapas. Lo que se hace en tales situaciones es trabajar con la serie en diferencias especificando y estimando un modelo para ellas. Una predicción con estas series hay que traducirla a una predicción para la serie origen, en cuyo análisis está interesado el investigador. - Diferencias de orden uno o de primer orden o primeras diferencias: Yt = Yt − Yt −1
- Diferencias de orden dos o segundas diferencias: se aplican primeras diferencias a la serie ya diferenciada una vez. ( Yt ) =
2
Yt = (Yt − Yt −1 ) = Yt − ∆Yt −1 = Yt − 2Yt −1 + Yt −2
Se pueden calcular diferencias de cualquier orden.
89
Un ejemplo de proceso estocástico o aleatorio no estacionario es el denominado paseo o camino aleatorio: Yt = Yt-1 + ε t ó bien Yt = δ + Yt-1 + ε t , donde
ε t es ruido blanco.
Yt = Yt-1 + ε t = Yt-2 + ε t 1 + ε t = Yt-3 + ε t 2 + ε t 1 + ε t = ....=
∞
∑ε
t −k
k =0
Es un proceso no estacionario en varianza pues Var (Y t) = Var (
∞
∑ε
t −k
) = ∞.
k =0
La transformación consistente en tomar primeras diferencias de la variable produce una nueva serie claramente estacionaria: Yt = Yt − Yt −1 = ε t , variable que sigue un proceso ruido blanco, estacionario. La serie Yt es no estacionaria homogénea de orden d, si la serie ωt = ∆dYt es estacionaria. Entonces, Yt es un proceso autorregresivo integrado de media móvil de orden (p,d,q) y se denomina ARIMA (p,d,q). Si se aplican diferencias de orden d a Y t se obtiene un proceso estacionario ωt del tipo ARMA (p,q).
ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q (1-φ1L - φ2L2 - ...- φpLp) ωt = δ + (1 - θ1L - θ2L2 -...- θqLq) εt (1-φ1L - φ2L2 - ...- φpLp) ∆dYt = δ + (1 - θ1L - θ2L2 -...- θqLq) εt
2.3. FASES PARA LA ELABORACIÓN DE MODELOS ARIMA 2.3.1. FASE DE IDENTIFICACIÓN Se trata de buscar un proceso ARMA que de forma verosímil haya podido generar la serie temporal, es decir, que se adapte mejor a las características de la misma. Pero esos procesos son estacionarios, estacionarios, por lo que habrá habrá que efectuar un análisis de la estacionariedad de de los datos. Con tal fin se utilizan los siguientes instrumentos: - Representación gráfica. gráfica. Si el gráfico de la serie temporal presenta fluctuaciones cuya amplitud cambia para distintos intervalos del período muestral, se pensará que el proceso que genera la serie es no estacionario. Lo mismo sucede cuando la tendencia es creciente o decreciente con el tiempo. 90
- El correlograma. El hecho de que la función de autocorrelación simple decrece muy lentamente al aumentar el retardo, ha demostrado ser una señal de tendencia no estacionaria. Puesto que en la práctica se dispone de una realización de un proceso estocástico, podemos obtener los coeficientes de autocorrelación muestral y, a partir de ellos, el correlograma muestral. Una vez representado el correlograma muestral, se conoce si la serie es o no estacionaria. - Mediante los contrastes de raíces unitarias. Son válidos para determinar si existe tendencia determinística o estocástica5. - A través del gráfico desviación típica-media. Si conforme crece la media, la desviación típica aumenta, la varianza del proceso es creciente. Si la serie temporal no es estacionaria se aplican las transformaciones adecuadas con objeto de convertirla en estacionaria. Cuando la serie presente no estacionariedad en media, se suele aplicar el proceso de diferenciación. Pero, a veces, la toma de diferencias no es suficiente para obtener series estacionarias en media y en varianza. Una solución consiste en fijar logaritmos de la serie, teniendo en cuenta que posteriormente hay que deshacer el cambio de variable. En series económicas que están afectadas por una fuerte tendencia, suele ser necesario efectuar alguna transformación del tipo Box-Cox, para obtener una serie estacionaria en varianza. Esta transformación se define por:
(Y λ − 1) / λ λ ≠ 0 Yt(λ) = t LnYt λ=0 Una vez estacionaria, se determinará el orden de la parte autorregresiva (p) y el de la parte de medias móviles (q) del proceso ARMA, que se considere haya podido generar la serie estacionaria. Para tal fin se utilizan el correlograma estimado y la función de autocorrelación parcial estimada. Esta última puede obtenerse de dos formas alternativas, prácticamente equivalentes: mediante el sistema de Yule-Walker, y mediante el método de regresión. Se puede utilizar el sistema de Yule-Walker para estimar los coeficientes de autocorrelación parcial a partir de los simples estimados:
5
Estos términos se desarrollarán con amplitud a mplitud en el tercer capítulo. 91
φˆ 11 = ρˆ 1 =
ˆ1 γ , γ ˆ 0
−1
φˆ 21 1 ρˆ 1 ρˆ 1 ˆ = ρˆ 1 ⋅ ρˆ , φ 22 1 2
φˆ 31 1 ρˆ 1 ρˆ 2 −1 ρˆ 1 ˆ φ 32 = ρˆ 1 1 ρˆ 1 ⋅ ρˆ 2 ..... φˆ 33 ρˆ 2 ρˆ 1 1 ρˆ 3
Se escogen los coeficientes φˆ 11 , φˆ 22 , φˆ 33 ,... para configurar la FAP estimada.
La otra opción para el cálculo de la FAP, consiste en obtener los coeficientes mediante las siguientes regresiones sucesivas: Yˆ t = φˆ 11 Yt −1 + ε t Yˆ t = φˆ 21 Yt −1 + φˆ 22 Yt − 2 + ε t ... Yˆ t = φˆ k1 Yt −1 + φˆ k 2 Yt −2 + ... + φˆ kk Yt − k + ε t Así, φˆ kk es la correlación estimada existente entre Yt e Yt-k, después de eliminar de ambas el efecto de Yt-1, Yt-2, ..., Yt-k+1. En los modelos AR(p), la FAP presenta los p primeros coeficientes distintos de cero y el resto nulos. La FAS presenta un decrecimiento rápido de tipo exponencial, sinusoidal o ambos. En los modelos MA(q), sucede el patrón opuesto: la FAS se anula para retardos superiores a q y la FAP decrece exponencial o sinusoidalmente. Sin embargo, la especificación de los modelos ARMA no se ajusta a unas normas tan bien definidas. Por ejemplo, en un modelo AR(1), la FAP es cero para k>1, pero esto no ocurre en un ARMA(1,1), pues a la componente AR(1) hay que superponer la MA(1) cuya FAP converge exponencialmente a cero. En la práctica, se puede especificar una de las componentes y analizar sus residuos. Si el modelo considerado es un ARMA (2,1) se especifica inicialmente la componente AR(2). Se analizarán estos residuos a través del correlograma y si siguen un MA (1), el proceso completo será un ARMA (2,1) 6. Para que una serie sea fácilmente identificable hay que considerar un tamaño muestral elevado (mayor a 50). No puede olvidarse que cuando se trabaja con series reales, los correlogramas resultantes se refieren a los estimados por la muestra. Si el proceso es estacionario, las 6
Puesto que en la práctica se observan las FAS y FAP estimadas, éstas no concordarán exactamente con sus valores teóricos. Lo único que se pretende es buscar la mayor similitud posible entre las funciones teóricas y muestrales 92
correlaciones muestrales estiman considerablemente las poblacionales y existe la posibilidad de constrastar hipótesis respecto a la nulidad de cada coeficiente teórico de la FAS y FAP. De hecho, si hay evidencia de que algún coeficiente es estadísticamente no significativo, puede considerarse nulo. El estimador
ρ k es una variable aleatoria cuya varianza se estima de forma aproximada
(Barlett, 1946) por: k −1 1 Var ( ρˆ k ) ≅ (1 + 2 ρˆ i 2 ) n i =1
∑
Con un tamaño muestral suficientemente grande, ρˆ k se aproxima a una distribución normal. Se puede, por tanto, construir un intervalo de confianza al 95%, para contrastar la hipótesis nula de que
ρ k = 0: ± 2 Var(ρˆ k )
Si los coeficientes muestrales caen dentro del intervalo, se concluye que los coeficientes de autocorrelación no son significativamente distintos de cero. En la práctica, esta fórmula permite identificar procesos de media móvil, para los cuales
ρ k se anula a partir de algún k>q.
Para la FAP, se ha demostrado (Quenouille, 1949) que, en un proceso AR(p): 1 Var (φˆ kk ) ≅ , k>p n Entonces, el intervalo de confianza, al 95%, para contrastar φˆ kk = 0 es igual a:
± 2 Var(φˆ kk ) = ± 2 1
n
Es posible, pues, verificar si una muestra procede de un proceso autorregresivo de un orden p* dado, comprobando si
φ kk cae dentro del intervalo (es significativamente igual a cero)
para todo k>p*. En la práctica, se utiliza empíricamente para calcular intervalos de confianza
93
para todos los coeficientes de autocorrelación parcial estimados, con independencia de cuál sea el tipo de proceso, el cual se desconoce de antemano. También hay que identificar la inclusión o no de término independiente. La media del proceso está ligada al mismo, por tanto, si la media observada se considera significativamente igual a cero, no se introducirá término independiente en el modelo. Esta etapa suele plantear ciertas dificultades y su objetivo consiste, en general, en la especificación tentativa de unos pocos modelos con estructuras sencillas. La etapa de estimación y la posterior validación de los resultados confirmarán los indicios o, por el contrario, servirán de fundamento para la reformulación de los modelos propuestos.
2.3.2. FASE DE ESTIMACIÓN Una vez identificado el modelo de series temporales ARIMA(p,d,q), se procederá a estimar sus parámetros. Sea Yt ≈ ARIMA(p,d,q), donde ωt = (1-L)dYt ≈ ARMA(p,q):
ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q El objetivo es la estimación de δ, φ1, φ2,..., φp, θ1,θ2...θq y, para ello, se dispone de una muestra de tamaño n de Y. Al tomar diferencias de orden d se perderían d observaciones para la nueva serie ωt, quedando n-d datos ω1,... ωn-d. Las hipótesis que se adoptan en el proceso de estimación son las siguientes: a) εt ≈ N(0,σ2ε) b) El proceso es estacionario. c) El proceso es invertible. Estimación de procesos autorregresivos
Un proceso autorregresivo no cumple la hipótesis del modelo clásico de regresión basada en regresores fijos. Son variables aleatorias puesto que son retardos de la variable Y t (ó 94
ωt, en su caso) que es aleatoria. Sin embargo, en presencia de errores que no presentan autocorrelación, los estimadores mínimocuadráticos tienen buenas propiedades (consistencia). Por el contrario, si el término de error estuviese correlacionado (no fuese ruido blanco), estos estimadores serían inconsistentes. En este caso, el modelo estaría mal especificado, puesto que una especificación correcta debe provocar un término de error con estructura de ruido blanco.
ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p+εt Aplicar el criterio de mínimos cuadrados, implica minimizar la suma de los cuadrados de los residuos e t = ωt- ω t . El residuo se considera una estimación de la perturbación aleatoria
una vez estimado el modelo. En forma matricial:
n 1
= Wn
(p+1)
(p+1) 1
+
n 1
, donde n es el número final de datos
utilizados en la estimación.
n 1=
ω1 ω2
, Wn
...
ωn
MCO
(p+1) =
1 ω0 ω 1 ω0 1 ω1 . .. ... .. . ... 1 ωn 1 ωn 2
... .. . ω 1 p ... .. . ω 2 p . . . . .. ... .. . ω n p
(p+1) 1=
δ φ1 ...
φp
,
n 1=
ε1 ε2 ...
εn
( W' W ) 1 W' w
Si no se incluye término independiente en el modelo, se suprime la columna de unos.
Estimación de procesos de medias móviles y mixtos
La estimación de modelos de medias móviles y modelos mixtos se lleva a cabo mediante algoritmos de optimización numérica, debido a que los errores no son función lineal de los parámetros. Partimos de un modelo MA(1), sin término independiente:
ωt = εt - θ1εt-1 95
et = ωt- ω t = ωt + θ1ε t 1 .
εt = ωt + θ1εt-1 Para t =1: ε1 = ω1 + θ1ε0 Para t =2: ε2 = ω2 + θ1ε1 = ω2 + θ1(ω1 + θ1ε0) = ω2 + θ1ω1 + θ21ε0 Para t =3: ε3 = ω3 + θ1ε2 = ω3 + θ1(ω2 + θ1ω1 + θ21ε0) = ω3 + θ1ω2 + θ21ω1 + +θ31ε0 ..... El término de error no es función lineal del parámetro a diferencia de lo que sucede con los modelos autorregresivos. El modelo se puede estimar a través de un proceso iterativo de estimación no lineal, que utiliza los dos primeros términos de la aproximación de εt a través del desarrollo en serie de Taylor7 (se consideran despreciables los términos de segundo orden y superior).
εt ε 0t (θ 1 θ10 )
∂ε t ∂θ 1
θ1 θ10
ε 0t es el valor que toma el residuo después de sustituir θ1 por el valor inicial θ01. Por tanto, hay que partir de un valor inicial para el parámetro.
∂ε t ∂θ1
es la derivada de los errores respecto a θ1, sustituyendo θ1 por su valor θ1 θ10
inicial.
En este modelo
∂ε t ∂θ 1
ε t 1 . Entonces:
7
Si y =f(x1,x2) es una función no lineal de dos variables X 1 y X 2, se puede igualar a una serie de Taylor, en torno a unos valores numéricos de las variables x 10 y x20:
∂f ∂f ∂ 2f 1 + ( x 2 − x 20 ) + ( x1 − x10 )2 + ∂x1 x1 = x10 ∂x 2 x1 = x10 2 ∂x1 x1 = x10 x = x 20 x = x 20 x = x 20
y = f ( x10 , x 20 ) + ( x1 − x10 )
2
2
2
∂ 2f ∂ 2f 1 2 + ( x 2 − x 20 ) + ( x1 − x10 )(x 2 − x 20 ) + ... 2 ∂x 2 x1 = x10 ∂x1∂x 2 x1 = x10 x =x x =x 2
20
2
20
El resto de los términos son despreciables. 96
∂ε εt ≅ ε 0t + (θ1 − θ10 ) t = ε 0t + (θ1 − θ10 )ε 0 t −1 = ∂θ1 θ1 =θ10 = ε 0t − θ10 ε 0 t −1 + θ1ε 0 t −1 ⇒ ε 0t − θ10 ε 0 t −1 = ε t − θ1ε 0 t −1 ⇒ ⇒ w t = θ1 x t + ε t donde wt = ε 0t − θ10 ε 0 t −1 y xt = − ε 0 t −1 Es una ecuación de regresión lineal que se puede estimar mediante MCO. También es posible establecer la ecuación en función de (θ1 − θ10 ) y obtendríamos el estimador de (θ1 − θ10 ) : ˆ MCO = (θ1 −ˆ θ10 ) ⇒ θˆ 1 = ˆ MCO + θ10 . Entonces, θˆ 1 constituye la primera iteración del proceso. Este valor se utiliza para realizar una segunda iteración, como valor inicial, y así sucesivamente. La fórmula de actualización de las estimaciones sucesivas sería la siguiente:
β h = β h −1 + (β −ˆ β h −1 ) Si h = 0, tenemos el valor inicial. Si h = 1, tenemos la primera iteración. Si h = 2, la segunda iteración. ...... El procedimiento finaliza cuando se cumple algún criterio de convergencia satisfactorio, como el que establece que la diferencia entre dos estimaciones sucesivas en valor absoluto sea menor que una cantidad pequeña fijada de antemano (0,001, por ejemplo):
β h − β h −1 < 0,001 Otro criterio de convergencia alternativo consistiría en detener el proceso si la variación producida en la suma de los cuadrados de los residuos es pequeña (por ejemplo, inferior al 1%). Un criterio más exigente sería el de aceptar la convergencia del proceso cuando se cumplan a la vez los dos criterios citados.
97
Este procedimiento, aplicado a un modelo MA(2), generaría la siguiente aproximación:
∂ε ∂ε εt ≅ ε 0t + (θ1 − θ10 ) t 0 + (θ1 − θ 02 ) t 0 ⇒ ∂θ1 θθ1 ==θθ10 ∂θ 2 θθ1 ==θθ10 1
2
1
2
ε 0t es el valor que toma el residuo después de sustituir θ1 por el valor inicial θ01 y θ2 por θ02. ∂ε t ∂ε = ε t −1 y t = ε t −2 ∂θ1 ∂θ 2 Se tiene:
∂ε ∂ε εt ≅ ε 0t + (θ1 − θ10 ) t 0 + (θ 2 − θ 02 ) t 0 = ∂θ1 θ1 =θ10 ∂θ 2 θ1 =θ10 θ =θ θ =θ 1
2
1
2
= ε 0t − θ10 ε 0 t −1 + θ1ε 0 t −1 − θ 02 ε 0 t −2 + θ 2 ε 0 t −2 ⇒ ⇒ ε 0t − θ10 ε 0 t −1 − θ 02 ε 0 t −2 = ε t − θ1ε 0 t −1 − θ 2 ε 0 t −2 ⇒ w t = θ1 x 1t + θ 2 x 2 t + ε t donde wt = ε 0t − θ10 ε 0 t −1 − θ 02 ε 0 t − 2 , x1t =
ε 0 t 1 y x2t = − ε 0 t − 2
Este método se puede extender a cualquier proceso MA(q) y ARMA(p,q):
ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q Supongamos que δ = 0
εt = ωt - φ1ωt-1 - φ2ωt-2 -...- φpωt-p + θ1εt-1 + θ2εt-2 +...+ θqεt-q
0 t
εt ≅ ε +
p+q
∑ i =1
∂ε t ∂βi β=β0
(β i − β i0 )
β1 β 2 Ahora habrá que estimar el vector de p+q parámetros = ... , p de la parte AR y q β p +q de la parte MA, siendo el procedimiento igual al visto anteriormente. 98
Con objeto de obtener un proceso de convergencia rápido, se introducen ciertos refinamientos en el proceso. En este sentido, el algoritmo de Marquardt (1963) es muy utilizado en los paquetes de ordenador. También un proceso AR puede estimarse desde el punto de vista de este procedimiento iterativo, siguiendo los mismos pasos. Para efectuar contrastes estadísticos, en la iteración final se calcula la estimación de la matriz de varianzas y covarianzas de los estimadores mediante la expresión:
ˆ 2 ( X' X) −1 V =σ
=
e' e
n −p−q
( X' X) −1
El procedimiento iterativo no siempre es convergente. Si se produce divergencia el modelo se puede volver a estimar una o más veces, utilizando diferentes pronósticos iniciales, con la esperanza de obtener convergencia. Puede también producirse por una mala especificación del modelo, es decir porque no sea el que mejor representa la estructura del proceso estocástico que generó la serie temporal objeto de análisis. En este caso, habría que elegir una nueva especificación.
Obtención de valores iniciales para los parámetros del modelo Los valores numéricos de la FAS y FAP estimadas pueden utilizarse para obtener estimaciones iniciales de los coeficientes. La convergencia del proceso de estimación puede que sea más ràpida si el pronóstico inicial es bueno. Si el modelo identificado es un AR(p), las ecuaciones de Yule-Walker proporcionan los valores de los parámetros del modelo a partir de los coeficientes de autocorrelación estimados. Si, por el contrario, se ha elegido un modelo MA(1), entonces recordando que
ρˆ 1 =
− θ1 , podemos deducir un valor para el parámetro, teniendo en cuenta que el modelo 1 + θ12
debe cumplir la condición de invertibilidad. Para procesos de orden superior, el método es más complejo aunque similar. 99
Enfoque condicionado y no condicionado en la fase de estimación Si en el modelo ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q se dan valores desde t =1...n, se nota que para determinar el valor de los εt = ωt- δ - φ1ωt-1 - φ2ωt-2 - ...-
φpωt-p + θ1εt-1 + θ2εt-2 +...+ θqεt-q, se necesitan los valores anteriores y no observables de εt y ωt: ω0, ω-1, ..., ε0,..... Estos valores constituyen las condiciones iniciales y los estimadores mínimocuadráticos que obtengamos, dependerán de los l os valores elegidos para ellos. El método de estimación puede seguir un enfoque condicional o un enfoque no condicional. El enfoque condicional asigna unos valores apropiados a las condiciones iniciales basados en las hipótesis estadísticas del modelo: los errores se igualan a su media teórica, es decir, cero, y los primeros datos de la serie son utilizados para estimar los valores iniciales ω0,
ω-1, ...8 (a veces, se consideran igual a cero, es decir a su media teórica, en caso de no incluir término constante en el modelo, pero esta solución no es demasiado realista). El enfoque no condicional se caracteriza porque los valores iniciales no se consideran como datos, sino que se determinan dentro del proceso de estimación, conjuntamente con los parámetros del modelo. Este procedimiento es más eficiente que el condicional.
2.3.3.FASE DE VALIDACIÓN En esta etapa se comprobará la capacidad de ajuste del modelo propuesto y estimado a los datos. Si éste no supera satisfactoriamente este paso, es necesario reformularlo. Cabe decir que los resultados de la comprobación de la validez del modelo, suelen dar insinuaciones para proceder a la especificación de uno diferente. Para la aceptación del modelo, éste debe cumplir algunos requisitos:
• Análisis de los residuos:
8
La muestra se divide en dos partes, la primera de las cuales sirve para determinar los valores previos o iniciales y la otra para el proceso de estimación. 100
Se parte de la hipótesis de que el término de error de un modelo ARIMA es ruido blanco. Estos errores son inobservables, pero no ocurre lo mismo con los residuos. Cualquier test sobre la perturbación aleatoria debe basarse en los residuos del modelo, los cuales deben seguir, pues, el comportamiento de un proceso puramente aleatorio normal. En caso contrario, contendrían información relevante para la predicción. Con el objeto de estudiar si los residuos se aproximan al comportamiento de un proceso ruido blanco, se disponen de las siguientes herramientas:
Contraste independencia de Box-Pierce Está destinado a contrastar la independencia o no autocorrelación de los residuos. La autocorrelación se mide por los coeficientes de autocorrelación de los residuos rk. Es un contraste global (contraste de “portmanteau”) acerca de la no autocorrelación de los residuos de las observaciones separadas un número determinado de periodos. Ho : r1 = r2 =...= rk = 0 k
Se utiliza el siguiente estadístico propuesto por Box Box y Pierce (1970): Q (k) = n
∑ rˆ
2 t
t =1
rt es el coeficiente de autocorrelación estimado de orden t de los residuos, t = 1...k.
La elección de k es arbitraria. Cuanto mayor sea k el test se extenderá a desfases mayores, pero la precisión en la estimación de los r k es menor y disminuye la potencia del contraste, es decir, la probabilidad de rechazar la hipótesis nula cuando es falsa. Bajo la hipótesis nula, la distribución asintótica del del estadístico es: Q(k) ∼χk Se rechazará la hipótesis nula si el valor de Q experimental es superior que el teórico o tabulado de la distribución a un nivel de significación dado. Box y Pierce han demostrado que utilizando k elevado, el estadístico Q es apropiado si se supone que sigue una distribución Q(k) ∼χk-(p+q).
101
La versión mas actual de ese estadístico es la de Ljung-Box (1978), para disminuir el sesgo en pequeñas muestras. k
Bajo la hipótesis nula: Q*(k) = n (n+2)
∑ t =1
ˆrt2 ∼χk-(p+q) n−t
n −k
∑e e = ∑e
t t−k
Sabiendo que rˆk
t =1
2
es el coeficiente de autocorrelación de orden k y e t son
t
t =1
los residuos. A veces, en lugar de fijar a priori un nivel de significación para el contraste, el contraste se puede contemplar a través del nivel de significación crítico. Éste es un indicador del nivel de admisibilidad de la hipótesis nula. Cuanto mayor sea el nivel de significación crítico mayor confianza podemos tener para aceptar la hipótesis nula y viceversa: si toma el valor cero, podemos rechazar la hipótesis nula al 100% de confianza.
Representación de la función de autocorrelación simple y parcial de los residuos La serie de residuos es aleatoria si los coeficientes de autocorrelación simple y parcial son significativamente cero. Anderson (1942) ha demostrado que los coeficientes de autocorrelación muestrales procedentes de un proceso ruido blanco, siguen asintóticamente, la siguiente distribución:
rk ≈ N(0,1 / n )
En consecuencia, bajo la hipótesis de que rk = 0 , se construye un intervalo de confianza al 95% de la siguiente forma: ±
2 . Si algún rk cae fuera de los límites, se rechaza la hipótesis n
de no autocorrelación. En este caso hay evidencia de no aleatoriedad de la serie. Además, los errores deberán alternar el signo de su coeficiente de autocorrelación sin ningún criterio obvio.
102
También, los coeficientes de la FAP deben ser significativamente cero. En la práctica se construyen bandas de confianza utilizando la distribución de una variable ruido blanco cuya varianza es 1/n según se ha visto anteriormente. Hay que tener en cuenta que esta aproximación realizada sobre la varianza no es muy adecuada tanto para la FAS como para la FAP especialmente en los retardos bajos. Se podría concluir que un coeficiente es estadísticamente no significativo cuando en realidad lo es. La FAS y la FAP de los residuos del modelo estimado son instrumentos instrumentos valiosos a la hora de reformular el modelo, en caso de que no se comporten como un proceso ruido blanco. Supongamos que se ha estimado un AR(1): Y t = φˆ 1 Yt-1 ⇒ et = Y t- φˆ 1 Yt-1. Después de examinar la FAS y la FAP de la serie e t, se llega a la conclusión de que sigue un modelo MA (1), no un proceso ruido blanco : e t = εt - θ1εt-1. Sustituyendo en el modelo AR (1) : Y t = φ1Yt-1+ εt - θ1εt-1, se puede concluir que Yt es un ARMA (1,1).
Representación gráfica de los residuos La representación de los residuos en el tiempo permite observar si la varianza es constante y si la media está próxima a cero. Además, se puede verificar si se ajustan a una distribución normal y la existencia de residuos atípicos. Un residuo se considera atípico si el valor absoluto excede en tres o cuatro veces su desviación típica (siendo su media cero). Para contrastar la existencia de heteroscedasticidad se puede realizar el contraste de White (1980). Su hipótesis nula es que el término de perturbación es homocedástico e independiente de los regresores y que la especificación lineal es correcta. El procedimiento es el siguiente: a) Estimación del del modelo modelo original original ignorando la posible posible heteroscedasticidad. heteroscedasticidad. b) Estimación de una regresión del cuadrado cuadrado de los residuos anteriores sobre una constante, constante, los regresores del modelo original, sus cuadrados y productos cruzados de segundo orden. c) El output output es un estadístico nR2, donde n es el tamaño muestral y R 2 es el coeficiente de determinación de la última regresión, re gresión, que sigue una distribución asintótica chi-cuadrado con grados de libertad igual al número de regresores en el contraste de regresión anterior. d) Bajo la hipótesis nula de homoscedasticidad, asintóticamente el coeficiente de determinación tenderá a cero, excepto cuando la varianza del término de error del modelo 103
depende de sus variables explicativas. En tal caso nR2 permanecerá lejos de cero y es de esperar que sea mayor que el valor de las tablas de la distribución chi-cuadrado. Para contrastar la normalidad se utiliza el contraste de Jarque-Bera (1987). Se trata de una prueba de grandes muestras, que primero calcula la asimetría (A) y la curtosis o apuntamiento (K) de los residuos de la estimación del modelo y después utiliza el siguiente estadístico de contraste:
A 2 (K − 3) 2 JB = n + 24 6 Bajo la hipótesis nula de que los residuos están normalmente distribuidos, asintóticamente JB sigue una distribución
supera el valor χ 22 . Si el valor del estadístico supera
tabulado de la distribución chi- cuadrado, se rechazará la hipótesis nula a un determinado nivel de confianza. O si el nivel de significación crítico (p-valor) es suficientemente pequeño, se puede rechazar la hipótesis de que los residuos siguen una distribución normal.
• Análisis de los coeficientes estimados Primero hay que verificar si los coeficientes son significativos. El estadístico de contraste está construido bajo la hipótesis nula de que el coeficiente es cero y sigue una distribución t-student con n-m grados de libertad, con m igual al número de parámetros incluidos. Si concluimos que alguno no es significativo se puede suprimir.
Ho: φi = 0 ,
t*=
φ i − E (φ i ) ≈ t n −m S(φ i )
Ho: θi = 0,
t*=
θ i − E (θ i ) ≈ t n −m S(θ i )
Ho: δ = 0,
t*=
δ − E (δ ) ≈ t n −m S(δ)
La aplicación del test anterior requiere un contraste de dos colas, pues la hipótesis alternativa considera que puede tomar el coeficiente cualquier valor distinto de cero. Si t * es mayor que el teórico tabulado, se rechaza la hipótesis nula y el parámetro es significativo. 104
Otro aspecto importante es el examen del cumplimiento de las condiciones de estacionariedad e invertibilidad: Si alguna de las raíces de: 1 − φˆ 1 L − φˆ 2 L2 ... − φˆ p Lp = 0 1 − θˆ 1 L − θˆ 2 L2 ... − θˆ p Lp = 0 fuesen inferior a la unidad, el modelo se rechazaría. Si alguna de las raíces de 1 − φˆ 1 L − φˆ 2 L2 ... − φˆ p Lp = 0 , estuviese próxima a uno, es posible que la serie original esté subdiferenciada, por lo que puede que precise alguna diferenciación adicional. Si alguna de las raíces de 1 − θˆ 1 L − θˆ 2 L2 ... − θˆ p Lp = 0 está próxima a uno, es posible que el modelo esté sobrediferenciado. Si existen raíces comunes, se podría utilizar para las predicciones un modelo con dos parámetros menos, es decir, el modelo sería un ARMA (p-1, q-1). Es conveniente también examinar la matriz de correlación entre los coeficientes estimados. Cuando la correlación entre dos coeficientes es próxima a uno, los coeficientes estimados son muy inestables, con lo que podrían cambiar bastante de una muestra a otra. El modelo estimado para el período muestral puede diferir del que se obtendría para los períodos de predicción. Puede existir este problema siempre que alguna de las correlaciones entre estimadores tome un valor superior a 0,6. Para evitar este problema puede ser eficaz eliminar algún parámetro aún a costa de que el grado de ajuste sea más pequeño. No obstante, si todos los coeficientes son significativos no sería aconsejable eliminar coeficientes del modelo.
• Análisis de la bondad del ajuste: Se suele utilizar el coeficiente de determinación R2 o el corregido R 2 :
105
R2 = 1−
SCR STC
Es una medida de la proporción de la variación total de la variable que es explicada por el modelo.
R2 = 1−
SCR / n − m STC / n − 1
donde SCR =
∑ (ω − ω ) t
STC =
T
n
∑e t
n
2 t
es la suma de los cuadrados de los residuos y
2
la suma total de los cuadrados.
El coeficiente de determinación corregido penaliza la introducción de parámetros adicionales en el modelo. Si se introducen parámetros adicionales aunque no sean apropiados pueden incrementar R2. Para evitar este problema se suele utilizar el coeficiente corregido. El modelo se ajusta en mayor medida a los datos cuanto más próximos a la unidad estén los coeficientes de determinación. Pero sólo son comparables en modelos en los que se hayan tomado idéntico número de diferencias, debido a que para que este sea un elemento de comparación directa la varianza de la variable debe ser la misma. Si se calcula el coeficiente de determinación con la varianza de la variable diferenciada una vez, el resultado no será comparable con el calculado a partir del ajuste a un modelo sobre la variable original. Para paliar el anterior inconveniente, se han propuesto medidas alternativas destacando el estadístico AIC (Akaike Information Criterion), formulado por Akaike (1974). Consiste en seleccionar aquél modelo para el que se obtenga un AIC más bajo. Otra medida es SC (Schwarz Criterion) y cuanto menor sea ésta, mejor es el ajuste.
• Análisis de la estabilidad La construcción de un modelo ARIMA está justificada por su utilización para la predicción. Conviene saber si el modelo estimado para el período muestral sigue siendo válido
106
para períodos futuros. Para esta finalidad se puede aplicar el test de estabilidad estructural de Chow:
n 2 n1 2 n 2 2 e t − e1t + e 2 t / m t =1 t =1 t =1 ≈ F F= n m ,n − 2 m n2 1 e12t + e 22 t / n − 2m t =1 t =1
∑
∑
∑
∑
∑
m es el número de parámetros a estimar. N = n1+n2 et es el residuo del modelo utilizando todo el período muestral. e1t es el residuo utilizando los n1 primeros datos. e2t es el residuo utilizando los n2 últimos datos. Se pretende contrastar si el último tramo muestral ha estado generado por la misma estructura que el resto de las observaciones. Algunos autores aconsejan tomar como segundo tramo muestral un tercio o un cuarto de la muestra. Si la F calculada o experimental es mayor que la tabulada o teórica a un determinado nivel de significación, se rechaza la hipótesis de estabilidad estructural.
2.3.4. FASE DE PREDICCIÓN. Una vez que el modelo ha sido estimado y sometido a la fase de diagnosis, se convierte en un instrumento útil para la predicción. Sea el modelo estimado ARMA(p,q), para la serie ωt, siendo la serie original Yt ≈ ARIMA(p,d,q). Se trata de predecir los valores para la serie no estacionaria Yt, una vez se haya realizado para la serie ωt estacionaria. Por ejemplo, si ωt =Yt-Yt-1 , donde ωt es estacionaria. La predicción para esa serie en el período n+1 es ωˆ n +1 . La correspondiente predicción para Yn
1
es ωˆ n +1 +Yn.
Si se aplica una diferencia de segundo orden ωt = Yt –2Yt-1 +Yt-2, entonces Yˆ n +1 = = ωˆ n +1 + 2Yn –Yn-1 107
Si se ha fijado en algún momento la transformación logarítmica, se tomarán antilogaritmos para deshacer el cambio: ωt = LnYt ⇒ Yt = eωt Un criterio que se suele establecer para realizar predicciones es elegir aquellas con mínimo error cuadrático medio. El error cuadrático medio es igual a la esperanza matemática del cuadrado de los errores de predicción. La mejor predicción puntual desde este punto de vista es aquélla que se obtiene mediante la esperanza matemática condicional a toda la información disponible hasta el período de predicción. La expresión de este predictor es la siguiente: Yˆ n +1 = E(Yn+1 /Y /Yn, Yn-1...) Yn+1 = δ + φ1Yn + φ2Yn-1 + ...+ φpYn+1-p + εn+1 - θ1εn - θ2εn-1 -...- θqεn+1-q Tomando esperanzas condicionadas, se obtiene:
Yn 1 = δ + φ1Yn + φ2Yn-1 + ...+ φpYn+1-p - θ1εn - θ2εn-1 -...- θqεn+1-q
donde todas las variables con subíndices inferiores a n+1, dejan de ser aleatorias, por lo que sus esperanzas matemáticas coinciden con sus realizaciones y E(εn+1) = 0, por hipótesis. Después de obtener Yˆ n +1 , se calcula Yˆ n + 2 , y así sucesivamente. Los εt son inobservables, por lo que hay que sustituirlos por sus estimaciones, que se obtienen a través de los sucesivos residuos del modelo. Si algún residuo no es posible obtenerlo, se considera igual a su media teórica: cero. Esta solución es aceptable si el proceso es invertible, dado que, en ese caso, la importancia de los valores iniciales tiende a desaparecer a medida que aumenta el tamaño muestral. Cuando dispongamos de los valores observados, se utilizan para efectuar la predicción, si no se conocen se utilizan sus estimaciones en períodos anteriores. A medida que el horizonte de la predicción crece, la predicción por puntos de un modelo ARMA tiende a la media.
108
Error de predicción La predicción de una variable aleatoria como es Y t, conlleva incertidumbre pues depende de la muestra considerada. Entonces aparece un error de predicción. Si se conociesen los valores exactos de los coeficientes, cosa imposible en la mayoría de los casos, sería posible obtener una expresión del error de predicción como sigue: Yt+s - Yˆ t +s = et+s Escribamos el proceso ARMA, como un proceso de medias móviles de infinitos términos, mediante sustituciones sucesivas: Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q Yt = K+ εt +ψ 1εt-1 +ψ 2εt-2 +... Yt+s = K + εt+s + ψ 1εt+s-1 +ψ 2 εt+s-2 +...+ψ s-1 s-1 εt+s-s+1 +
∞
∑ ψ
ε
s + j t − j
j= 0
La predicción Yˆ t +s se puede basar únicamente en la información disponible hasta el período t. Escribimos la predicción como una suma ponderada de los términos de error que podemos estimar: Yˆ t +s = K +
∞
∑ ψ *
s + j
ε t − j , donde las ponderaciones ψ * se elegirán de manera que minimicen el
j= 0
Error Cuadrático Medio de predición.
et+s = εt+s + ψ 1εt+s-1 +ψ 2 εt+s-2 +...+ψ s-1 s-1 εt+1 +
∞
∑ (ψ
s + j
− ψ *s+ j )ε t − j
j= 0
El error cuadrático medio de predicción es E(e t+s)2 = (1 + ψ 21+ψ 22 +...+ψ 2s-1) σ2ε +
∞
∑ (ψ
s + j
− ψ *s+ j ) 2 σ ε2 , puesto que E(εiε j) = 0, para i ≠ j.
j= 0
El error cuadrático medio se minimiza cuando el último término es igual a cero, es decir si
ψ s + j = ψ *s+ j . Entonces el error de predicción se puede escribir: et+s = εt+s + ψ 1εt+s-1 +ψ 2 εt+s-2 +...+ψ s-1 s-1 εt+1 109
y teniendo en cuenta que E(en+s) = 0: Var (en+s) = E(en+s)2 = (1 + ψ 21+ψ 22 +...+ψ 2s-1) σ2ε El uso más importante de los errores de predicción es la construcción de intervalos de confianza para la predicción. El intervalo de predicción para el pronóstico de Y t+s es, al 95%: Yˆ t +s ± 1,96σ ε 1 + ψ 12 + ψ 22 + ... + ψ s2−1 El cálculo de los coeficientes
ψ se obtienen a partir de la siguiente relación:
φ(L)Yt = θ(L)εt ⇔Yt = φ-1(L)θ(L)εt = ψ (L) (L) εt, con ψ (L) (L) = 1 + ψ 1L+ψ 2 L2 +...⇒ ⇒ φ-1 (L)θ(L)εt = ψ (L) (L) ⇒ φ(L)ψ (L) (L) = θ(L)
Valoración de la capacidad predictiva de los modelos Podemos verificar si el modelo sigue siendo válido para los períodos de predicción, una vez se ha comprobado su validez para el periodo muestral, utilizando el siguiente estadístico: m
E* =
∑e
2
t + s +1 / t + s
s =0
σˆ ε2
Donde e 2 t + s +1 / t + s es el error de predicción de Yt+s+1 utilizando la información disponible en el momento t+s y σ2ε =
SCR , con k el número de parámetros parámetros del modelo. modelo. n−k
Este estadístico se distribuye asintóticamente como una chi-cuadrado con m grados de libertad, bajo la hipótesis nula de estabilidad estructural al pasar a los períodos de predicción. Si el valor calculado supera al tabulado, habrá diferencias significativas entre los verdaderos valores y los estimados, por lo que se rechazará la hipótesis nula de estabilidad.
110
2.4. MODELOS ESTACIONALES Las series temporales de datos económicos presentan generalmente características estacionales cuando se disponen de datos con frecuencia inferior al año, trimestral o mensualmente. Un ejemplo de serie temporal con una marcada componente estacional podría ser la venta de helados en verano. Cuando la serie es estacional, suelen aparecer relaciones entre los valores que se corresponden con periodos análogos dentro de cada año (mes a mes o trimestre a trimestre).
Modelos autorregresivos estacionales estacionales
Trabajando con datos mensuales, por ejemplo, Y t puede expresarse en función de Y t-12, el valor correspondiente al mismo mes del año anterior, de forma que: Yt = Φ1Yt-12 + εt Este es un proceso autorregresivo estacional de primer orden, para el que se utiliza la notación AR(1)12. En general, el proceso autorregresivo estacional de orden P, AR(P) s, donde s = 12 para datos mensuales, s = 4 para datos trimestrales, etc., viene definido: Yt = Φ1Yt-s+ Φ2Yt-2s + ...+ ΦPYt-Ps + εt Yt (1 - Φ1Ls - Φ2L2s -...- ΦPLPs) = εt Para este proceso las funciones de autocorrelación simple y parcial, se comportan como en el caso del modelo AR(p) pero a intervalos de s retardos, siendo cero en los retardos intermedios.
Modelos de medias móviles estacionales
El valor actual Yt se puede expresar en función de una perturbación actual y de otra correspondiente a s períodos anteriores (s =12 para datos mensuales): 111
Yt = εt - Θεt-s Yt sigue un proceso de medias móviles estacional de primer orden MA(1)s.
FAP de un modelo AR(1)s=4
FAS de un modelo AR(1)s=4
1
1
s e 0,5 t n e i 0 c i f e o -0,5 C
s e 0,5 t n e i 0 c i f e o -0,5 C
1
2
3
4
5
-1
6
7
8
1
3
5
7
9
1 1
-1
Retardo
Retardo
Figura 2.4.1. FAS y FAP de un modelo AR(1) 4
En general, un proceso de medias móviles estacional de orden Q, MA (Q)s, es el siguiente: Yt = εt - Θ1εt-s - Θ2εt-2s - ...- ΘQεt-Qs Yt = (1 - Θ1Ls- Θ2L2s -...- ΘQLQs) εt
La función de autocorrelación simple de un proceso de medias móviles estacional tiene el mismo comportamiento que la de un proceso de medias móviles no estacional. Así en un MA(1)4 presenta un solo valor distinto de cero, que corresponde con el desfase k = 4.
Modelos mixtos estacionales
Generalizando, podemos definir el proceso mixto ARMA (P,Q)s mediante: Yt = Φ1Yt-s + Φ2Yt-2s +...+ ΦPYt-Ps+ εt - Θ1εt-s - Θ2εt-2s - ... - ΘQεt -Qs
112
Proceso mixto estacional ARIMA (P,D,Q)s :
Además de la presencia de tendencia o de varianza, la estacionalidad constituye una fuente de no estacionariedad de la serie. El procedimiento que se suele utilizar para desestacionalizar las series es el de la diferenciación estacional. Si los datos son mensuales, la diferenciación estacional consiste en calcular una nueva variable: Zt = Yt – Yt-12 = (1-L12) Yt = ∆12 Yt Con datos trimestrales se calcularía: Zt = Yt – Yt-4 = (1-L4) Yt = ∆4Yt Si después de efectuar esta transformación, la serie sigue presentando evidencia de variaciones estacionales, es posible aplicar de nuevo el procedimiento, es decir, calcular las diferencias de segundo orden, y así sucesivamente. Una vez que a la serie original Yt se le aplica D veces el procedimiento de la diferenciación estacional y se obtiene una serie Zt que es estacionaria, entonces se puede aplicar a Zt cualquiera de los modelos estudiados para las series estacionarias. (1-Ls)DYt = Zt, con (1-Ls)D = ∆sD Yt sigue un proceso estacional ARIMA(P,D,Q) s si: Zt (1 - Φ1Ls - Φ2L2s-...- ΦPLPs) = (1- Θ1Ls - Θ2L2s - ...- ΘQLQs) εt Con Zt = (1-Ls)DYt
Modelo multiplicativo general:
En la realidad, los factores estacionales se sobreponen a los factores regulares, por lo que podemos encontrar series que vengan generadas por ambos tipos de procesos. Se puede formular un modelo mixto o multiplicativo, ARMA(p,q)× (P,Q)s: 113
φ(L) Φs(L)Yt= θ(L) Θs(L)εt Por ejemplo, un modelo estacional multiplicativo ARMA(1,0) A RMA(1,0)×(1,0)12, se escribiría: (1-φ1L)(1-Θ1L12)Yt = εt ⇔ Yt = φ1Yt-1 + Θ1Yt-12 - φ1Θ1Yt-13 + εt. El primer término de la derecha representa la componente autorregresiva regular de primer orden, el segundo término indica lo mismo para la componente autorregresiva estacional, y el tercer término permite la l a interacción entre ambas estructuras. Finalmente, si la tendencia está presente tanto en la componente regular como en la estacional, habrá que efectuar una doble diferenciación, una en cada parte. Así, todos los modelos estacionales pueden unirse en uno general denominado ARIMA estacional multiplicativo: ARIMA (p,d,q)×(P,D,Q)s.
φ(L)∆d Φs(L) ∆sD Yt = θ(L) Θs(L)εt (1-φ1L - φ2L2 - ...- φpLp) ∆d (1-Φ1Ls-Φ2L2s-...-ΦPLPs) ∆sD Yt = = (1 - θ1L - θ2L2 -...- θqLq)(1- Θ1Ls-Θ2L2s - ...- ΘQLQs) εt . La FAS de los modelos multiplicativos, de forma aproximada, se caracteriza porque en los retardos bajos, la única estructura que aparece es la de la parte ordinaria, en los retardos s, 2s, 3s... el único efecto importante es el de la parte estacional y en los retardos contiguos a múltiplos de s, se obtiene simétricamente la reproducción de la parte ordinaria tomando como referencia los valores de los retardos estacionales, es decir, recogen la interacción entre la parte ordinaria y la parte estacional.
FAS de un modelo ARMA(0,1)x(0,1)s=4 1 s e t n 0,5 e i 0 c i f e o -0,5 C
1
2
3
4
-1
FAS de un modelo ARMA(1,0)x(1,0)s=12
5
6
1 s e t n 0,5 e i 0 c i f e o -0,5 C
1
4
7
10
13
16
19
-1
Retardo
Retardo
Figura 2.4.2. FAS de modelos multiplicativos 114
Se puede construir el siguiente cuadro como resumen de los modelos estacionales multiplicativos, aunque para más detalles puede consultarse Vandale (1983):
Modelos
FAS
FAP
ARMA(p,0)×(P,0)s
Decaimiento exponencial o
Se anula para un retardo
sinusoidad o ambos
k>p+sP
Se anula para un retardo
Decrecimiento exponencial o
k>q+sQ
sinusoidal o ambos
ARMA(0,q)×(0,Q)s
115
116