Un processus AR(2)
On peut construire un processus AR(2) asymptotiquement stationnaire en composant deux processus AR(1) asymptotiquement stationnaires. Soit \((X_t, t\in\mathbb Z)\) un processus AR(1) défini par :
\[ X_t = \rho_1 X_{t-1} + \varepsilon_t \]
avec l'innovation \(\varepsilon_t\) un bruit blanc centré de variance \(\sigma_{\varepsilon}^2\) et \(|\rho_1|<1\). De façon équivalente, en inversant le polynôme retard1, on a :
\[ X_t = (1-\rho_1L)^{-1}\varepsilon_t \]
On définit le processus \((Y_t, t\in\mathbb Z)\) de la façon suivante :
\[ Y_t = \rho_2 Y_{t-1} + X_t \]
avec \(|\rho_2|<1\). On montre facilement que ce processus est un processus AR(2) asymptotiquement stationnaire. On a :
\[ (1-\rho_2 L) Y_t = X_t \]
soit, en substituant la définition de \(X_t\) (obtenue en inversant le polynôme retard \(1-\rho_1 L\)) :
\[ (1-\rho_2 L) Y_t = (1-\rho_1 L)^{-1} \varepsilon_t \]
En multipliant par \(1-\rho_1 L\), il vient :
\[ (1-\rho_1 L)(1-\rho_2 L) Y_t = \varepsilon_t \]
\[ \Leftrightarrow\left((1-(\rho_1+\rho_2) L+\rho_1\rho_2 L^2\right) Y_t = \varepsilon_t \]
\[ \Leftrightarrow Y_t = (\rho_1+\rho_2)Y_{t-1} - \rho_1\rho_2 Y_{t-2} \varepsilon_t \]
Il s'agit bien d'un AR(2) et les racines du polynôme retard (\(1/\rho_1\) et \(1/\rho_2\)) sont bien plus grandes que 1 en valeur absolue. Notons qu'il n'est pas toujours possible d'écrire un AR(2) comme la composition de deux AR(1) réels, tout simplement parce que les racines du polynôme retard ne sont pas toujours réelles et il faudrait donc composer des AR(1) complexes.
1ère approche de la représentation MA(\(\infty\))
On peut obtenir la représentation MA(\(\infty\)) en inversant les polynômes retard \(1-\rho_2 L\) et \(1-\rho_1 L\) :
\[ (1-\rho_2 L) Y_t = \sum_{i=0}^{\infty} \rho_1^i\varepsilon_{t-i} \]
\[ \Leftrightarrow Y_t = \sum_{j=0}^{\infty}\rho_2^j L^j \sum_{i=0}^{\infty} \rho_1^i\varepsilon_{t-i} \]
\[ \Leftrightarrow Y_t = \sum_{j=0}^{\infty}\sum_{i=0}^{\infty} \rho_2^j\rho_1^i\varepsilon_{t-i-j} \]
\[ \Leftrightarrow Y_t = \sum_{k=0}^{\infty}\left(\sum_{i=0}^{k} \rho_1^i\rho_2^{k-i}\right)\varepsilon_{t-k} \]
L'intérêt de cette écriture est que l'on voit clairement comment les coefficients moyenne mobile :
\[ \theta_k = \sum_{i=0}^{k} \rho_1^i\rho_2^{k-i} \]
dépendent de (l'inverse) des racines du polynôme retard, c'est à dire des racines du polynôme caractéristique associé à l'AR(2). Ces paramètres tendent vers 0 quand \(k\) tend vers l'infini. On peut montrer que la suite \((\theta_k)_{k\in\mathbb N}\) est absolument sommable. En effet :
\begin{eqnarray*} \sum_{k=0}^{\infty} |\theta_k| &=& \sum_{k=0}^{\infty} \left|\sum_{i=0}^{k} \rho_1^i\rho_2^{k-i}\right|\\ &=& \sum_{k=0}^{\infty} \left|\rho_2^k\frac{1-\left(\frac{\rho_1}{\rho_2}\right)^{k+1}}{1-\frac{\rho_1}{\rho_2}}\right|\\ &=& \sum_{k=0}^{\infty} \left|\frac{\rho_2^k-\frac{\rho_1}{\rho_2}\rho_1^k}{1-\frac{\rho_1}{\rho_2}}\right|\\ &=& \left|\frac{\rho_2}{\rho_2-\rho_1}\right|\sum_{k=0}^{\infty} \left|\rho_2^k-\frac{\rho_1}{\rho_2}\rho_1^k\right|\\ &\leq& \left|\frac{\rho_2}{\rho_2-\rho_1}\right|\sum_{k=0}^{\infty} \left(\left|\rho_2\right|^k+\left|\frac{\rho_1}{\rho_2}\right|\left|\rho_1\right|^k\right)<\infty \end{eqnarray*}puisque les coefficients autorégressifs \(\rho_1\) et \(\rho_2\) sont strictement inférieurs à un en valeur absolue.
2nd approche de la représentation MA(\(\infty\))
En pratique, on n'utilise pas cette définition des coefficients moyenne mobile \((\theta_k)_{k\in\mathbb N}\) mais une définiton récursive. Pour cela on inverse directement le polynôme retard \(\Phi(L) = 1-(\rho_1+\rho_2)L + \rho_1\rho_2L^2\). Son inverse est un polynôme retard de la forme \(\Theta(L) = \sum_{i=0}^{\infty}\theta_iL^i\) tel que :
\[ \Phi(L)\Theta(L) = 1 \]
c'est-à-dire tel que :
\[ \left(1-(\rho_1+\rho_2)L + \rho_1\rho_2L^2\right)\left(\sum_{i=0}^{\infty}\theta_iL^i\right) = 1 \]
ou encore :
\[ \sum_{i=0}^{\infty}\theta_iL^i-(\rho_1+\rho_2)\sum_{i=0}^{\infty}\theta_iL^{i+1} + \rho_1\rho_2\sum_{i=0}^{\infty}\theta_iL^{i+2} = 1 \]
\[ \Leftrightarrow \theta_0 + \Bigl(\theta_1-(\rho_1+\rho_2)\theta_0\Bigr) L + \Bigl(\theta_2 -(\rho_1+\rho_2)\theta_1+\rho_1\rho_2\theta_0\Bigr) L^2 + \sum_{i=3}^{\infty}\Bigl(\theta_i-(\rho_1+\rho_2)\theta_{i-1}+\rho_1\rho_2\theta_{i-2}\Bigr) L^i= 1 \]
Par identification2, on obtient le système suivant :
\begin{cases} \theta_0 &= 1\\ \theta_1 - (\rho_1+\rho_2)\theta_0 &= 0\\ \theta_2 - (\rho_1+\rho_2)\theta_1 + \rho_1\rho_2 \theta_0 &= 0\\ &\vdots\\ \theta_k - (\rho_1+\rho_2)\theta_{k-1} + \rho_1\rho_2 \theta_{k-2} &= 0\\ &\vdots \end{cases}et donc :
\begin{cases} \theta_0 &= 1\\ \theta_1 &= (\rho_1+\rho_2)\theta_0\\ \theta_2 &= (\rho_1+\rho_2)\theta_1 - \rho_1\rho_2 \theta_0\\ &\vdots\\ \theta_k &= (\rho_1+\rho_2)\theta_{k-1} - \rho_1\rho_2 \theta_{k-2}\\ &\vdots \end{cases}On note que la définition récursive du coefficient moyenne mobile ressemble beaucoup à la définiton récursive de la fonction d'autocovariance de l'AR(2). Il est bien sûr possible de retrouver un terme général pour \(\theta_k\) à partir de l'équation récurrente pour le coefficient moyenne mobile, afin de comparer cette expression récursive avec le résultat que nous avions obtenu plus haut. On sait que les racines du polynôme caractéristiques \(\chi(z) = z^2-(\rho_1+\rho_2)z + \rho_1\rho_2\) sont \(\rho_1\) et \(\rho_2\). La solution générale3, on suppose que les deux racines sont différentes4, est donc de la forme :
\[ \theta_k = \alpha \rho_1^k + \beta \rho_2^k \]
Nous pouvons alors identifier les constantes \(\alpha\) et \(\beta\) à l'aide des conditions initiales de la récurrence, que \(\theta_0=1\) et \(\theta_1=\rho_1+\rho_2\). Nous devons donc avoir :
\begin{cases} \alpha+\beta &= 1\\ \alpha\rho_1+\beta\rho_2 &= \rho_1+\rho_2 \end{cases}ainsi, en substituant la première équation dans la seconde :
\[ \alpha\rho_1+(1-\alpha)\rho_2 = \rho_1+\rho_2 \]
\[ \Leftrightarrow \alpha(\rho_1-\rho_2)+\rho_2 = \rho_1+\rho_2 \]
\[ \Leftrightarrow \alpha = \frac{\rho_1}{\rho_1-\rho_2} \]
et donc
\[ \beta = -\frac{\rho_2}{\rho_1-\rho_2} \]
Finalement, on obtient :
\[ \theta_k = \frac{\rho_1}{\rho_1-\rho_2} \rho_1^k - \frac{\rho_2}{\rho_1-\rho_2} \rho_2^k \]
On vérifie que cela correspond bien à l'expression donnée plus haut :
\begin{eqnarray*} \theta_k &=& \sum_{i=0}^{k} \rho_1^i\rho_2^{k-i}\\ &=& \rho_2^k \sum_{i=0}^{k} \left(\frac{\rho_1}{\rho_2}\right)^i\\ &=& \rho_2^k \frac{1-\left(\frac{\rho_1}{\rho_2}\right)^{k+1}}{1-\frac{\rho_1}{\rho_2}}\\ &=& \frac{\rho_2}{\rho_2-\rho_1}\left(\rho_2^k - \frac{\rho_1}{\rho_2}\rho_1^k\right)\\ &=& \frac{\rho_2}{\rho_1-\rho_2}\left(\frac{\rho_1}{\rho_2}\rho_1^k - \rho_2^k\right)\\ &=& \frac{\rho_1}{\rho_1-\rho_2} \rho_1^k - \frac{\rho_2}{\rho_1-\rho_2} \rho_2^k \end{eqnarray*}
Notes de bas de page:
On peut inverser ce polynome retard car le coefficient autorégressif est différent de 1.
Les coefficients associés aux puissances positives de \(L\) doivent être nuls.
Voir le chapitre 18 dans « Cours de mathématiques pour économistes » de Philippe Michel, édité chez Economica (1989).
Que devient la solution si \(\rho_1=\rho_2\) ?