Le modèle de régression linéaire multiple

 

Problème : estimer les paramètres du modèle     yi=b1x1i  + b2x2i + b3x3i +....bKxKi +ei
            

avec:
i = 1,...N,  N étant le nombre d'observations
yi : la variables expliquée  (variable endogène)
xki : les variables explicatives (variables exogènes) k = 1,...K

ei : un aléa

Sous forme matricielle lorsque le modèle comporte une constante, par exemple si x1i prend la valeur 1 quelque soit i=1,...N, le modèle s'écrit:

                  

               


    Hypothèses :
           -
  les variables xki sont supposées non aléatoire
         -  lorsque N tend vers l'infini l la matrice X'X/N est supposée être égale à une matrice définie positive (X' représente la transposée de la matrice)
         -
ei est une variable aléatoire
         - E(
ei)=0 ce qui implique que : E(yi)=b1x1i  + b2x2i + b3x3i +....bKxKi
          -
Var(ei)=s2  , les aléas sont homoscédastiques (la variance est constante) d'où Var(yi)=s2
          -
Cov(ei,ej)=0 avec i différent de j, les aléas ne sont pas autocorrélés d'où Cov(yi,yj)=0

  

La méthode des MCO consiste à minimiser la somme des carrés des aléas

           

A partir des conditions du premier ordre on obtient les paramètres estimés :

 

Les estimateurs des MCO sont BLUE (Best Linear Unbiaised Estimator) et convergents :

F Ils peuvent s'écrire sous la forme d'une combinaison linéaire des observations yi

C Ils sont non biaisé :

F Parmi les estimateurs non biaisés, leur variance est  la plus faible (ils sont efficaces). La matrice de variance covariance des paramètres estimés s’écrit :

                       

F L'estimateur des MCO converge en probabilité vers la  valeur des paramètres B c’est-à-dire que .

Sous l'hypothèse de normalité des aléas, les estimateurs des MCO sont des estimateurs du maximum de vraisemblance.

Soit f la fonction de densité de la loi normale, le logarithme de la fonction de vraisemblance s’écrit :

                                   

 La méthode du maximum de vraisemblance conduit à choisir les estimateurs de B tels que la fonction LogL est maximale ou bien tels que la somme des carrés des aléas est minimisée.

      

 La droite de régression de l’échantillon est donnée par   et l’écart entre les valeurs observées et les valeurs estimées de y est appelé le résidu. La série des résidus (notée e) a une moyenne nulle et on montre que la variance de y est la somme de la variance de  et de la variance des résidus :

                           

La qualité de l’ajustement est mesurée par le coefficient de détermination (R2) donné par le rapport entre la variance de  et la variance de y. Ce coefficient est compris entre 0 et 1. Une valeur proche de 1 indique que la qualité de l’ajustement est bonne.

 

Un R2 égal a 0,9 signifie que 90% des variations de la variable endogène sont expliquées par le modèle.

Le coefficient de détermination augmente de manière systématique avec le nombre de variables explicatives et pour comparer la qualité d’ajustement entre deux modèles on utilise le coefficient de détermination ajusté :

   

  • Inférence statistique                                                                

L'estimateur des MCO est distribué selon un loi normale, son  espérance est égale à la vrai valeur des paramètres B et sa matrice de variance covariance est égale à s2(X'X)-1. . Cependant afin d’effectuer des tests statistiques il faut estimer la variance des aléas. Un estimateur non biaisé de  est donné par la somme des carrés des résidus divisée par le nombre d’observations moins le nombre de paramètres estimés :

 

et la distribution statistique de la variance estimée des aléas est une loi du Chi-deux :

Ainsi il est possible d’estimer la matrice de variance des paramètres :, sur la diagonale de la matrice on peut lire la variance estimée des paramètres notée .

La distribution de la statistique   est  alors une distribution de Student avec un degré de liberté égal au nombre d’observations moins le nombre de paramètres estimés car cette statistique est le rapport d'une statistique distribuée selon une loi normale et d'une statistique dont le carré est distribué selon une loi du Chi-deux.

Le test de significativité des paramètres consiste alors à tester l’hypothèse nulle d’égalité à 0 de chaque paramètre successivement . L’hypothèse est acceptée lorsque la valeur du paramètre estimé rapportée à son écart-type est inférieure en valeur absolue à la statistique de student pour un seuil de risque donné a égal à 5% le plus souvent :


   

  • La prévision                                                                           

C  Pour donner un intervalle de confiance de la prévision de la variable y, pour une valeur x0 de x donnée, il faut déterminer l'espérance et  la variance de l’erreur de prévision notée e0 ,avec x0 le vecteur des observations à la période t=0.

L’espérance de l’erreur de prévision est nulle et sa variance est donnée par :

La statistique  est par conséquent distribuée selon une loi normale d’espérance nulle et de variance égale à celle de l’erreur de prévision. La variance des aléas étant estimée par  l’intervalle de confiance de y sachant que la variable x est égale à x0 s’écrit pour un niveau de risque a:

           

 

avec :        

 

C On peut également donner un intervalle de confiance de E(y/x=x0). Dans ce cas, la statistique  est distribuée selon une loi normale d’espérance nulle et de variance            

                   

l’intervalle de confiance de E(y/x=x0),  pour un niveau de risque a, est donné par :

                   

avec :