COURS D'ÉCONOMÉTRIE Professeur Philippe Deschamps Edition ...

icon

258

pages

icon

Français

icon

Documents

Écrit par

Publié par

Le téléchargement nécessite un accès à la bibliothèque YouScribe Tout savoir sur nos offres

icon

258

pages

icon

Français

icon

Ebook

Le téléchargement nécessite un accès à la bibliothèque YouScribe Tout savoir sur nos offres

COURS D’ÉCONOMÉTRIE

Professeur Philippe Deschamps

Edition 2006-2007

Université de Fribourg
Séminaire d'Econométrie
Boulevard de Pérolles 90
CH-1700 Fribourg, Suisse

© Philippe Deschamps, 2006
i
TABLE DES MATIERES

Première partie: Quelques notions de base du calcul des probabilités et de l’analyse statistique.

I. Vecteurs aléatoires

1.1. Distribution jointe.
1.2. Densité jointe
1.3. Densité marginale
1.4. Densité conditionnelle
1.5. Indépendance
1.6. Covariance
1.7. Espérances conditionnelles et partielles
1.8. Application économique des espérances partielles (gestion de stock).

II. Fonctions de variables aléatoires.

2.1. Changement de variables (cas univarié).
2.2. Changement de variables (cas multivarié).
2.3. Fonction génératrice des moments.
2.4. Fonctions de variables normales (Chi-carré, Student, Fisher).

III. Estimation ponctuelle

3.1. Echantillon aléatoire, estimateur, estimation.
3.2. Fonction de vraisemblance.
3.3. Maximum de vraisemblance.

IV. Propriétés des estimateurs

4.1. Estimateur sans biais
4.2. Estimateur convergent.
4.3. Estimateur efficace.
4.4. Minimisation de l’erreur quadratique moyenne.
4.5. Interprétation des propriétés.

V. Tests d’hypothèses

5.1. Méthode des intervalles de confiance.
5.2. Méthode générale de construction des tests.
5.3. Le critère du rapport des ...
Voir icon arrow

Publié par

Nombre de lectures

3 274

Langue

Français

Poids de l'ouvrage

1 Mo

COURS D’ÉCONOMÉTRIE Professeur Philippe Deschamps Edition 2006-2007 Université de Fribourg Séminaire d'Econométrie Boulevard de Pérolles 90 CH-1700 Fribourg, Suisse © Philippe Deschamps, 2006 i TABLE DES MATIERES Première partie: Quelques notions de base du calcul des probabilités et de l’analyse statistique. I. Vecteurs aléatoires 1.1. Distribution jointe. 1.2. Densité jointe 1.3. Densité marginale 1.4. Densité conditionnelle 1.5. Indépendance 1.6. Covariance 1.7. Espérances conditionnelles et partielles 1.8. Application économique des espérances partielles (gestion de stock). II. Fonctions de variables aléatoires. 2.1. Changement de variables (cas univarié). 2.2. Changement de variables (cas multivarié). 2.3. Fonction génératrice des moments. 2.4. Fonctions de variables normales (Chi-carré, Student, Fisher). III. Estimation ponctuelle 3.1. Echantillon aléatoire, estimateur, estimation. 3.2. Fonction de vraisemblance. 3.3. Maximum de vraisemblance. IV. Propriétés des estimateurs 4.1. Estimateur sans biais 4.2. Estimateur convergent. 4.3. Estimateur efficace. 4.4. Minimisation de l’erreur quadratique moyenne. 4.5. Interprétation des propriétés. V. Tests d’hypothèses 5.1. Méthode des intervalles de confiance. 5.2. Méthode générale de construction des tests. 5.3. Le critère du rapport des vraisemblances (LR). 5.4. Le critère de Wald (W). 5.5. Le critère des multiplicateurs de Lagrange (LM). 5.6. Comparaison des trois critères LR, W, et LM. ii Seconde partie: Modèles économétriques à une équation I. La régression simple: estimation ponctuelle 1.1. Description du problème et exemples économiques 1.2. Le modèle et ses hypothèses 1.3. Les estimateurs de moindres carrés 1.4. Moments des estimateurs de moindres carrés 1.5. Convergence en probabilité 1.6. Interprétation matricielle 1.7. Théorème de Gauss-Markov 1.8. Estimation de la variance des erreurs 1.9. Décomposition de la variance: le coefficient de détermination 1.10. Exemple numérique II. La régression simple: intervalles de confiance et tests d’hypothèses 2.1. Tests sur les coefficients individuels 2.2. Test sur les deux paramètres a et b 2.3. Test sur une combinaison linéaire des coefficients 2.4. Prévision 2.5. Exemple numérique III: Compléments d’algèbre matricielle 3.1. Formes quadratiques 3.2. Matrice symétriques et idempotentes 3.3. L’inversion en forme partagée 3.4. Notions de dérivation matricielle IV. Compléments d’analyse statistique multivariée 4.1. La loi normale multivariée 4.2. Fonctions linéaires et quadratiques de variables normales 4.3. Application: calcul de la distribution sous H de la statistique t 0 V. Le modèle de régression multiple 5.1. Le modèle et ses hypothèses 5.2. Les estimateurs de moindres carrés 5.3. Moments des estimateurs de moindres carrés 5.4. Le théorème de Gauss-Markov 5.5. L’estimation de la variance des erreurs 2 25.6. Décomposition de la variance: les coefficients de détermination R et R * 5.7. Problèmes particuliers: multicolinéarité, biais de spécification, variables muettes iii 5.8. Estimateurs par maximum de vraisemblance 5.9. Exemple numérique VI. Moindres carrés sous contraintes linéaires 6.1. L’estimateur de β sous contraintes 6.2. Efficacité de l’estimateur de β sous contraintes 6.3. Décomposition de la somme des carrés des résidus contraints VII. Inférence statistique en régression classique 7.1. Le test de l’hypothèse linéaire générale 7.2. Dérivation de la statistique F à l’aide du critère du rapport des vraisemblances 7.3. Calcul de la distribution sous H de la statistique F 0 7.4. Dérivation de la statistique F à l’aide du critère de Wald 7.5. Dérivation de la statistique F à l’aide du critère des multiplicateurs de Lagrange 7.6. Cas particulier du test de l’hypothèse linéaire générale 7.6.1. Test sur un coefficient individuel 27.6.2. Test de nullité de tous les coefficients; lien avec R * 27.6.3. Test de nullité de tous les coefficients sauf la constante; lien avec R 7.6.4. Test sur une combinaison linéaire des coefficients 7.6.5. Tests de stabilité structurelle (Chow) 7.7. Intervalles de prévision 7.8. Exemple numérique VIII. Moindres carrés généralisés: la méthode de Aitken 8.1. Introduction 8.2. Exemples 8.3. L’estimateur de Aitken et ses propriétés 8.4. La prévision dans le modèle de Aitken IX. L’autocorrélation et l’hétéroscédasticité 9.1. Erreurs autorégressives d’ordre un 9.2. La matrice de covariance des erreurs 9.3. Transformation des données ( ρ connu) 9.4. Estimation du coefficient d’autorégression 9.5. La statistique de Durbin-Watson 9.6. La prévision dans le modèle à erreurs autorégressives 9.7. Le problème de l’hétéroscédasticité 9.8. Les tests de diagnostic 9.8.1. Analyse des autocorrélations iv 9.8.2. Le test de Breusch-Godfrey (autocorrélation) 9.8.3. Le test de Koenker (hétéroscédasticité) 9.8.4. Le test de Bera-Jarque (normalité) 9.9. Exemple numérique 9.10. Introduction aux méthodes semi-paramétriques X. Eléments de théorie statistique asymptotique 10.1. Introduction 10.2. Convergence en probabilité 10.3. Inégalité de Chebychev 10.4. Loi faible des grands nombres 10.5. Convergence en distribution 10.6. Propriétés des modes de convergence 10.7. Fonction caractéristique et convergence en distribution 10.8. Versions du théorème central limite 10.9. L’inégalité de Rao-Cramer 10.10. La matrice d’information 10.11. Propriétés asymptotiques des estimateurs par maximum de la vraisemblance 10.12. Distribution asymptotique du rapport des vraisemblances 10.13. Exemple d’application dans un modèle à erreurs autorégressives: distributions limites des estimateurs par maximum de la vraisemblance et de la statistique d’autocorrélation par le rapport des vraisemblances XI. Propriétés asymptotiques des estimateurs par moindres carrés ordinaires 11.1. Convergence en probabilité 11.2. Normalité asymptotique XII. Propriétés asymptotiques des estimateurs d’Aitken XIII. Régresseurs stochastiques 13.1. Introduction: types de régresseurs stochastiques 13.2. Régresseurs stochastiques indépendants du vecteur des erreurs 13.3. Régresseurs stochastiques dépendants des erreurs contemporaines 13.3.1. La méthode des variables instrumentales (VI) 13.3.2. Convergence en probabilité des estimateurs VI 13.3.3. Convergence en distribution des estimateurs VI 13.3.4. Choix des variables instrumentales. XIV. Introduction aux modèles dynamiques 14.1. Retards échelonnés 14.2. Méthode de Koyck v 14.3. Méthode d’Almon 14.4. L’opérateur de retard 14.5. Résolution d’équations linéaires de récurrence stochastiques 14.6. La distribution rationnelle des retards 14.7. Variables endogènes retardées XV. Le modèle autorégressif à retards échelonnés (AD) 15.1. Présentation du modèle 15.2. Restrictions de facteurs communs 15.3. Le modèle AD et la relation d’équilibre stationnaire 15.4. Le modèle AD et le modèle de correction d’erreur (ECM) 15.5. Exemple économique XVI. Racines unitaires et cointégration 16.1. Processus stochastiques 16.2. Stationnarité faible 16.3. Processus stochastiques intégrés 16.4. Le test de Dickey-Fuller augmenté 16.5. Variables cointégrées 16.6. Régressions de cointégration 16.7. Régressions factices 16.8. Conclusions Troisième partie: systèmes d’équations simultanées I. Introduction 1.1. Explication intuitive du biais dû à la simultanéité 1.2. Variables endogènes et prédéterminées 1.3. Présentation matricielle et hypothèses 1.4. Forme structurelle et forme réduite 1.5. Propriétés statistiques de la forme réduite 1.6. Interprétation économique de la forme réduite 1.7. Forme réduite dynamique, forme finale, multiplicateurs 1.8. Relation entre la forme réduite dynamique et le modèle AD de la deuxième partie (chap. XV) II. Le problème de l’identification 2.1. Structures observationnellement équivalentes 2.2. Systèmes récursifs 2.3. La condition de rang vi 2.4. La condition d’ordre 2.5. Exemple III. Méthodes d’estimation à information limitée de la forme structurelle 3.1. Introduction 3.2. Moindres carrés indirects 3.2.1. Présentation de la méthode 3.2.2. Limitations 3.3. Moindres carrés doubles 3.3.1. Notation 3.3.2. Premier exemple d’application 3.3.3. Présentation heuristique générale 3.3.4. Justification par les variables instrumentales 3.3.5. Distribution asymptotique 3.3.6. Exemple numérique 3.4. L’estimateur de classe k IV. Méthodes d’estimation à information complète de la forme structurelle 4.1. Le produit de Kronecker et certaines de ses propriétés 4.2. L’opérateur de vectorisation et certaines de ses propriétés 4.3. Premier exemple d’application de l’opérateur de vectorisation: moindres carrés généralisés et forme réduite 4.4. Moindres carrés triples 4.4.1. Présentation heuristique 4.4.2. Justification par les variables instrumentales 4.4.3. Comparaison avec les moindres carrés doubles 4.4.4. Distribution asymptotique 4.4.5. Exemple numérique 4.5. Maximum de vraisemblance à information complète 4.5.1. La vraisemblance logarithmique 4.5.2. Les conditions de premier ordre du maximum de vraisemblance. V. Analyse statistique de la forme réduite (régression multivariée) 5.1. Estimation par maximum de vraisemblance des paramètres de la forme réduite 5.2. Tests d’hypothèses jointes sur les coefficients par le rapport des vraisemblances 5.3 . Forme réduite dérivée VI. Comparaison des moindres carrés triples et du maximum de vraisemblance à information complète 6.1. Reformulation des équations normales des moindres carrés triples vii 6.2. Reformulation des conditions de premier ordre du maximum de vraisemblan
Voir icon more
Alternate Text