Approche méthodologiques au cours d'introduction à la microéconomie

De Baripedia


Languages

Causalité ou corrélation ? L'approche statistique[modifier | modifier le wikicode]

Quand on analyse des données il y a un certain nombre de pièges qui peuvent influencer l’analyse des économistes.

À partir des années 1930 on a développé tout une série de méthode afin d’éviter de tomber dans un certain nombre de pièges.

L’idée est d’avoir un pouvoir de prédiction afin d’anticiper les réactions (ex- influence d’une intervention de l’État sur la modalité de l’aide au chômage).

Le but final est de chercher une relation de causalité. Cela prend le nom d’identification, on définit un mécanisme de causalité.

L’économie se base sur l’analyse des données toujours en fonction d’un modèle théorique (quel mécanisme peut-on mettre en évidence ?). L’analyse quantitative (approche empirique) n’est jamais détachée du modèle théorique.

Le problème de l'identification[modifier | modifier le wikicode]

On peut interpréter une simple corrélation comme un mécanisme de causalité.

  • covariation

On collecte des données sur une variable X (bikini) et Y (glace):

    • on peut voir une corrélation entre ces deux variable est que la variable X cause la variable Y. On voit juste une corrélation. On admet qu’il y a une corrélation positive
    • il peut y avoir covariation invisible du a une information additionnelle qui influence simultanément les variables X et Y.

La seul chose mise en évidence est une corrélation est non une covariation, c’est un piège assez fréquent.

  • direction de la causalité

Plus un pays est en difficulté plus un pays reçoit d’aide du FMI (FondMonétaire International). Le fait que le pays se trouve en situation de difficulté fait que ses aides sont plus élevé. On a donc une corrélation inverse.

Le risque est de donner une mauvaise direction à la causalité par une mauvaise interprétation d’une variable

Pour éviter ces pièges on a développé un certain nombre de mécanisme.

L’économie en particulier porte une attention à l’identification de ce mécanisme de causalité ainsi qu’à l’identification des analyses quantitatives.

Cowles a réuni les économistes les plus importants de son époque à travers une commission afin de développer afin de faire une analyse quantitative qui n’était pas influencée par un jugement de valeur (idéologie, opinion, etc.)

L’idée était de développer toute une série d’instruments pour surmonter ces problèmes d’identification de causalité ou d’une direction de causalité qui n’est pas forcement la bonne.

Typiquement si on veut analyser l’impact sur le chômage d’une augmentation du salaire, ce phénomène on peut l’analyser une fois, on ne peut répéter l’expérience pour voir ce qui se serait passé s’il n’y avait pas eu une augmentation du salaire.

Pour pouvoir identifier directement un groupe de causalité il faudrait faire l’analyse sur un groupe de contrôle en regardant qu’elle est l’effet sur un autre groupe qui n’aurait pas été soumis au même traitement.

On développe des techniques empiriques qui permettent de faire des expériences qui se rapprochent à celles faites dans d’autres disciplines.

1ere étape - traiter et simplifier les données : on obtient toute une série d’observation que l’on ne sait pas nécessairement faire parler. Il faut simplifier est résumer les N observations dans une droit de régression.

Ce processus qui permet de résumer ces N informations qui viennent de la collecte des données qui viennent d’un espace bidimensionnelle est un processus que l’on appelle la méthode des moindres carrés.

Nuage... de points[modifier | modifier le wikicode]

On récolte N informations. On chercher un droit qui passe par le milieu de ces points. Toutes ces informations sont résumés dans les paramètres a et b qui définit la position de la droit ainsi que la pente.

On peut s’attendre à ce qu’il y ait une relation entre ces deux variables. On a collecté ces données en fonction des différents pays que l’on traduit graphiquement :

1er étape : on résume les N observation, dès que l’on connaît la pente et l’intercepte de cette droite on peut déterminer les relations de l’abscisse et de l’ordonnée.

On veut estimer une droite qui aura une forme de ce type :

Grâce à ces deux paramètres on peut en déduire le niveau de stress. La difficulté réside en trouver une droite qui résume au mieux la corrélation. Il faut trouver une méthode qui permet de déterminer une droite qui estime correctement les informations collectées.

La droite de régression et la technique des moindres carrés[modifier | modifier le wikicode]

L’analyse des moindres carrés résume de manière significative toutes les informations à disposition. La manière de trouver les paramètres a et b est de minimiser toutes les distances au carré entre les points d’observation et la valeur correspondante lu sur la droite.

Micro droite de régression et la technique des moindres carrés 1.png

C’est tel que la somme des distances entre les N2 et la droite de régression soit minimale. Cependant cette méthode assure une marge d’erreur minimisée.

On peut très bien imaginer un mécanisme qui va du stress au chômage. Le piège est dépenser qu’une fois l’estimation faite un certain niveau de chômage provoque un certain niveau de stress. La relation peut très bien être inverse.

Cela met en évidence une simple corrélation.

Cette méthode va permettre de trouver la droite. C’est le fait de minimiser la sommes des observations qui par cette procédure va permettre de trouver les paramètres a et b et de déterminer la droite de régression.

Micro droite de régression et la technique des moindres carrés 2.png

Généralisation[modifier | modifier le wikicode]

Cette méthode peut être généralisée afin d’estimer un paramètre qui va résumer ces trois variables dans une simple équation linéaire.

Micro méthodologie généralisation 1.png

Cela relève d’une simple corrélation entre les variables étudiées. Il faudrait voir si cette simple corrélation serait un mécanisme de causalité.

À la recherche de la causalité: les diverses techniques[modifier | modifier le wikicode]

Difficultés : la causalité inverse[modifier | modifier le wikicode]

Il existe différentes théories dans l’économie :

  • théorie du capital humain : Plus on acquérir de connaissance plus le salaire sera élevé – on construit un capital humain en augmentant sa propre productivité. La relation causale va des qualifications vers le revenu
  • théorie du signal : les talents des travailleurs est une variable que l’employeur ne peut directement observer. On peut observer le résultat mais directement le talent. Alors les travailleurs vont étudier une année supplémentaire pour signaler son talent supérieur.

Le sens de causalité est inverse : le talent qu’on ne peut pas observer directement fait étudier plus et donc augmenter le salaire.

Micro causalité inverse 1.png

Ici la simple analyse des données ne permet pas d’identifier le mécanisme. On doit développer d’autres méthodes notamment qualitatives pour déterminer la faction qui engendre une augmentation du salaire.

Par exemple, il y a un pourcentage élevé de décès qui se vérifie quand une personne est allongée dans son lit. Le fait d’être allongé dans son lit n’est pas un déterminant unique. L’état de santé de l’individu rentre aussi en jeu.

Le « contrefactuel »[modifier | modifier le wikicode]

L’idée est d’arriver à identifier un mécanisme de causalité. On cherche par exemple à déterminer l’effet d’une augmentation du salaire minimum le taux de chômage. En d’autre terme le contrefactuel indique quelle est la variation de Y (variable indépendance) si X (variable dépendant) n’avait pas varié

Théoriquement, il faudrait faire deux expériences :

  • prendre une certaine région est pratiqué l’augmentation du salaire minimum puis regarder la conséquence sur le taux de chômage
  • Inversement on s’intéresse à l’évolution du taux de chômage sans variation du salaire minimum

La différence va nous permettre d’attribuer l’impact sur le taux de chômage après l’introduction du salaire minimum. Cependant on ne peut réévaluer la situation économique par le processus inverse afin d’observer la variation.

Il faut développer des analyses qui permettent de se rapprocher du contrefactuel. Ces méthodes se font en employant différentes méthodologies.

La technique des expériences contrôlées[modifier | modifier le wikicode]

On crée artificiellement et de manière aléatoire des « groupes de traitement » dans l’un ou on va modifier la variable et un « groupe de contrôle » dans lequel on ne change rien. Ensuite on compare à terme les résultats, c’est-à-dire l’effet de la variable X sur la variable Y.

On cherche des groupes similaires afin d’isoler la variable unique étant donné tout le reste ; ainsi les deux groupes sont théoriquement identiques. Dans ce cas le groupe de contrôle crée le contrefactuel qui permet de coir l’impact de la mesure par différence sur le groupe de traitement

Donc, l’idée est de distinguer les deux groupes seulement par la valeur modifiée tout en s’employant à avoir deux groupes les plus similaires possible.

Il y a cependant des difficultés éthiques avec l’expérimentation. D’autre part si on travaille avec des volontaires, est que ceux-ci ne constitueront pas un échantillon représentatif de la population : ils seront un échantillon particulier et surtout auto-sélectionné. De plus ceux choisissent faire partie de l’expérimentation sont sans doute ceux qui en bénéficient le plus.

Exemple :

Quand on s’intéresse au lien entre le salaire et le taux d’emplois on observe que lorsqu’on offre un salaire faible on diminue l’incitation des individus à se mettre sur le marché du travail. Cette personne aura un coût d’opportunité élevé (baby-sitter, coûts de transport, etc.).

Pour il faut évaluer l’impact d’une étude faite dans deux provinces du Canada en créant un « groupe de traitement » et un « groupe de contrôle ».

  • groupe de traitement : introduction d’une incitation salariale
  • groupe de contrôle : aucune incitation

On a observé un taux d’incitation plus élevé dans le groupe de traitement que dans le groupe de contrôle.

Cependant, d’autres facteurs peuvent influencer le résultat ; pour pouvoir identifier un mécanisme de causalité il faut isoler la variable du reste d’ou la création du groupe du contrôle.

Micro technique des expériences contrôlées 1.png

On a remarqué que ces deux groupes avaient presque le même comportement économique. Les individus qui constituent ces groupes sont en moyenne très similaires.

Après introduction de l’incitation le taux de participation du groupe de traitement augmente de manière considérable. On peut dire que durant les premiers mois la politique d’intégration salariale a eu un impact impressionnant et il est possible d’affirmer que c’est la mesure d’incitation qui a influencée uniquement cette expansion, ce qui a permis d’isoler le mécanisme de causalité.

Par contre on constate que les comportements se resserrent finalement. On utilise une astuce par l’analyse quantitative qui permet d’isoler l’impact d’une certaine variable sur une autre.

Ces méthodes posent des problèmes éthiques parce qu’il s’agit d’expériences parlantes faites directement sur des individus.

La technique des expériences naturelles[modifier | modifier le wikicode]

Il y a un choc externe qui va provoquer une séparation nette entre deux groupes à savoir le groupe de contrôle et le groupe de traitement. L’idée est de faire une comparaison par rapport à la situation initiale pour pouvoir isoler l’impact du choc sur le groupe de traitement.

Exemple :

Concernant le taux de chômage il y a deux théories alternatives, ce sont les théories keynésiennes basés sur une incitation à la production afin de relancer la production et intensifier la demande de travail, et les théories néoclassiques qui pensent que si on augmente le salaire minimum alors on provoque un taux de chômage plus élevé.

En 1992 aux Etats-Unis on a augmenté le salaire minimum dans un État passant de 4.5$ à 4.95%. Dans un État limitrophe la hausse n’a pas été observée. On a donc deux groupes de contrôles. En faisant une comparaison du taux de chômage on peut isoler l’impact de l’augmentation du salaire minimum sur le chômage. On sait qu’on est confronté au même type de travailleur, seul l’introduction d’un salaire plus élevé différencie les deux États.

Dans la restauration l’augmentation du salaire a un impact effectif sur les travailleurs.

Micro technique des expériences naturelles 1.png

Juste après l’augmentation du salaire minimum, au New Jersey il a eu d’abord une augmentation du taux d’occupation, puis une stabilisation. C’est seulement 4 années plus tard que le taux d’emploi augmente dans le groupe de contrôle à savoir la Pennsylvanie :

Les explications :

  • en 1992, on est en période de crise ce qui fait que les entreprises gardent leurs salaires parce que cela coute cher de les former
  • concernant les établissements de restauration, ces entreprises vont se placer là ou les coûts sont les plus faibles
  • après quelque années c’est en Pennsylvanie que le taux d’occupation est le plus élevé parce que le salaire et plus faible

La technique de l'utilisation des discontinuités[modifier | modifier le wikicode]

On profite d’une discontinuité, c’est-à-dire d’une différence entre deux groupes soit une variable qui permet de distinguer deux groupes afin de pouvoir analyser les différences de comportement entre le groupe de traitement et le groupe de contrôle. Grâce à la valeur critique on définit les groupes de traitement et les groupes de contrôle

Exemple :

Plus la taille des classes est critique plus l’élève pourrait profiter de l’enseignement et avoir une performance aux examens qui est meilleurs.

Dans ce cas on ne peut se limiter à de simples comparaisons entre des classes avec peu d’élèves. Il y a ici une distorsion en fonction de l’origine sociale de l’enfant.

Pour pouvoir isoler l’impact de la taille de la classe deux chercheurs on étudier le cas des écoles israéliennes. Dans la culture juive on limite la taille de la classe afin de ne jamais dépasser 40 élèves.

On a un groupe de traitement qui sont les élèves dans les écoles avec un effectif de maximum 40 élèves. Ensuite on compare ces élèves avec d’autres écoles qui ont des effectifs supérieur à 40 personnes.

Micro technique de l'utilisation des discontinuités 1.png

Il est possible de remarquer que les performances dans le test de lecture baissent si la taille de la classe augmente.

La seule différence entre les élèves concerne donc la taille de la classe. On a isolé un mécanisme de causalité qui permet de rendre compte de l’impact effectif de la dimension de la classe sur le test de lecture.

Les méthodes instrumentales[modifier | modifier le wikicode]

Cette méthode consiste à isoler les variables dites « instrumentales ». Elle est utile si on est dans une situation de variable manquante, si on veut savoir si X à une incidence sur Y ou si une troisième variable Z peut influencer simultanément les deux variables précédentes.

On cherche une troisième variable liée à la variable explicative que l’on substitut à la variable instrumentale. Ensuite on regarde l’impact sur la variable indépendante.

En d’autres termes, un instrument est une variable corrélée uniquement avec la variable d’intérêt mais pas avec les autres facteurs explicatifs.

Exemple :

Plus on étudie plus on augmente la productivité de l’individu. Cependant ce n’est pas nécessairement avec une année supplémentaire d’étude qu’on acquiert des connaissances, il faut prendre en compte le talent des individus qui va influencer simultanément les années d’études et les revenus de l’individu. Pour tester ces deux théories on compare les élèves puis on analyse les revenus des élèves étant nait durant la première partie de l’année avec ceux étant nait durant la deuxième partie de l’année.

L’entrée à l’école dépend du mois ou l’on nait, la sortie est indépendante du mois d’entré. On a deux groupes qui permettent de mettre en évidence que ceux qui sont nés en deuxième partie d’année passe un peu plus de temps à l’école.

Micro méthodes instrumentales 1.png

Sur le second graphique on voit que les personnes nés en deuxième partie d’année on un salaire plus élevé que ceux nés en première partie d’année.

La seule différence systématique concerne le moment ou ils sont nés. On isole seulement la variable « temps passé à l’école »

La causalité au sens de Granger[modifier | modifier le wikicode]

Cette méthode permet d’isoler un mécanisme de causalité spécifique. La procédure est d’analyser le comportement des séries chronologiques des variables. Il traduit la séquentialité des événements.

Les agents forment des anticipations qui peuvent les conduire à réagir non pas en fonction du passé mais en fonction de l’avenir.

 : on observe les valeurs de la variable retardée () :

Ensuite on s’intéresse à l’existence d’une relation entre la variable Y et la variable au temps . Si le paramètre b est significatif on peut dire que la variable b engendre la variable .

Exemple : En France, entre 1989 est 2006, il y a une corrélation positive forte entre croissance du PIB et la consommation.

Micro causalité au sens de Granger 1.png

L’idée est que l’analyse des données peut déduire s’il y a une corrélation. En l’état on ne peut rien admettre.

La théorie de Granger par une analyse temporelle permet d’estimer les paramètres et de voir quel facteur influence l’autre. L’analyse des séries chronologiques montre une corrélation, lorsque l’on a un pic positif dans la production se produit une augmentation de la consommation. Ainsi on peut affirmer que la variation du PIB prime la variation de la consommation.

Cette technique montre qu’il y a un cercle vertueux qui se met en place dans le sens que si la production augmente il va y avoir une augmentation de la consommation qui va elle-même engendrer une hausse de la production.

Limite :

Les variations de variables dépendent des anticipations. Très souvent la variable Y retardée pourrait être influencée par les prévisions des individus induit par la variable X. Il y a un rôle des anticipations très courant en économie qui n’est pas pris en compte par l’analyse de la causalité au sens de Granger.

En d’autres termes, la causalité au sens de Granger ne tient plus puisqu’elle peut prédire une causalité inverse à celle qui existe réellement. Ainsi les économètres préfèrent parler de « prédictibilité au sens de Granger » car le pouvoir d’anticipation des agents économiques est un problème fondamental pour l’économie empirique.

Les agents économiques ont des anticipations qui dépendent d’eux-mêmes et plus fondamentalement de la représentation qu’ils se font du monde.

Une dernière recommandation[modifier | modifier le wikicode]

Très souvent les modèles théoriques plutôt que d’être représentés avec des équations seront représentés par des graphiques.

Dans le modèle de l’offre et de la demande la relation entre le prix et la quantité est inverse. On induit aussi une relation avec le revenu de l’individu qui donne la fonction suivant

Il y a une différence fondamentale :

  • mouvement le long de la courbe : quand il y a une variation en fonction d’une variable on lit la variation le long de la courbe, cela est dû à une variation endogène
  • déplacement de la courbe : quand la variation dépend d’un facteur exogène la variation se déplace sur le graphe

Annexes[modifier | modifier le wikicode]

Références[modifier | modifier le wikicode]