Actions

Les méthodes scientifiques fondamentales

De Baripedia


Défis à l'inférence empirique en science politique[modifier | modifier le wikicode]

Définition[modifier | modifier le wikicode]

  • inférer : tirer des conclusions générales à partir des faits, de données d’observations et de données expérimentales. On est dans un contexte d’inférence empirique lorsqu’on veut établir des liens et des relations entre des facteurs explicatifs et expliquer sur la base de données concrète ou empirique.
  • causalité : Comment juger les rapports cause-effet, ceci est un enjeu central, surtout en méthodologie.
  • empirique : tirer des conclusions générales de l'évidence empirique.

Les trois défis[modifier | modifier le wikicode]

Multi-causalité[modifier | modifier le wikicode]

  • presque tout à un impact : c'est déterminé par une multiplicité de causes possibles ; ex, le comportement de vote politique n'est pas déterminé par une cause, il y a plusieurs facteurs. Un exemple est le niveau d'éducation, mais il y a d‘autres facteurs contextuels qui interviennent : sexe, position dans les classes.
  • chaque phénomène a plusieurs causes : on peut difficilement défendre une position qui dit qu’un phénomène donné n’a qu’une seule cause. Lorsqu’il y a plusieurs facteurs, cela complique la tâche.

Conditionnalité du contexte[modifier | modifier le wikicode]

Lié à l'analyse comparative ; il y a un canal institutionnel qui permet aux citoyens de participer, ceci contribue à expliquer pourquoi les gens participent en Suisse, mais pas dans d'autres pays où il n'y a pas de démocratie directe. Les causes d'un phénomène peuvent varier d'un contexte à l'autre. Le lien entre classe sociale et vote montre qu’il y a une conditionnalité du contexte et modifie la relation qu’il peut y avoir entre deux facteurs que l’on peut étudier. Il y a des effets variables à travers le contexte.

  • L'effet de presque tout dépend de presque tout le reste.
  • Les effets de chaque cause tendent à varier à travers les contextes.

Endogénéité[modifier | modifier le wikicode]

Les causes et les effets s’influencent mutuellement ; c’est le problème le plus grand dans les études empiriques et notamment ceux qui suivent l'approche de l'observation. Ex : l'intérêt en politique influence la participation (forte corrélation entre intérêt (indépendante) et participation (dépendante)). Problème c'est que la causalité peut être inversée : « ce que je veux expliquer peut expliquer ce qu'est censé expliquer ce que je voulais expliquer ».

C'est la difficulté de faire la distinction entre « ce que je veux expliquer » et le facteur qui explique ce phénomène. La cause devient un effet et vice-versa.

  • Presque tout cause presque tout le reste.
  • Causes et effets s’influencent mutuellement.

Il est souvent difficile de dire dans quel sens va la causalité que l’on souhaite postuler.

Le concept de cause[modifier | modifier le wikicode]

Article détaillé : L’inférence causale.

Déterminant de la relation causale[modifier | modifier le wikicode]

Dans la démarche scientifique en sciences sociales, on cherche à déterminer les relations causales.

« Si C (cause), alors E (effet) »[modifier | modifier le wikicode]

C'est insuffisant ! La relation entre C et E peut valoir parfois ou toujours. Exemple - Il faut être un peu plus précis. Si on dit que s’il y a un niveau d’éducation élevé on peut dire qu’il y a un niveau de participation plus élevé. On affirme que s’il y a C alors il y a E, il n’y a pas univocité de la relation alors que la relation cause à effet doit être univoque.

« Si C, alors (et seulement alors) toujours E »[modifier | modifier le wikicode]

Dans ce cas il y a les quatre caractéristiques de lien de cause à effet :

  • Conditionnalité : effet sous condition qu'il y ait la cause.
  • Succession : d'abord la cause ensuite l'effet.
  • Constance : « toujours » chaque fois que la cause est présente on observe aussi l'effet.
  • Univocité : le lien est unique.

On introduit des éléments importants pour définir ce qu’est une cause. - approche encore insuffisant ! Exemple : si le niveau éducation est élevé, alors et seulement alors on observe toujours une participation plus élevée.

Cependant, selon certains, dans l’épistémologie des sciences, il manque l’élément qui consiste à dire qu’il doit y avoir un lien génétique, un lien de production de l’effet dû à la cause.

« Si C, alors (et seulement alors) E toujours produit par C »[modifier | modifier le wikicode]

VRAI. Il faut qu’un effet donné ne soit pas seulement corrélé avec une cause, mais l’effet doit être produit et généré par cette cause. La distinction est plus philosophique que substantielle.

Définition de ce qu’est une cause[modifier | modifier le wikicode]

  • est généré par , donc il ne suffit pas d'observer une covariation entre une cause et un effet, mais il faut aussi, pour parler de cause, que l'effet soit généré par la cause.
  • Il faut que la cause produise l'effet. (ex- si on a un niveau d'éducation élevé, ceci génère la participation en politique).

Au fond, dans le cadre de la pensée causale, elle appartient uniquement au niveau théorique. Lorsqu’on parle de cause, on est au niveau purement théorique et non empirique. Dès lors, on ne peut jamais dire que sur le plan empirique, une variation de produit une variation de .

On ne peut jamais réussir à établir des liens de cause à effet sur le plan théorique, on peut le faire uniquement sur le plan empirique.

Si on observe empiriquement, sur la base de données, qu’une variation de et régulièrement suivit par une variation de , on peut dire qu’il y a un élément de corroboration empirique d’une hypothèse causale. Il faut faire une distinction entre le niveau théorique et le niveau de causalité qui est le niveau empirique qui ne peut être celui que de se rapprocher par l’étude des covariations.

En d’autres termes, si on observe qu’une variation de et régulièrement suivie d’une variation de , il y a un élément de corroboration, mais il faut encore qu’on élimine toute autre cause possible. Sur le plan empirique, la tâche est celle de dire qu’on désire trouver une covariation, mais comme il y a multicausalité, comment pouvons-nous faire en sorte d’être sûr que cette covariation existe vraiment et affirmer que nous avons un élément de corroboration empirique du postulat du lien de cause à effet ?

Corroboration empirique d’une relation causale[modifier | modifier le wikicode]

Si on observe empiriquement qu'une variation de est régulièrement suivie d'une variation de en gardant constante tous les autres possibles (autres causes et facteurs explicatifs) on a un élément fort de corroboration scientifique de l'hypothèse que soit la cause de .

Dans la recherche empirique, on ne pourrait jamais parler de cause à effet ; il faut garder en tête que la relation cause à effet reste dans la sphère de la théorie, empiriquement on ne peut que se rapprocher sous certaines conditions, constatation de covariation en gardant constant les autres facteurs.

  1. covariation entre variable dépendante (elle dépend) et indépendante (cause, elle ne dépend pas d'une autre chose) : les deux doivent varier.
  2. direction causale : il faut donner une direction à la causalité, problème de l'endogénéité.
  3. l'impossibilité logique : si on a une théorie de la classe sociale qui influence l'orientation politique, il est évident que c'est la classe qui détermine. La causalité ne peut pas être inversée.

Il faut retenir qu’en sciences sociales on veut aller vers une idée d’explication causale. Cependant, on ne peut jamais le faire, car sur le plan épistémologique l’idée de cause à effet se situe au niveau théorique. Au niveau empirique, on ne peut parler que de « variation », cependant sous certaines conditions on peut corroborer, c’est-à-dire vérifier empiriquement une relation causale.

Corroboration empirique d’une relation causale[modifier | modifier le wikicode]

Il y a trois conditions à respecter afin de vérifier empiriquement une relation causale.

Covariation entre variable indépendante et variable dépendante[modifier | modifier le wikicode]

  • variation de la variable indépendante : c'est la cause () ex : éducation
  • variation de la variable dépendante : dépend de , c'est l'effet ; par exemple la participation - ce qu'on est censé expliquer doit varier ! Aussi la variable indépendante !

On peut au maximum corroborer empiriquement la relation causale théorique.

Direction causale[modifier | modifier le wikicode]

« Je n’arrive pas à dire si c'est la qui détermine la ou à l'inverse ». Il y a trois manières de déterminer la direction causale et de s'approcher de l'idéal théorique afin de définir une relation de cause à effet.

  • manipulation de la variable indépendante : analyse expérimentale, ce sont des méthodes scientifiques fondamentales différentes.
  • succession temporelle : il y a certaines variables qui précèdent logiquement d’autres variables. Par exemple, la socialisation primaire précède (influence) le comportement de vote de quelqu’un qui a 30 ans. (le problème de l’endogénéité est dans ce cas résolu). Dans certains cas il y a des successions évidentes. Au niveau empirique cela est important pour déterminer une direction à la causalité.
  • impossibilité logique : la classe sociale ne détermine pas une orientation politique. Il y a certains facteurs qui ne peuvent dépendre d’autres facteurs. Il y a des impossibilités logiques qui permettent d’établir le lien de cause à effet.

Contrôle des variables étrangères[modifier | modifier le wikicode]

Sur le plan empirique, on pourrait dire que le niveau de participation politique varie en fonction de plusieurs variables. C’est tout l’enjeu du contrôle des variables étrangères. On peut dire que 90% de ce que l’on fait dans le cadre de la recherche en science sociale consiste à faire en sorte que l’on puisse contrôler l’effet de facteurs explicatifs qui ne nous intéressent pas. Élément décisif : contrôle des autres variables.

  • application de la règle « ceteris paribus » : on peut déterminer la relation cause-effet en sachant que le reste n'intervient pas, toutes choses égales par ailleurs. On constate une relation entre un phénomène donné et un autre phénomène toutes choses égales par ailleurs, c’est-à-dire qu’il faut faire en sorte qu’on puisse dire que tous les autres facteurs soient contrôlés ou, en d’autres termes, rendus constants.
  • dépend de la logique du dessin de recherche : c’est ma manière de contrôler le rôle des autres causes potentielles qui dépendent du design du modèle de recherche. Dépend de la logique du dessin de recherche ; dessin de la recherche observationnelles. La manière de contourner ce problème et différent selon le modèle de recherche. L’objectif est de contrôler l’effet d’autres causes potentielles dont on veut montrer l’effet.

Relation causale fallacieuse[modifier | modifier le wikicode]

Définition[modifier | modifier le wikicode]

Relation causale fallacieuse (spirious) : c’est une relation causale apparente, mais inexistante, on pensait avoir trouvé une relation causale, mais finalement il n'y avait pas de relations causales, mais seulement une covariation. C'est une covariation entre deux variables ( ; ) qui ne découle pas d’un lien causal entre et , mais dépend du fait que et sont influencés par une troisième variable . La variation de produit la variation simultanée de et sans qu'il y ait une relation causale entre le deux.

Il y a toujours le danger qu’une relation observée ne soit pas l’indice d’une relation causale.

On postule une relation de cause entre et , mais cela est faux. La relation entre X et Y est fallacieuse. Il n'y a qu'une covariation, il faut introduire des variables de contrôle.

Exemple de relation causale fallacieuse[modifier | modifier le wikicode]

Exemple 1[modifier | modifier le wikicode]

L’intention de vote est influencée par plusieurs facteurs (âge, genre, éducation, classe sociale, orientation politique de la famille, etc.).

On peut trouver un lien entre éducation () et vote (), mais finalement c'est la classe sociale () qui détermine les deux. Dès lors faut introduire des variables de contrôle !! Sinon cela peut être qu'une covariation n’ayant pas de lien de causalité.

Utilisation de la télévision de la part de deux candidats () à l’élection présidentielle pour communiquer leur programme.

On veut expliquer le vote (), mais le vote est influencé par plusieurs facteurs qui jouent un rôle comme l’éducation, mais c’est la classe sociale qui engendre une multicausalité. L’idée est de constater l’effet de l’exposition à la campagne de télévision sur les électeurs. Ainsi on trouve une relation très forte entre et . Peut-on faire confiance à la covariation entre et  ?

Les électeurs qui ont suivi la campagne en télévision () ont voté plus nombreux pour un des deux candidats (). On pourrait dire que l'exposition à la campagne produit le vote, mais il faut tenir en compte que : les électeurs plus âgés () regardent plus souvent la télévision, donc l’âge influence le vote (vieux droite, jeunes gauche).

L’âge (Z) influence à la fois l’exposition à la campagne en télévision (), les plus âgés restent à la maison et regardant la télé, et le vote pour un des deux candidats ().

Ainsi, la covariation entre et n’est pas vérifiée, car la variable influence les deux autres variables en même temps. Pour cela il faut introduire une variable de contrôle.

On va s'intéresser à des facteurs qui de manière plausible expliquent ce que nous voulons expliquer.

Exemple 2[modifier | modifier le wikicode]

Par exemple, si on s’intéresse au nombre de frigos et au niveau de démocratie, prétendre d’un lien entre les deux n’est pas pertinent. Cependant on pourrait expliquer qu’une troisième variable qui serait le degré d’urbanisation engendre la démocratie selon certaines théories et fait en même temps augmenter le nombre de frigos. Ainsi la covariation n’est pas une relation de cause à effet, car il y a une troisième variable qui influence les deux et qui est une relation de cause à effet.

Exemple 3[modifier | modifier le wikicode]

Si la participation politique () est expliquée par l’engagement associatif () on pourrait penser que cette relation est rendue fallacieuse du fait qu’il y ait une autre variable qui influence à la fois la participation et l’engagement associatif. Cette variable () pourrait être la participation politique. À nouveau il y a relation fallacieuse ; on ferait une erreur si on conclut à partir de la simple observation de cette relation qu’il y a un lien de cause à effet entre et parce qu’on n’a pas contrôlé l’effet d’une autre variable.

Deux manières pour contrôler empiriquement une affirmation causale[modifier | modifier le wikicode]

Dans le cas de problèmes liés aux relations causales fallacieuses (multicausalité et endogénéité), il y a deux manières de contrôler empiriquement l’affirmation causale.

Analyse de la covariation (donnée d’observation)[modifier | modifier le wikicode]

  • contrôle : transformation des variables étrangères () en constantes, donc elle n'a pas d'effets, car il n'y a pas de covariation, elle ne varie pas. On doit tenir compte des possibilités des relations fallacieuses. (ex. on regarde parmi tous ceux qui vont à l'université dans la classe sociale la plus haute, et après on analyse leur vote ; donc la classe ne va pas jouer un rôle dans l’analyse). On peut faire ce contrôle manuellement.
  • dépuration : contrôle statistique. On fait un modèle statistique, on introduit que la variable , qui nous intéresse, on introduit des variables avec une forte relation, après on introduit les autres variables de contrôle, et si on trouve encore un effet entre et , cela signifie que la relation n'était pas fallacieuse. Ceci est fait par un ordinateur qui calcule les relations entre toutes les variables et considère aussi toutes les relations de covariation. À la fin il détermine s'il y a une corrélation fallacieuse ou non. Le contrôle statistique est une manière de procéder au contrôle des variables et permet de tester le lien de cause à effet de façon empirique.

Expériment (données expérimentales)[modifier | modifier le wikicode]

C’est la mise en place d’une méthode expérimentale. Dans l'analyse de la covariation on agit une fois qu'on a les données en d’autres termes on manipule après coup les données a priori à partir du dessin de recherche, tandis que dans la méthode expérimentale on agit avant (comment-a-t-on produit les données?). On utilise la méthode expérimentale de manière à éviter une relation fallacieuse, on divise un échantillon en deux groupes et on choisit des individus au hasard. Selon la loi des grands nombres, on peut démontrer que les deux groupes sont semblables, donc, l'unique différence sera la variable indépendante.

Conclusion : c’est une réflexion autour de la causalité ; on a dit que la question de causalité reste au niveau théorique, on ne peut qu'essayer de se rapprocher de cet idéal. Il faut chercher une corrélation, mais il faut écarter des hypothèses (contre des variables), si on ne le fait pas on peut tomber dans une relation causale fallacieuse.

Covariation : peut être proche d'une relation causale, mais c'est l'effet d'une (variable non-observée) qui influence ce que nous voulons expliquer (dépendant) et ce qui expliquerait ce que nous voulons expliquer (indépendant). Une variable influence les deux autres variables en même temps, il y a aussi la possibilité d’une interaction entre variables explicatives.

Comment faire le contrôle des variables pour éviter de tomber dans une relation fallacieuse ? On distingue deux manières :

  • analyse de la covariation : on observe (données observationnelles) après avoir les données.
    • contrôle : on va rendre une variable étrangère en constante, lorsqu’on a une relation supposée entre deux variables qui est rendue fallacieuse, car il y a une troisième variable, on prend une partie des individus qui correspond à la deuxième variable, par exemple, on prend de gens du même âge, pour la relation de comportement entre l’exposition à la télé et le vote. Donc on a contrôlé cette valeur, on l'a rendue constante.
  • dépuration : c'est un contrôle statistique. Dépuration pour toutes les variables.
    • analyse expérimentale : on met en place un design de recherche qui évite l'existence des variables Z qui pourront affecter notre analyse.

Quatre méthodes scientifiques fondamentales selon Arend Lipjhart[modifier | modifier le wikicode]

On peut mentionner trois voire quatre méthodes :

  1. Méthode expérimentale (se différencie des autres)
  2. Méthode statistique
  3. Méthode comparative
  4. Étude de cas

Ce sont les trois méthodes fondamentales qui permettent de faire un contrôle des variables dit aussi des « facteurs explicatifs additionnables ». L’objectif est de tester des hypothèses et d’en écarter certaines en concurrence avec d’autres.

Les trois premières méthodes finalement ont toutes pour objectif principal de chercher des relations cause à effet, et cherchent à éliminer le bruit produit par des qui pourrait produire une relation fallacieuse, elles ont le même but, mais le poursuivent de façon diffèrent. Les trois établissent des propositions empiriques générales sous contrôle de toutes les autres variables (). Ilsveulent s'approcher du lien théorique de cause à effet entre un phénomène observé et des causes potentielles, il y a des degrés de réussite différents, on a vu que la méthode expérimentale et celle qui s’en rapproche le plus, sur les différents facteurs explicatifs. L’idée est d’arriver à une corroboration empirique d’affirmations causales.

Méthode expérimentale[modifier | modifier le wikicode]

Principes[modifier | modifier le wikicode]

  • Attribution aléatoire : on prend au hasard, tous les individus ont la même chance d'être dans le groupe expérimental ou de contrôle des sujets (dans les groupes expérimentaux et de contrôle non-expérimentale). Cette idée née du principe de la loi des grands nombres : la variable aléatoire est censée écarter toute autre explication.
  • Manipulation de la variable indépendante (traitement), en quoi les groupes sont-ils égaux ? le chercheur, à un certain moment, introduit un input dans l’un des deux groupes.

On sépare deux groupes faisant en sorte que les deux groupes soient pareils sur toutes les dimensions sauf sur un qui est celui sur lequel on veut tester l’effet. Le fait de choisir une personne et de l’attribuer d’une manière aléatoire fait que les deux groupes sont semblables. Si, ensuite, est introduit un traitement dans l’un des deux groupes et qu’on observe un changement qui n’est pas dans le groupe de contrôle, il se peut qu’il y ait un effet causal allant dans une réflexion cause à effet. On peut dès lors conclure qu’il y a un effet causal dans la variable introduite.

Types des experiments[modifier | modifier le wikicode]

  • En laboratoire (laboratory experiment) : ce sont les expériences faites dans des laboratoires puis on divise les individus en groupes auxquels on applique des stimulus pour arriver à une constatation de l’effet ou du non-effet. Cependant, on sort les individus de leurs conditions naturelles pouvant mener à des résultats relevant de l’artificialité des conditions expérimentales.
  • Sur le champ (field experiment) : contexte naturel, il peut y avoir d’autres facteurs qui interviennent. Ce sont des expérimentations qui ont été appliquées en science politique. Les principes restent les mêmes avec une distribution aléatoire des sujets en deux groupes ; on manipule la variable indépendante et ensuite on constate s’il y a eu un effet du traitement sur le groupe expérimental et non pas sur le groupe de contrôle. Dès lors on peut éviter la critique de l’artificialité des expérimentations en laboratoire.
  • Dessin quasi-expérimental (quasi-experiment) : ce dessin garde à l’idée que le chercheur manipule la variable indépendante, mais il n’y a pas d’attributions aléatoires des sujets à un groupe expérimental et un groupe de contrôle. Si on fait cela, c’est qu’on ne peut pas distribuer aléatoirement en deux groupes, on est forcé de prendre les groupes qui existent en réalité. En d’autres termes, le chercheur contrôle le traitement, mais ne peut pas attribuer les sujets de manière aléatoire. Parfois, quand nous sommes sur le terrain, il est difficile de faire différemment. Généralement c'est cette méthode qu'on utilise, car il y a un facteur que nous ne pouvons pas contrôler.

Exemple[modifier | modifier le wikicode]

Un psychosociologue a voulu tester les effets des objectifs collectifs sur les relations interpersonnelles. Il voulait voir dans quelle mesure, lorsqu’on dit à un groupe de personne qu’il y a un objectif, les stéréotypes négatifs conflictuels disparaissent. C’est une expérience sur-le-champ dans des conditions naturelles. Il a laissé les enfants interagir entre eux, on fait coopérer les enfants entre eux ; le chercheur a essayé de créer une identité collective et a subdivisé le groupe en deux de manière aléatoire. Il les a fait jouer au football ; on a constaté l’émergence de rivalités voire même de stéréotypes négatifs vis-à-vis de l’autre équipe. Ensuite, il a remis le groupe ensemble est il a redéfini un objectif commun qui requiert la coopération. Après coup il a constaté que ces conflits, ces stéréotypes négatifs, ces hostilités se transformaient en une véritable coopération.

Méthode statistique[modifier | modifier le wikicode]

On ne peut pas faire un dessin de recherche qui a priori permette de tester s’il y a des relations de corrélations, mais on doit le faire après coup.

  • manipulation conceptuelle (mathématique) de données observées empiriquement : on a des données d'observation ou on essaie de contrôler par contrôle statistique, avec les corrélations partielles. On fait une distinction entre les données expérimentales et les données d’observation.
  • corrélations partielles : corrélation entre deux variables une fois qu’on est sorti de l’analyse, c’est-à-dire contrôler l’effet d’autres variables qui pourraient influencer ce que l’on veut expliquer. En d’autres termes c’est rendre les autres Z comme si elles étaient des constantes suite à un processus de dépuration. C’est une logique de contrôle des variables : on contrôle les variables qui pourraient influencer ce qu’on voudrait expliquer. Dans l’exemple sur le vote, tout ce qui pourrait expliquer le vote devrait être pris en considération surtout si on peut penser que ce facteur externe peut influencer à la fois le vote et la variable indépendante (exposition médiatique). Ainsi on peut savoir si on se rapproche d’un effet causal.

Ce qui est important est d’aller au-delà d’une simple analyse bivariée ; il faut aller vers une analyse multivariée ou on introduit dans le modèle explicatif d’autres variables.

Méthode comparative[modifier | modifier le wikicode]

Toute recherche en science sociale est de par sa nature comparative. On compare toujours implicitement ou explicitement quelque chose. On peut s'interroger sur les objectifs de la comparaison. Nous avons vu que les objectifs de toute méthode scientifique essaient d'établir des propositions empiriques générales en contrôlant toutes les autres variables, mais selon certains, comme Tilly, il y a quatre objectifs à la comparaison, c’est-à-dire que l'onconfronte des unités d’observation.

Les buts de la comparaison selon Charles Tilly sont :

  • Individualiser (individualizing) – comparaison individualisante : le but est de souligner et de mettre en lumière les caractéristiques d’une unité d’analyse donnée sur un certain phénomène ;l’idée est de trouver des comparaisons, pour donner une spécificité à un certain cas donné exemple - dans les études de politique comparative, le cas est le pays, on compare des pays ; le but est par exemple de montrer certaines caractéristiques du système politique en Suisse par rapport aux autres pays. La démocratie directe détermine des valeurs politiques ; on peut comparer la démocratie directe suisse avec des pays qui ne l'ont pas. On pourra analyser l'impact de cette caractéristique sur les gens. Caractériser, individualiser, rendre plus spécifiques les caractéristiques d'un pays par rapport à un autre.
  • Généraliser (generalizing) : on compare non pour individualiser, mais pour généraliser, on inclut le plus grand nombre de cas, établir des propositions empiriques générales. Pour certains, la généralisation est l’un des deux objectifs principaux de la méthode comparative. On étudie des comportements que l’on compare, on veut voir si les configurations et les effets que l’on trouve dans un contexte sont retrouvés dans un autre contexte.
  • Chercher des variations systématiques (variation-finding) : le but est de chercher des variations systématiques et tester une théorie en écartant des théories concurrentes de celle qu'on veut mettre en évidence. Selon Tilly c'est la meilleure manière de comparer. On essaie de tester une hypothèse causale, ainsi on écarter des hypothèses rivales.
  • Globaliser (encompassing) : le but est de globaliser (approche systémique) on inclut tous les pays du monde, ou toutes les unités de comparaison possible. L'idée est que si on enlève une de ces unités de comparaison, tout le système change. Pour le professeur Giugni, ceci n'est pas une approche comparative, car on ne compare pas.

Il y a des objectifs différents de la comparaison ; agir sur la sélection des cas c'est comparer.

Stratégies de comparaison pour chercher des variations systématiques (Przeworski et Teune) On peut faire une distinction entre deux stratégies de comparaisons, ce sont des logiques et des manières de procéder méthodologiquement dans le choix des cas. Ce sont des manières de traiter la question de la causalité lorsqu'on possède des données d'observation. On fait une distinction entre deux designs de recherche comparatifs, c'est la comparaison par cas analogue (similar) et par cas contraste (different). Chacune des possibilités a ses avantages et désavantages.

  • Comparaison entre cas contrastés (most different systems design) : on choisit des cas qui sont les plus différents possibles
  • Comparaison entre cas analogues (most similar systems design) : vise à contrôler toutes les variables sauf celle qu'on veut analyser (exemple France - Suisse).
Skocpol, T. et M. Somers (1994). “The Uses of Comparative History in Macrosocial Inquiry”. In Theda Skocpol (éd.), Social Revolutions in the Modern World. Cambridge: Cambridge University Press.

Stuart Mill a réfléchi sur la manière d’analyser ce lien causal. En sélectionnant des cas différents pour arriver à cet idéal, on vise à la relation cause à effet. Mais nous ne sommes pas dans le contexte de contrôle statistique. Dans notre cas, à travers la sélection de cas, on essaie de se rapprocher de cet idéal.

Stuart Mill distingue deux cas :

  • The method of agreement (the most different system design): la logique est de choisir des pays très différents, mais qui se ressemblent sur un facteur clef. Il y a X qui est présent partout. Ensuite on observe Y, puis il y a une similarité au niveau de la variable Y que l’on veut expliquer. La logique est de dire qu’on cherche des pays ou on retrouve le même phénomène qui est celui dont on veut prouver l’effet. On observe ce qui se passe est qu’à chaque fois qu’il y a X on retrouve Y. Y a ce moment-là est produit par X parce qu’il ne peut pas être produit par autre chose, car les autres facteurs des pays sont différents, on le retrouve nul part ailleurs. La logique est de choisir des cas très différents sur la plupart des facteurs auxquels on peut penser et ensuite on va voir s’il y a coprésence de la variable que l’on veut expliquer et celle qui explique.
  • The method of difference (the most similar system design): on cherche des pays qui se ressemble le plus possible. On peut distinguer entre les cas positifs et négatifs. On va chercher des cas qui on le facteur A, B et C et des cas négatifs qui ont aussi A, B et C. Dans les cas positifs il y a un facteur présent qui n’est pas présent dans le cas négatif. Ainsi le vote est présent lorsque X est présent et absent lorsque X est absent. La conclusion est que X est la cause de l’effet Y, parce que la présence au moins de Y ne peut pas avoir été produite par A, B et C. On a rendu A, B et C en constante.

Exemple - most different system design : on a trois cas (1, 2, n) ; un cas peut être des individus, pays, etc. On a un nombre de qualités pour ces cas. Ceci sont des caractéristiques de différents pays (chômage, développement), X est la variable indépendante et on veut expliquer Y. Dans cette logique de comparaison, les cas sont très différents, mais ne sont similaires que dans une propriété. Donc cette variable explique le facteur, car il est l'unique facteur commun. Dans le tableau 2 on a des cas positifs et négatifs ; ces cas sont parfaitement semblables sur un nombre le plus élevé possible d’attributs, propriétés et variables, mais il y a une différence cruciale dans ce qui est censé d'expliquer ce que nous voulons expliquer. Il y a un facteur qui n'est pas présent. Dans un cas il y a Y dans l'autre pas ; on attribue la différence à la variable qui n'est pas dans les deux cas. Cette méthode essaie de se rapprocher de la démarche expérimentale, car il est fait en sorte que les deux groupes soient le plus proche possibles (ressemblent a, b, c), mais ils diffèrent avec la variable indépendante, most similar system design. Le professeur Giugni préfère cette manière, car elle se rapproche de l'idéal de l'expérimentation. Un exemple est d’étudier sur deux années des étudiants qui assistent au cours et de changer les diapositives qui sont données. Ensuite, on compare le résultat final (la note moyenne) dans les deux cas.

Exemple - most similar system design : je compare des pays que se ressemblent (la France et la Suisse), et je veux démontrer que la répression policière françaises est plus forte, c'est l'unique facteur diffèrent entre deux pays. Ensuite nous constatons que la radicalisation des mouvements sociaux est plus forte en France. Le problème est que les «A» à savoir les facteurs qui se ressemblent entre les deux pays, ne sont jamais égaux, mais seulement se ressemblent (ce problème ne se rencontre qu’avec la méthode du most similar research design, c’est pour cela qu’il y a des chercheurs qui préfèrent l'autre approche, dans lequel il ne faut que trouver les différences), on ne peut que se rapprocher à l'idéal. De plus nous retrouvons le problème de l'endogénéité c’est-à-dire de savoir quel facteur influence l'autre.

Étude de cas[modifier | modifier le wikicode]

C’est une méthode plus qualitative, elle diffère des trois autres méthodes, car elles s‘orientent plus vers la recherche quantitative-positiviste. Il y a quelques distinctions faites par Arend Lipihart, il y a une sorte de clivage, une distinction entre les données expérimentales et d’autre part les données d’observations.

Alors que la méthode expérimentale s’appuie sur l’idée de grand nombre, la méthode comparative un certain nombre de cas qui peuvent varier, l’étude de cas ne s’appuie que sur un seul cas. Toutefois on peut envisager une étude de cas qui peut s’étendre sur plus d’un cas, car la frontière est parfois souple.

L'étude de cas n'est que l'étude d'un seul cas, il n'a pas de la comparaison. Un cas peut être beaucoup des choses comme un parti, une personne ou encore un pays. On essaie d'étudier en profondeur un cas particulier, mais pas de façon extensive comme les trois autres méthodes qui n’étudient pas les cas autant en profondeur.

En d’autres termes, le grand avantage de l’étude de cas est qu’on peut aller beaucoup plus en profondeur dans la connaissance du cas. Une étude de cas est par définition intensive alors que l’étude quantitative est extensive. Une méthode est basée sur la standardisions avec l’idée de généraliser tandis que l’autre s’appuie sur l’interprétation en profondeur d’un cas spécifique.

Si la méthode statistique a pour objectif de généraliser, l’étude de cas par définition ne permet pas de généralisation, l’objectif est un autre. Il existe différentes études de cas et différentes modalités afin de mener une étude de cas. On peut en mentionner 6 variantes :

  • les deux première ayant pour objectif de s’intéresser au cas précis.
  • les quatre autres modalités ont un objectif de créer ou générer une théorie.

L’étude de cas peut servir pour atteindre des buts différents, d’une part on veut connaitre mieux une situation particulière de manière descriptive, d’autre part on peut étudier plusieurs cas permettant de générer à terme une théorie.

Selon Arend Lipihart, le but de la recherche est de tester et vérifier une théorie ainsi que de généraliser des résultats.

Ces deux cas ne veulent créer des hypothèses, l’idée est d'éclairer quelque chose par rapport à un cas :

  • athéorique : il n’y a pas de théorie, c’est purement descriptif. C'est une recherche exploratoire, par exemple, l'étude d'une nouvelle organisation, on ne veut que la connaître et la décrire, dans ce cas on ne peut pas généraliser les résultats, car ils sont liés à un cas étudié en particulier. On l’utilise dans des situations ou des cas qui n’ont jamais été étudiés auparavant.
  • interprétatif : on utilise des propositions théoriques qui existent dans la littérature, dans cette démarche qualitative le rôle de la littérature est moins important, on applique une généralisation existante à un cas donné, ici le cas porte sur un cas précis, sans volonté de créer une théorie tout comme l'athéorie. L'objectif n'est pas de confirmer ou de l'infirmer, mais c'est de l'appliquer seulement. On utilise des propositions ou des théories existantes qu’on applique à un cas ; on lui applique des généralisations existantes afin de voir si la généralisation tient de ce cas spécifique. On interprète une situation particulière à la lumière d’une théorie existante.

Le quatre qui suivent veulent créer une théorie ou tirer quelque chose des cas. Leur objectif est de créer ou de générer des théories ou des hypothèses :

  • générant des hypothèses : on veut de créer des hypothèses là où il n'y en a pas. J’étudie un cas pas seulement parce qu’il m'intéresse, mais parce que je veux formuler des hypothèses que je vais après tester ailleurs. Ex : d'organisation qui s'engage en politique. On étudie une situation donnée, car on veut des hypothèses qu’on n’arrive pas à trouver par ailleurs. On explore un cas dans l’objectif de formuler des hypothèses. Les hypothèses ont essentiellement trois sources : la littérature existante, l’imagination sociologique, les études exploratoires.
  • confirmant une théorie : tester une théorie sur un cas particulier pour confirmer cette théorie, ce type d'étude de cas n'est pas très utile, car ce n'est pas le fait qu’il y ait un cas qui reflète une théorie existante qui va renforcer la théorie faisant que ce système n'est pas très utile.
  • infirmant une théorie : ceci a beaucoup plus de valeur, il y a une théorie qui est appliquée dans un cas spécifique, on ne cherche pas à confirmer la théorie, mais prouver qu'elle ne fonctionne pas, on cherche à infirmer une théorie. Ceci nous pousse à réfléchir sur la théorie, c’est quelque chose d’important dans le but d'élaborer une théorie.
  • cas déviant : pourquoi un cas dévie de la généralisation, ce cas est très utile quand on veut infirmer une théorie. On cherche une situation qui dévie d’une situation existante, l’étude de cas cherche à montrer pourquoi ce cas dévie de la généralisation.

Annexes[modifier | modifier le wikicode]

  • Elisabeth Wood - An Insurgent Path to Democracy: Popular Mobilization, Economic Interests and Regime Transition in South Africa and El Salvador," Comparative Political Studies, October 2001. Translation published in Estudios Centroamericános, No. 641-2, 2002. url: http://cps.sagepub.com/content/34/8/862.short

Références[modifier | modifier le wikicode]