« Metodi scientifici di base » : différence entre les versions

De Baripedia
Aucun résumé des modifications
 
(19 versions intermédiaires par le même utilisateur non affichées)
Ligne 7 : Ligne 7 :
  | assistants =   
  | assistants =   
  | enregistrement =  
  | enregistrement =  
  | cours = [[Introduction aux méthodes de la science-politique]]
  | cours = [[Introduzione ai metodi della scienza politica]]
  | lectures =
  | lectures =
* [[Cours introductif aux méthodes de la science-politique]]
* [[Corso introduttivo ai metodi della scienza-politica]]
* [[Le paradigme positiviste et le paradigme interprétatif]]
* [[Il paradigma positivista e il paradigma interpretativo]]
* [[Les méthodes scientifiques fondamentales]]
* [[Metodi scientifici di base]]
* [[De la théorie aux données]]
* [[Dalla teoria ai dati]]
* [[Le recueil des données]]
* [[La raccolta dei dati]]
* [[Le traitement des données]]
* [[Trattamento dei dati]]
}}
}}


Ligne 35 : Ligne 35 :
* chaque phénomène a plusieurs causes : on peut difficilement défendre une position qui dit qu’un phénomène donné n’a qu’une seule cause. Lorsqu’il y a plusieurs facteurs, cela complique la tâche.
* chaque phénomène a plusieurs causes : on peut difficilement défendre une position qui dit qu’un phénomène donné n’a qu’une seule cause. Lorsqu’il y a plusieurs facteurs, cela complique la tâche.


=== Conditionnalité du contexte ===
=== Condizionalità del contesto ===
Lié à l'analyse comparative ; il y a un canal institutionnel qui permet aux citoyens de participer, ceci contribue à expliquer pourquoi les gens participent en Suisse, mais pas dans d'autres pays où il n'y a pas de démocratie directe. Les causes d'un phénomène peuvent varier d'un contexte à l'autre. Le lien entre classe sociale et vote montre qu’il y a une conditionnalité du contexte et modifie la relation qu’il peut y avoir entre deux facteurs que l’on peut étudier. Il y a des effets variables à travers le contexte.
Collegato al benchmarking; esiste un canale istituzionale che permette ai cittadini di partecipare, il che aiuta a spiegare perché le persone partecipano in Svizzera, ma non in altri paesi dove non esiste una democrazia diretta. Le cause di un fenomeno possono variare da un contesto all'altro. Il legame tra classe e voto dimostra che c'è condizionalità nel contesto e modifica il rapporto che può esistere tra due fattori che possono essere studiati. Ci sono effetti variabili nel contesto.
*L'effet de presque tout dépend de presque tout le reste.  
*L'effetto di quasi tutto dipende da quasi tutto il resto.
*Les effets de chaque cause tendent à varier à travers les contextes.
*Gli effetti di ciascuna causa tendono a variare da un contesto all'altro.


=== Endogénéité ===
=== Endogeneità ===
Les causes et les effets s’influencent mutuellement ; c’est le problème le plus grand dans les études empiriques et notamment ceux qui suivent l'approche de l'observation. Ex : l'intérêt en politique influence la participation (forte corrélation entre intérêt (indépendante) et participation (dépendante)). Problème c'est que la causalité peut être inversée : « ce que je veux expliquer peut expliquer ce qu'est censé expliquer ce que je voulais expliquer ».
Cause ed effetti si influenzano a vicenda; questo è il problema maggiore negli studi empirici, specialmente quelli che seguono l'approccio dell'osservazione. Ad esempio: l'interesse politico influenza la partecipazione (forte correlazione tra interesse (indipendente) e partecipazione (dipendente)). Il problema è che la causalità può essere invertita: "ciò che voglio spiegare può spiegare ciò che si suppone spieghi ciò che volevo spiegare".


C'est la difficulté de faire la distinction entre « ce que je veux expliquer » et le facteur qui explique ce phénomène. La cause devient un effet et vice-versa.
È la difficoltà di distinguere tra "ciò che voglio spiegare" e il fattore che spiega questo fenomeno. La causa diventa un effetto e viceversa.
*Presque tout cause presque tout le reste.
*Quasi tutto causa quasi tutto il resto.
*Causes et effets s’influencent mutuellement.
*Cause ed effetti si influenzano a vicenda.
   
   
Il est souvent difficile de dire dans quel sens va la causalité que l’on souhaite postuler.
Spesso è difficile dire in quale direzione vada la causalità che si vuole applicare.


= Le concept de cause =
= Il concetto di causa =
{{Article détaillé|L’inférence causale}}
{{Article détaillé|L’inférence causale}}


== Déterminant de la relation causale ==
== Determinazione del rapporto di causalità ==
Dans la démarche scientifique en sciences sociales, on cherche à déterminer les relations causales.
Nell'approccio scientifico delle scienze sociali, l'obiettivo è quello di determinare le relazioni causali.
   
   
===« Si C (cause), alors E (effet) »===
==="Se C (causa), allora E (effetto).===
C'est insuffisant ! La relation entre C et E peut valoir parfois ou toujours. Exemple - Il faut être un peu plus précis. Si on dit que s’il y a un niveau d’éducation élevé on peut dire qu’il y a un niveau de participation plus élevé. On affirme que s’il y a C alors il y a E, il n’y a pas univocité de la relation alors que la relation cause à effet doit être univoque.
Non e' abbastanza! Il rapporto tra C ed E può a volte o sempre essere utile. Esempio - Dobbiamo essere un po' più specifici. Se diciamo che se c'è un alto livello di istruzione, possiamo dire che c'è un livello di partecipazione più elevato. Si sostiene che se c'è C allora c'è E, non c'è univocità del rapporto mentre il rapporto di causa ed effetto deve essere univoco.
   
   
===« Si C, alors (et seulement alors) toujours E »===
==="Se C, allora (e solo allora) sempre E.===
Dans ce cas il y a les quatre caractéristiques de lien de cause à effet :
In questo caso ci sono le quattro caratteristiche della relazione causa-effetto:
*'''Conditionnalité''' : effet sous condition qu'il y ait la cause.
*'''Condizionalità''': effetto a condizione che vi sia una causa.
*'''Succession''' : d'abord la cause ensuite l'effet.
*'''Successione''': prima la causa, poi l'effetto.
*'''Constance''' : « toujours » chaque fois que la cause est présente on observe aussi l'effet.
*'''Coerenza''': "Sempre" ogni volta che la causa è presente, si osserva anche l'effetto.
*'''Univocité''' : le lien est unique.
*'''Univocità''': il legame è unico.
On introduit des éléments importants pour définir ce qu’est une cause. - approche encore insuffisant !
Vengono introdotti elementi importanti per definire che cos'è una causa. - non è ancora abbastanza! Esempio: se il livello di istruzione è alto, allora e solo allora c'è sempre una maggiore partecipazione.
Exemple : si le niveau éducation est élevé, alors et seulement alors on observe toujours une participation plus élevée.
 
Tuttavia, secondo alcuni, nell'epistemologia della scienza, manca l'elemento che consiste nel dire che ci deve essere un legame genetico, un legame nella produzione dell'effetto dovuto alla causa.
 
=== "Se C, allora (e solo allora) E sempre prodotto da C". ===
VERO: Un dato effetto non solo deve essere correlato ad una causa, ma l'effetto deve essere prodotto e generato da quella causa. La distinzione è più filosofica che sostanziale.
 
== Definizione di cosa sia una causa ==
*<math>E</math> è generato da <math>C</math>, quindi non basta osservare una covarianza tra una causa ed un effetto, ma è necessario, per parlare di causa, che l'effetto sia generato dalla causa.
*La causa deve produrre l'effetto. (ad esempio, se si ha un alto livello di istruzione, questo genera la partecipazione alla politica).
   
   
Cependant, selon certains, dans l’épistémologie des sciences, il manque l’élément qui consiste à dire qu’il doit y avoir un lien génétique, un lien de production de l’effet dû à la cause.
Fondamentalmente, nel contesto del pensiero causale, appartiene solo al livello teorico. Quando parliamo di causa, siamo su un piano puramente teorico e non empirico. Pertanto, non si può mai dire che empiricamente, una variazione di <math>C</math> produce una variazione di <math>E</math>.
 
Non possiamo mai riuscire a stabilire relazioni di causa-effetto a livello teorico, possiamo farlo solo a livello empirico.
 
Se osserviamo empiricamente, sulla base dei dati, che una variazione di <math>C</math> e regolarmente seguita da una variazione di <math>E</math>,
 
possiamo dire che c'è un elemento di conferma empirica di un'ipotesi causale. Occorre distinguere tra il livello teorico e il livello causale, che è il livello empirico che può essere affrontato solo attraverso lo studio delle covariazioni.
 
In altre parole, se osserviamo che una variazione di <math>C</math> e regolarmente seguita da una variazione di<math>E</math>, c'è un elemento di corroborazione, ma ogni altra possibile causa deve ancora essere eliminata. Empiricamente, il compito è quello di dire che vogliamo trovare una covariata, ma poiché c'è la multicausalità, come possiamo assicurarci che questa covariata esista realmente e affermare che abbiamo un elemento di corroborazione empirica dell'assunzione del rapporto di causa-effetto?
 
== Corrosione empirica di una relazione causale ==
Se osserviamo empiricamente che una variazione di <math>X</math> è regolarmente seguita da una variazione di <math>Y</math> mantenendo costanti tutti gli altri. <math>X</math> (altre cause e fattori esplicativi) esiste un forte elemento di corroborazione scientifica dell'ipotesi che <math>X</math> o la causa di <math>Y</math>.
 
Nella ricerca empirica non potremmo mai parlare di causa ed effetto; dobbiamo tenere presente che il rapporto di causa-effetto rimane nell'ambito della teoria, empiricamente possiamo avvicinarci solo in certe condizioni, trovando la covarianza e mantenendo costanti gli altri fattori.
# covarianza tra variabili dipendenti (dipende) e indipendenti (causa, non dipende da nient'altro): entrambe devono variare.
# direzione causale: è necessario dare una direzione alla causalità, il problema dell'endogeneità.
# Impossibilità logica: se si ha una teoria della classe sociale che influenza l'orientamento politico, è ovvio che è la classe che determina. La causalità non può essere invertita.
Va ricordato che nelle scienze sociali vogliamo muoverci verso un'idea di spiegazione causale. Tuttavia, questo non può mai essere fatto, perché sul piano epistemologico l'idea di causa ed effetto è a livello teorico. A livello empirico, possiamo parlare solo di "variazione", ma in certe condizioni possiamo confermare, cioè verificare empiricamente una relazione causale.
 
= Corrosione empirica di una relazione causale =
Ci sono tre condizioni da soddisfare per verificare empiricamente una relazione causale.
 
== Covariazione tra variabili indipendenti e dipendenti ==
*variazione della variabile indipendente: questa è la causa (<math>X</math>) ex: istruzione
*variazione della variabile dipendente: dipende da <math>X</math>, è l'effetto; per esempio, la partecipazione - quello che si suppone che tu debba spiegare deve variare! Anche la variabile indipendente!
Al massimo, la relazione causale teorica può essere corroborata empiricamente.
 
== Direzione causale ==
"Non posso dire se questo e <math>X</math> che determina l'attributo <math>Y</math> o il contrario". Ci sono tre modi per determinare la direzione causale e per avvicinarsi all'ideale teorico per definire una relazione causa-effetto.
*manipolazione della variabile indipendente: analisi sperimentale, questi sono diversi metodi scientifici fondamentali.
*successione temporale: ci sono alcune variabili che logicamente precedono altre variabili. Ad esempio, la socializzazione primaria precede (influenza) il comportamento di voto di una persona che ha 30 anni. (in questo caso il problema dell'endogeneità è risolto). In alcuni casi ci sono successioni ovvie. A livello empirico questo è importante per determinare una direzione verso la causalità.
*impossibilità logica: la classe sociale non determina l'orientamento politico. Ci sono alcuni fattori che non possono dipendere da altri fattori. Ci sono impossibilità logiche che rendono possibile stabilire il rapporto di causa-effetto.
 
== Controllo di variabili esterne ==
Dal punto di vista empirico, si potrebbe dire che il livello di partecipazione politica varia a seconda di diverse variabili. Questo è lo scopo del controllo delle variabili esterne. Si può dire che il 90 per cento di ciò che facciamo nella ricerca nel campo delle scienze sociali è garantire che possiamo controllare l'effetto di fattori esplicativi che non ci interessano. Elemento determinante: controllo delle altre variabili.
*applicazione della regola "ceteris paribus": il rapporto di causa-effetto può essere determinato sapendo che il resto non è coinvolto, a parità di tutte le altre cose. C'è una relazione tra un dato fenomeno e un altro fenomeno, a parità di tutte le altre cose, cioè dobbiamo fare in modo che tutti gli altri fattori si possano dire controllati o, in altre parole, resi costanti.
*dipende dalla logica del design della ricerca: è il mio modo di controllare il ruolo di altre potenziali cause che dipendono dal design del modello di ricerca. Dipende dalla logica del design di ricerca; design di ricerca osservazionale. Il modo di aggirare questo problema è diverso a seconda del modello di ricerca. L'obiettivo è quello di controllare l'effetto di altre cause potenziali di cui vogliamo mostrare l'effetto.
 
= Falsa relazione causale  =
 
== Definizione ==
Falsa relazione causale (spiriosa): è una relazione causale apparente, ma inesistente, pensavamo di aver trovato una relazione causale, ma alla fine non c'erano relazioni causali, ma solo una covariata. È una covariata tra due variabili (<math>X</math> ; <math>Y</math>) che non risulta da un nesso causale tra <math>X</math> e <math>Y</math>, ma dipende dal fatto che <math>X</math> e <math>Y</math> sono influenzati da una terza variabile <math>Z</math>. La variazione di <math>Z</math> produce la variazione simultanea di <math>X</math> e <math>Y</math> senza che ci sia una relazione causale tra i due.
 
C'è sempre il pericolo che una relazione osservata possa non essere indicativa di una relazione causale.[[Fichier:Relation causale fallacieuse (spirious).png|700px|vignette|centré|Assumiamo una relazione causale tra <math>X</math> e <math>Y</math>, ma non e' vero. Il rapporto tra X e Y è fuorviante. C'è una sola covariata, le variabili di controllo devono essere introdotte.]]
 
== Esempio di relazione causale ingannevole ==
 
=== Esempio 1 ===
L'intenzione di voto è influenzata da diversi fattori (età, sesso, istruzione, classe sociale, orientamento politico della famiglia, ecc.
 
Possiamo trovare un collegamento tra l'istruzione (<math>X</math>) e votare (<math>Y</math>), ma alla fine è la classe sociale (<math>Z</math>) che li determina entrambi. Pertanto, le variabili di controllo devono essere introdotte! Altrimenti può essere solo una covariata senza nesso causale.
 
Uso della televisione da parte di due candidati (<math>X</math>)
 
nelle elezioni presidenziali per comunicare il loro programma.


=== « Si C, alors (et seulement alors) E toujours produit par C » ===
Vogliamo spiegare il voto (<math>Y</math>), ma il voto è influenzato da diversi fattori che giocano un ruolo come l'istruzione, ma è la classe sociale che genera multicausalità. L'idea è di vedere l'effetto dell'esposizione alla campagna televisiva sugli elettori. Quindi c'è una relazione molto forte tra <math>X</math> et <math>Y</math>. Possiamo fidarci della covarianza tra <math>X</math> e <math>Y</math> ?
VRAI. Il faut qu’un effet donné ne soit pas seulement corrélé avec une cause, mais l’effet doit être produit et généré par cette cause. La distinction est plus philosophique que substantielle.


== Définition de ce qu’est une cause ==
Gli elettori che hanno seguito la campagna in televisione (<math>X</math>) ha votato in numero maggiore per uno dei due candidati (<math>Y</math>). Si potrebbe dire che l'esposizione alla campagna produce il voto, ma si dovrebbe tener conto di quanto segue: elettori più anziani (<math>Z</math>) guardare la televisione più spesso, quindi l'età influenza il voto (vecchio a destra, giovane a sinistra).
*<math>E</math> est généré par <math>C</math>, donc il ne suffit pas d'observer une covariation entre une cause et un effet, mais il faut aussi, pour parler de cause, que l'effet soit généré par la cause.
*Il faut que la cause produise l'effet. (ex- si on a un niveau d'éducation élevé, ceci génère la participation en politique).
   
   
Au fond, dans le cadre de la pensée causale, elle appartient uniquement au niveau théorique. Lorsqu’on parle de cause, on est au niveau purement théorique et non empirique. Dès lors, on ne peut jamais dire que sur le plan empirique, une variation de <math>C</math> produit une variation de <math>E</math>.
L'età (Z) influenza sia l'esposizione alla campagna in televisione (<math>X</math>), i più anziani rimangono a casa, guardano la TV e votano per uno dei due candidati (<math>Y</math>).
   
   
On ne peut jamais réussir à établir des liens de cause à effet sur le plan théorique, on peut le faire uniquement sur le plan empirique.
Così, la covarianza tra <math>X</math> e <math>Y</math> non è verificata, perché la variabile <math>Z</math>
 
Si on observe empiriquement, sur la base de données, qu’une variation de <math>C</math> et régulièrement suivit par une variation de <math>E</math>, on peut dire qu’il y a un élément de corroboration empirique d’une hypothèse causale. Il faut faire une distinction entre le niveau théorique et le niveau de causalité qui est le niveau empirique qui ne peut être celui que de se rapprocher par l’étude des covariations.
influenza le altre due variabili contemporaneamente. A tal fine è necessario introdurre una variabile di controllo.
 
En d’autres termes, si on observe qu’une variation de <math>C</math> et régulièrement suivie d’une variation de <math>E</math>, il y a un élément de corroboration, mais il faut encore qu’on élimine toute autre cause possible. Sur le plan empirique, la tâche est celle de dire qu’on désire trouver une covariation, mais comme il y a multicausalité, comment pouvons-nous faire en sorte d’être sûr que cette covariation existe vraiment et affirmer que nous avons un élément de corroboration empirique du postulat du lien de cause à effet ?
Esamineremo i fattori che spiegano in modo plausibile ciò che vogliamo spiegare.
 
=== Esempio 2 ===
Ad esempio, se siamo interessati al numero di frigoriferi e al livello di democrazia, affermare un legame tra i due è irrilevante. Tuttavia, si potrebbe spiegare che una terza variabile, che sarebbe il grado di urbanizzazione, genera democrazia secondo certe teorie e allo stesso tempo aumenta il numero di frigoriferi. Quindi la covariata non è una relazione di causa-effetto, perché c'è una terza variabile che influenza sia l'una che l'altra ed è una relazione di causa-effetto.
 
=== Esempio 3 ===
Se la partecipazione politica (<math>Y</math>) si spiega con l'impegno associativo (<math>X</math>) si potrebbe pensare che questo rapporto sia reso fallace dal fatto che esiste un'altra variabile che influenza sia la partecipazione che l'impegno associativo. Questa variabile (<math>Z</math>) potrebbe essere la partecipazione politica. Anche in questo caso, c'è una relazione fuorviante; sarebbe un errore concludere dalla semplice osservazione di questa relazione che esiste una relazione causale tra<math>X</math> y <math>Y</math> perché l'effetto di un'altra variabile non è stato controllato.
 
= Due modi per controllare empiricamente un'affermazione causale =
Nel caso di problemi legati a relazioni causali fuorvianti (multicausalità ed endogeneità), ci sono due modi per controllare empiricamente l'affermazione causale.


== Corroboration empirique d’une relation causale ==
== Analisi della covarianza (dati di osservazione) ==
Si on observe empiriquement qu'une variation de <math>X</math> est régulièrement suivie d'une variation de <math>Y</math> en gardant constante tous les autres <math>X</math> possibles (autres causes et facteurs explicatifs) on a un élément fort de corroboration scientifique de l'hypothèse que <math>X</math> soit la cause de <math>Y</math>.
*'''controllo''': trasformazione di variabili esterne (<math>Z</math>) in costanti, quindi non ha effetti, perché non c'è covarianza, non cambia. Dobbiamo prendere in considerazione le possibilità di relazioni ingannevoli (ad esempio, guardiamo tra tutti coloro che frequentano l'università nella classe sociale più alta, e poi analizziamo il loro voto; quindi la classe non avrà un ruolo nell'analisi). Questo controllo può essere fatto manualmente.
*'''depurazione''': controllo statistico. Facciamo un modello statistico, introduciamo che la variabile <math>X</math>, ci interessa, introduciamo variabili con una forte relazione, poi introduciamo le altre variabili di controllo, e se troviamo ancora un effetto tra <math>X</math> e <math>Y</math>, significa che il rapporto non era fuorviante. Questo viene fatto da un computer che calcola le relazioni tra tutte le variabili e considera anche tutte le relazioni di co-variazione. Alla fine determina se c'è una falsa correlazione o meno. Il controllo statistico è un modo di controllare le variabili e permette di verificare empiricamente la relazione causa-effetto.
Dans la recherche empirique, on ne pourrait jamais parler de cause à effet ; il faut garder en tête que la relation cause à effet reste dans la sphère de la théorie, empiriquement on ne peut que se rapprocher sous certaines conditions, constatation de covariation en gardant constant les autres facteurs.
#covariation entre variable dépendante (elle dépend) et indépendante (cause, elle ne dépend pas d'une autre chose) : les deux doivent varier.
#direction causale : il faut donner une direction à la causalité, problème de l'endogénéité.
#l'impossibilité logique : si on a une théorie de la classe sociale qui influence l'orientation politique, il est évident que c'est la classe qui détermine. La causalité ne peut pas être inversée.
Il faut retenir qu’en sciences sociales on veut aller vers une idée d’explication causale. Cependant, on ne peut jamais le faire, car sur le plan épistémologique l’idée de cause à effet se situe au niveau théorique. Au niveau empirique, on ne peut parler que de « variation », cependant sous certaines conditions on peut corroborer, c’est-à-dire vérifier empiriquement une relation causale.


= Corroboration empirique d’une relation causale =
== Esperimento (dati sperimentali) ==
Il y a trois conditions à respecter afin de vérifier empiriquement une relation causale.
E' l'implementazione di un metodo sperimentale. Nell'analisi della covarianza agiamo una volta che abbiamo i dati, cioè manipoliamo i dati a priori dal disegno di ricerca, mentre nel metodo sperimentale agiamo prima (come produciamo i dati?). Il metodo sperimentale è utilizzato per evitare una relazione fuorviante, un campione è diviso in due gruppi e gli individui sono selezionati in modo casuale. Secondo la legge dei grandi numeri, si può dimostrare che i due gruppi sono simili, quindi l'unica differenza sarà la variabile indipendente.


== Covariation entre variable indépendante et variable dépendante ==
'''Conclusione''': è una riflessione sulla causalità; è stato detto che la questione della causalità rimane a livello teorico, possiamo solo cercare di avvicinarci a questo ideale. Bisogna cercare una correlazione, ma bisogna escludere ipotesi (contro variabili), se non lo si fa si può cadere in una relazione causale fuorviante.
*variation de la variable indépendante : c'est la cause (<math>X</math>) ex : éducation
*variation de la variable dépendante : dépend de <math>X</math>, c'est l'effet ; par exemple la participation - ce qu'on est censé expliquer doit varier ! Aussi la variable indépendante !
On peut au maximum corroborer empiriquement la relation causale théorique.


== Direction causale ==
'''Covariazione''': può essere vicino a una relazione causale, ma è l'effetto di un <math>Z</math>  
« Je n’arrive pas à dire si c'est la <math>X</math> qui détermine la <math>Y</math> ou à l'inverse ». Il y a trois manières de déterminer la direction causale et de s'approcher de l'idéal théorique afin de définir une relation de cause à effet.
*manipulation de la variable indépendante : analyse expérimentale, ce sont des méthodes scientifiques fondamentales différentes.
*succession temporelle : il y a certaines variables qui précèdent logiquement d’autres variables. Par exemple, la socialisation primaire précède (influence) le comportement de vote de quelqu’un qui a 30 ans. (le problème de l’endogénéité est dans ce cas résolu). Dans certains cas il y a des successions évidentes. Au niveau empirique cela est important pour déterminer une direction à la causalité.
*impossibilité logique : la classe sociale ne détermine pas une orientation politique. Il y a certains facteurs qui ne peuvent dépendre d’autres facteurs. Il y a des impossibilités logiques qui permettent d’établir le lien de cause à effet.


== Contrôle des variables étrangères ==
(variabile non osservata) che influenza ciò che vogliamo spiegare (dipendente) e ciò che spiegherebbe ciò che vogliamo spiegare (indipendente). Una variabile influenza le altre due variabili contemporaneamente, vi è anche la possibilità di un'interazione tra variabili esplicative.
Sur le plan empirique, on pourrait dire que le niveau de participation politique varie en fonction de plusieurs variables. C’est tout l’enjeu du contrôle des variables étrangères. On peut dire que 90% de ce que l’on fait dans le cadre de la recherche en science sociale consiste à faire en sorte que l’on puisse contrôler l’effet de facteurs explicatifs qui ne nous intéressent pas. Élément décisif : contrôle des autres variables.
*application de la règle « ceteris paribus » : on peut déterminer la relation cause-effet en sachant que le reste n'intervient pas, toutes choses égales par ailleurs. On constate une relation entre un phénomène donné et un autre phénomène toutes choses égales par ailleurs, c’est-à-dire qu’il faut faire en sorte qu’on puisse dire que tous les autres facteurs soient contrôlés ou, en d’autres termes, rendus constants.
*dépend de la logique du dessin de recherche : c’est ma manière de contrôler le rôle des autres causes potentielles qui dépendent du design du modèle de recherche. Dépend de la logique du dessin de recherche ; dessin de la recherche observationnelles. La manière de contourner ce problème et différent selon le modèle de recherche. L’objectif est de contrôler l’effet d’autres causes potentielles dont on veut montrer l’effet.


= Relation causale fallacieuse =
Come controllare le variabili per evitare di cadere in una relazione ingannevole? Ci sono due modi:
*'''analisi di covarianza''': osserviamo (dati osservazionali) dopo averli avuti.
**'''controllo''': faremo costante una variabile straniera, quando abbiamo un rapporto presunto tra due variabili che viene reso fallace, perché c'è una terza variabile, prendiamo una parte degli individui che corrisponde alla seconda variabile, ad esempio, prendiamo persone della stessa età, per il rapporto comportamentale tra esposizione televisiva e voto. Così abbiamo controllato questo valore, l'abbiamo reso costante.
*'''depurazione''': è un controllo statistico. Depurazione per tutte le variabili.
**'''analisi sperimentale''': abbiamo messo a punto un disegno di ricerca che evita l'esistenza di variabili Z che potrebbero influenzare la nostra analisi.


== Définition ==
= Quattro metodi scientifici fondamentali secondo Arend Lipjhart =
Relation causale fallacieuse (spirious) : c’est une relation causale apparente, mais inexistante, on pensait avoir trouvé une relation causale, mais finalement il n'y avait pas de relations causales, mais seulement une covariation. C'est une covariation entre deux variables (<math>X</math> ; <math>Y</math>) qui ne découle pas d’un lien causal entre <math>X</math> et <math>Y</math>, mais dépend du fait que <math>X</math> et <math>Y</math> sont influencés par une troisième variable <math>Z</math>. La variation de <math>Z</math> produit la variation simultanée de <math>X</math> et <math>Y</math> sans qu'il y ait une relation causale entre le deux.
Si possono menzionare tre o addirittura quattro metodi:
#Metodo sperimentale (si differenzia dagli altri)
Il y a toujours le danger qu’une relation observée ne soit pas l’indice d’une relation causale.
#Metodo statistico
#Metodo comparativo
#Caso di studio
Questi sono i tre metodi fondamentali che permettono di controllare le variabili note anche come "fattori esplicativi aggiuntivi". L'obiettivo è quello di verificare le ipotesi ed escluderne alcune in concorrenza con altre.


[[Fichier:Relation causale fallacieuse (spirious).png|700px|vignette|centré|On postule une relation de cause entre <math>X</math> et <math>Y</math>, mais cela est faux. La relation entre X et Y est fallacieuse. Il n'y a qu'une covariation, il faut introduire des variables de contrôle.]]
I primi tre metodi, infine, hanno tutti l'obiettivo principale di ricercare rapporti di causa-effetto e di eliminare il rumore prodotto da <math>Z</math> che potrebbero produrre un rapporto fuorviante, hanno lo stesso scopo, ma lo perseguono in modo diverso. I tre stabiliscono proposizioni empiriche generali sotto il controllo di tutte le altre variabili (<math>Z</math>). Vogliono avvicinarsi al rapporto teorico causa-effetto tra un fenomeno osservato e le cause potenziali, ci sono diversi gradi di successo, abbiamo visto che il metodo sperimentale e quello più vicino ad esso, sui diversi fattori esplicativi. L'idea è di arrivare ad una conferma empirica delle affermazioni causali.


== Exemple de relation causale fallacieuse ==
== Metodo sperimentale ==


=== Exemple 1 ===
=== Principi ===
L’intention de vote est influencée par plusieurs facteurs (âge, genre, éducation, classe sociale, orientation politique de la famille, etc.).
*'''Assegnazione casuale''': selezionati a caso, tutti gli individui hanno le stesse probabilità di essere nel gruppo di controllo sperimentale o soggetto (nei gruppi di controllo sperimentale e non sperimentale). Questa idea è nata dal principio della legge dei grandi numeri: la variabile casuale dovrebbe escludere qualsiasi altra spiegazione.
*'''Manipolazione della variabile indipendente''' (trattamento), come sono uguali i gruppi? Il ricercatore, ad un certo punto, introduce un input in uno dei due gruppi.
   
   
On peut trouver un lien entre éducation (<math>X</math>) et vote (<math>Y</math>), mais finalement c'est la classe sociale (<math>Z</math>) qui détermine les deux. Dès lors faut introduire des variables de contrôle !! Sinon cela peut être qu'une covariation n’ayant pas de lien de causalité.
Separiamo due gruppi in modo che i due gruppi siano gli stessi su tutte le dimensioni tranne che su una che è quella su cui vogliamo testare l'effetto. La selezione di una persona e l'assegnazione casuale rende i due gruppi simili. Se, successivamente, viene introdotto un trattamento in uno dei due gruppi e si osserva un cambiamento che non è nel gruppo di controllo, ci può essere un effetto causale che va in una riflessione di causa ed effetto. Si può pertanto concludere che la variabile introdotta ha un effetto causale.
   
   
Utilisation de la télévision de la part de deux candidats (<math>X</math>) à l’élection présidentielle pour communiquer leur programme.
=== Tipi di esperimenti ===
*In '''laboratorio''' (laboratory experiment): si tratta di esperimenti eseguiti in laboratorio e poi gli individui vengono divisi in gruppi ai quali vengono applicati stimoli per arrivare ad un riscontro di effetto o non effetto. Tuttavia, gli individui vengono prelevati dalle loro condizioni naturali che possono portare a risultati che sono legati all'artificialità delle condizioni sperimentali.
*'''Esperimento sul campo''' (field experiment): contesto naturale, possono essere coinvolti altri fattori. Si tratta di esperimenti che sono stati applicati nelle scienze politiche. I principi rimangono gli stessi con una distribuzione casuale dei soggetti in due gruppi; la variabile indipendente viene manipolata e poi si determina se c'è stato un effetto del trattamento sul gruppo sperimentale e non sul gruppo di controllo. In questo modo è possibile evitare di criticare l'artificialità degli esperimenti di laboratorio.
*'''Disegno quasi-sperimentale''' (quasi-experiment): questo disegno tiene presente che il ricercatore manipola la variabile indipendente, ma non ci sono allocazioni casuali di soggetti ad un gruppo sperimentale e ad un gruppo di controllo. Se lo facciamo, è perché non possiamo distribuirci a caso in due gruppi, siamo costretti a prendere i gruppi effettivamente esistenti. In altre parole, il ricercatore controlla il trattamento, ma non può assegnare i soggetti in modo casuale. A volte, quando siamo sul campo, è difficile fare le cose in modo diverso. Di solito questo è il metodo che usiamo, perché c'è un fattore che non possiamo controllare.
   
   
On veut expliquer le vote (<math>Y</math>), mais le vote est influencé par plusieurs facteurs qui jouent un rôle comme l’éducation, mais c’est la classe sociale qui engendre une multicausalité. L’idée est de constater l’effet de l’exposition à la campagne de télévision sur les électeurs. Ainsi on trouve une relation très forte entre <math>X</math> et <math>Y</math>. Peut-on faire confiance à la covariation entre <math>X</math> et <math>Y</math> ?
=== Esempio ===
Uno psicosociologo ha voluto testare gli effetti degli obiettivi collettivi sulle relazioni interpersonali. Voleva vedere fino a che punto, quando a un gruppo di persone viene detto che c'è un obiettivo, stereotipi negativi in conflitto scompaiono. È un'esperienza immediata in condizioni naturali. Ha lasciato che i bambini interagissero tra loro, i bambini collaborano tra loro; il ricercatore ha cercato di creare un'identità collettiva e ha diviso il gruppo in due in modo casuale. Li ha fatti giocare a calcio; abbiamo visto emergere rivalità e persino stereotipi negativi nei confronti dell'altra squadra. Poi ha rimesso insieme il gruppo e ha ridefinito un obiettivo comune che richiede cooperazione. In seguito, ha notato che questi conflitti, gli stereotipi negativi e le ostilità si sono trasformati in una vera e propria cooperazione.
Les électeurs qui ont suivi la campagne en télévision (<math>X</math>) ont voté plus nombreux pour un des deux candidats (<math>Y</math>). On pourrait dire que l'exposition à la campagne produit le vote, mais il faut tenir en compte que : les électeurs plus âgés (<math>Z</math>) regardent plus souvent la télévision, donc l’âge influence le vote (vieux droite, jeunes gauche).
 
   
== Metodo statistico ==
L’âge (Z) influence à la fois l’exposition à la campagne en télévision (<math>X</math>), les plus âgés restent à la maison et regardant la télé, et le vote pour un des deux candidats (<math>Y</math>).
Non possiamo fare un disegno di ricerca che a priori ci permette di verificare se ci sono relazioni di correlazione, ma dobbiamo farlo dopo il fatto.
   
   
Ainsi, la covariation entre <math>X</math> et <math>Y</math> n’est pas vérifiée, car la variable <math>Z</math> influence les deux autres variables en même temps. Pour cela il faut introduire une variable de contrôle.
*'''manipolazione concettuale (matematica) di dati empiricamente osservati''': abbiamo dati osservazionali o cerchiamo di controllare per controllo statistico, con correlazioni parziali. Si distingue tra dati sperimentali e osservazionali.
*'''correlazioni parziali''': correlazione tra due variabili una volta lasciata l'analisi, cioè il controllo dell'effetto di altre variabili che potrebbero influenzare ciò che si vuole spiegare. In altre parole, significa fare le altre Z come se fossero costanti a seguito di un processo di depurazione. E' una logica di controllo delle variabili: controlliamo le variabili che possono influenzare ciò che vorremmo spiegare. Nell'esempio sul voto, dovrebbe essere preso in considerazione tutto ciò che potrebbe spiegare il voto, soprattutto se si può presumere che questo fattore esterno possa influenzare sia il voto che la variabile indipendente (esposizione mediatica). In questo modo possiamo sapere se ci stiamo avvicinando a un effetto causale.  Tradotto con www.DeepL.com/Translator
   
   
On va s'intéresser à des facteurs qui de manière plausible expliquent ce que nous voulons expliquer.
L'importante è andare oltre la semplice analisi bivariata; è necessario passare ad un'analisi multivariata dove altre variabili sono introdotte nel modello esplicativo.


=== Exemple 2 ===
== Metodo comparativo  ==
Par exemple, si on s’intéresse au nombre de frigos et au niveau de démocratie, prétendre d’un lien entre les deux n’est pas pertinent. Cependant on pourrait expliquer qu’une troisième variable qui serait le degré d’urbanisation engendre la démocratie selon certaines théories et fait en même temps augmenter le nombre de frigos. Ainsi la covariation n’est pas une relation de cause à effet, car il y a une troisième variable qui influence les deux et qui est une relation de cause à effet.
Tutta la ricerca nel campo delle scienze sociali è per sua natura comparativa. Confrontiamo sempre qualcosa in modo implicito o esplicito. Ci si può chiedere quali siano gli obiettivi del confronto. Abbiamo visto che gli obiettivi di qualsiasi metodo scientifico cercano di stabilire proposizioni empiriche generali controllando tutte le altre variabili, ma secondo alcune, come Tilly, ci sono quattro obiettivi per il confronto, cioè il confronto delle unità di osservazione.


=== Exemple 3 ===
Gli obiettivi del confronto secondo Charles Tilly sono:
Si la participation politique (<math>Y</math>) est expliquée par l’engagement associatif (<math>X</math>) on pourrait penser que cette relation est rendue fallacieuse du fait qu’il y ait une autre variable qui influence à la fois la participation et l’engagement associatif. Cette variable (<math>Z</math>) pourrait être la participation politique. À nouveau il y a relation fallacieuse ; on ferait une erreur si on conclut à partir de la simple observation de cette relation qu’il y a un lien de cause à effet entre <math>X</math> et <math>Y</math> parce qu’on n’a pas contrôlé l’effet d’une autre variable.
*'''Individualizzazione (individualizing)''': l'obiettivo è quello di evidenziare ed evidenziare le caratteristiche di una data unità di analisi su un certo fenomeno; l'idea è quella di trovare confronti, di dare specificità ad un dato caso di esempio; negli studi di politica comparativa, il caso è il paese, i paesi sono confrontati; l'obiettivo è, ad esempio, di mostrare alcune caratteristiche del sistema politico svizzero rispetto ad altri paesi. La democrazia diretta determina i valori politici; la democrazia diretta svizzera può essere confrontata con paesi che non ne dispongono. Possiamo analizzare l'impatto di questa caratteristica sulle persone. Caratterizzare, individualizzare, personalizzare, rendere più specifiche le caratteristiche di un paese rispetto ad un altro.
*'''Generalizzare (generalizing)''' : non confrontiamo per individualizzare, ma per generalizzare, includiamo il maggior numero di casi, stabiliamo proposte empiriche generali. Per alcuni, la generalizzazione è uno dei due obiettivi principali del metodo comparativo. Studiamo i comportamenti che confrontiamo, vogliamo vedere se le configurazioni e gli effetti che troviamo in un contesto si trovano in un altro contesto.
*'''Ricerca di variazioni sistematiche (variation finding)''': l'obiettivo è quello di cercare variazioni sistematiche e testare una teoria scartando le teorie concorrenti da quella che si vuole evidenziare. Secondo Tilly, questo è il modo migliore per fare un confronto. Cerchiamo di testare un'ipotesi causale, quindi escludiamo ipotesi rivali.
*'''Globalizzazione (encompassing)''': l'obiettivo è quello di globalizzare (approccio sistemico) che comprende tutti i paesi del mondo, o tutte le possibili unità di confronto. L'idea è che se si rimuove una di queste unità di confronto, l'intero sistema cambia. Per il professor Giugni, questo non è un approccio comparativo, perché non c'è confronto.
Ci sono diversi obiettivi del confronto; agire sulla selezione dei casi è comparare.


= Deux manières pour contrôler empiriquement une affirmation causale =
Strategie di confronto per cercare variazioni sistematiche (Przeworski e Teune) Si può fare una distinzione tra due strategie di confronto, sono logiche e modi di procedere metodologicamente nella scelta dei casi. Questi sono modi per affrontare la questione della causalità quando sono disponibili dati osservazionali. Viene fatta una distinzione tra due progetti di ricerca comparativa, vale a dire il confronto per caso analogico (simile) e per contro caso (diverso). Ciascuna delle opzioni presenta vantaggi e svantaggi.
Dans le cas de problèmes liés aux relations causales fallacieuses (multicausalité et endogénéité), il y a deux manières de contrôler empiriquement l’affirmation causale.
*'''Confronto tra casi contrastanti (la maggior parte dei sistemi di progettazione diversi)''': scegliamo casi che sono i più diversi possibili
*'''Confronto tra casi analoghi (progettazione di sistemi più simili)''': ha lo scopo di controllare tutte le variabili tranne quella che si vuole analizzare (esempio Francia - Svizzera).


== Analyse de la covariation (donnée d’observation) ==
[[Fichier:Two designs for macro-analytic comparative history (from Stuart Mill).png|700px|vignette|centré|Skocpol, T. et M. Somers (1994). “The Uses of Comparative History in Macrosocial Inquiry”. In Theda Skocpol (éd.), Social Revolutions in the Modern World. Cambridge: Cambridge University Press. ]]Stuart Mill ha riflettuto su come analizzare questo nesso causale. Selezionando diversi casi per raggiungere questo ideale, puntiamo al rapporto di causa-effetto. Ma non siamo nel contesto del controllo statistico. Nel nostro caso, attraverso la selezione dei casi, cerchiamo di avvicinarci a questo ideale.
*'''contrôle''' : transformation des variables étrangères (<math>Z</math>) en constantes, donc elle n'a pas d'effets, car il n'y a pas de covariation, elle ne varie pas. On doit tenir compte des possibilités des relations fallacieuses. (ex. on regarde parmi tous ceux qui vont à l'université dans la classe sociale la plus haute, et après on analyse leur vote ; donc la classe ne va pas jouer un rôle dans l’analyse). On peut faire ce contrôle manuellement.
*'''dépuration''' : contrôle statistique. On fait un modèle statistique, on introduit que la variable <math>X</math>, qui nous intéresse, on introduit des variables avec une forte relation, après on introduit les autres variables de contrôle, et si on trouve encore un effet entre <math>X</math> et <math>Y</math>, cela signifie que la relation n'était pas fallacieuse. Ceci est fait par un ordinateur qui calcule les relations entre toutes les variables et considère aussi toutes les relations de covariation. À la fin il détermine s'il y a une corrélation fallacieuse ou non. Le contrôle statistique est une manière de procéder au contrôle des variables et permet de tester le lien de cause à effet de façon empirique.


== Expériment (données expérimentales) ==
Stuart Mill distingue tra due casi:
C’est la mise en place d’une méthode expérimentale. Dans l'analyse de la covariation on agit une fois qu'on a les données en d’autres termes on manipule après coup les données a priori à partir du dessin de recherche, tandis que dans la méthode expérimentale on agit avant (comment-a-t-on produit les données?). On utilise la méthode expérimentale de manière à éviter une relation fallacieuse, on divise un échantillon en deux groupes et on choisit des individus au hasard. Selon la loi des grands nombres, on peut démontrer que les deux groupes sont semblables, donc, l'unique différence sera la variable indépendante.
*'''The method of agreement''' (the most different system design): la logica è quella di scegliere paesi molto diversi, ma che sono simili su un fattore chiave. C'è una X ovunque. Poi osserviamo Y, poi c'è una somiglianza nella variabile Y che vogliamo spiegare. La logica è quella di dire che stiamo cercando paesi dove troviamo lo stesso fenomeno, che è quello di cui vogliamo dimostrare l'effetto. Osserviamo quello che succede è che ogni volta che c'è la X troviamo la Y. In quel momento, è prodotto da X perché non può essere prodotto da nient'altro, perché gli altri fattori dei paesi sono diversi, non si trova da nessun'altra parte. La logica è quella di scegliere casi molto diversi sulla maggior parte dei fattori a cui si può pensare e poi si vedrà se c'è una compresenza della variabile che si vuole spiegare e di quella che spiega.
'''Conclusion''' : c’est une réflexion autour de la causalité ; on a dit que la question de causalité reste au niveau théorique, on ne peut qu'essayer de se rapprocher de cet idéal. Il faut chercher une corrélation, mais il faut écarter des hypothèses (contre des variables), si on ne le fait pas on peut tomber dans une relation causale fallacieuse.
'''Covariation''' : peut être proche d'une relation causale, mais c'est l'effet d'une <math>Z</math> (variable non-observée) qui influence ce que nous voulons expliquer (dépendant) et ce qui expliquerait ce que nous voulons expliquer (indépendant). Une variable influence les deux autres variables en même temps, il y a aussi la possibilité d’une interaction entre variables explicatives.
   
   
Comment faire le contrôle des variables pour éviter de tomber dans une relation fallacieuse ? On distingue deux manières :
*'''The method of difference''' (the most similar system design): stiamo cercando paesi che sono il piu' simili possibile. Si può operare una distinzione tra casi positivi e negativi. Cercheremo i casi che hanno il fattore A, B e C e i casi negativi che hanno anche A, B e C. Nei casi positivi è presente un fattore che non è presente nei casi negativi. Quindi la votazione è presente quando X è presente e assente quando X è assente. La conclusione è che X è la causa dell'effetto Y, perché la presenza di almeno Y non può essere stata prodotta da A, B e C. Abbiamo reso costanti A, B e C.
*'''analyse de la covariation''' : on observe (données observationnelles) après avoir les données.
Esempio - la maggior parte della progettazione del sistema: ci sono tre casi (1, 2, n); un caso può essere individuale, nazionale, ecc. Abbiamo una serie di qualità per questi casi. Queste sono caratteristiche dei diversi paesi (disoccupazione, sviluppo), X è la variabile indipendente e vogliamo spiegare Y. In questa logica di confronto, i casi sono molto diversi, ma sono simili in una sola proprietà. Quindi questa variabile spiega il fattore, perché è l'unico fattore comune. Nella Tabella 2 abbiamo casi positivi e negativi; questi casi sono perfettamente simili su quanti più attributi, proprietà e variabili possibili, ma c'è una differenza cruciale in ciò che si suppone di spiegare ciò che vogliamo spiegare. C'è un fattore che non è presente. In un caso c'è Y nell'altro passaggio; la differenza è attribuita alla variabile che non lo è in entrambi i casi. Questo metodo cerca di approssimare l'approccio sperimentale, perché è fatto in modo che i due gruppi siano il più possibile vicini (simili ad a, b, c), ma differiscono dalla variabile indipendente, più simile al disegno del sistema. Il professor Giugni preferisce questo modo, perché si avvicina all'ideale di sperimentazione. Un esempio è quello di studiare gli studenti che frequentano il corso nell'arco di due anni e cambiano le diapositive che vengono fornite. Poi, confrontiamo il risultato finale (il punteggio medio) in entrambi i casi.
**'''contrôle''' : on va rendre une variable étrangère en constante, lorsqu’on a une relation supposée entre deux variables qui est rendue fallacieuse, car il y a une troisième variable, on prend une partie des individus qui correspond à la deuxième variable, par exemple, on prend de gens du même âge, pour la relation de comportement entre l’exposition à la télé et le vote. Donc on a contrôlé cette valeur, on l'a rendue constante.
*'''dépuration''' : c'est un contrôle statistique. Dépuration pour toutes les variables.
**'''analyse expérimentale''' : on met en place un design de recherche qui évite l'existence des variables Z qui pourront affecter notre analyse.


= Quatre méthodes scientifiques fondamentales selon Arend Lipjhart =
Esempio - sistema più simile: confronto paesi simili (Francia e Svizzera), e voglio dimostrare che la repressione della polizia francese è più forte, è l'unico fattore che differisce da un paese all'altro. Poi vediamo che la radicalizzazione dei movimenti sociali è più forte in Francia. Il problema è che la "A", cioè i fattori che sono simili tra i due paesi, non sono mai uguali, ma solo simili (questo problema può essere trovato solo con il metodo di progettazione di ricerca più simile, motivo per cui ci sono ricercatori che preferiscono l'altro approccio, in cui è solo necessario trovare le differenze), possiamo solo avvicinarci all'ideale. Inoltre, troviamo il problema dell'endogeneità, cioè sapere quale fattore influenza l'altro.
On peut mentionner trois voire quatre méthodes :
#Méthode expérimentale (se différencie des autres)  
#Méthode statistique
#Méthode comparative
#Étude de cas
Ce sont les trois méthodes fondamentales qui permettent de faire un contrôle des variables dit aussi des « facteurs explicatifs additionnables ». L’objectif est de tester des hypothèses et d’en écarter certaines en concurrence avec d’autres.
Les trois premières méthodes finalement ont toutes pour objectif principal de chercher des relations cause à effet, et cherchent à éliminer le bruit produit par des <math>Z</math> qui pourrait produire une relation fallacieuse, elles ont le même but, mais le poursuivent de façon diffèrent. Les trois établissent des propositions empiriques générales sous contrôle de toutes les autres variables (<math>Z</math>). Ilsveulent s'approcher du lien théorique de cause à effet entre un phénomène observé et des causes potentielles, il y a des degrés de réussite différents, on a vu que la méthode expérimentale et celle qui s’en rapproche le plus, sur les différents facteurs explicatifs. L’idée est d’arriver à une corroboration empirique d’affirmations causales.


== Méthode expérimentale ==
== Caso di studio  ==
È un metodo più qualitativo, si differenzia dagli altri tre metodi in quanto sono più orientati alla ricerca quantitativa-positivista. Ci sono alcune distinzioni fatte da Arend Lipihart, c'è una sorta di scissione, una distinzione tra dati sperimentali e d'altra parte i dati di osservazione.


=== Principes ===
Mentre il metodo sperimentale si basa sull'idea di un gran numero, il metodo comparativo un numero di casi che possono variare, il caso studio si basa su un solo caso. Tuttavia, è possibile prendere in considerazione un caso di studio che può coprire più di un caso, in quanto il confine è a volte flessibile.
*'''Attribution aléatoire''' : on prend au hasard, tous les individus ont la même chance d'être dans le groupe expérimental ou de contrôle des sujets (dans les groupes expérimentaux et de contrôle non-expérimentale). Cette idée née du principe de la loi des grands nombres : la variable aléatoire est censée écarter toute autre explication.
*'''Manipulation de la variable indépendante''' (traitement), en quoi les groupes sont-ils égaux ? le chercheur, à un certain moment, introduit un input dans l’un des deux groupes.
On sépare deux groupes faisant en sorte que les deux groupes soient pareils sur toutes les dimensions sauf sur un qui est celui sur lequel on veut tester l’effet. Le fait de choisir une personne et de l’attribuer d’une manière aléatoire fait que les deux groupes sont semblables. Si, ensuite, est introduit un traitement dans l’un des deux groupes et qu’on observe un changement qui n’est pas dans le groupe de contrôle, il se peut qu’il y ait un effet causal allant dans une réflexion cause à effet. On peut dès lors conclure qu’il y a un effet causal dans la variable introduite.
=== Types des experiments ===
*'''En laboratoire''' (laboratory experiment) : ce sont les expériences faites dans des laboratoires puis on divise les individus en groupes auxquels on applique des stimulus pour arriver à une constatation de l’effet ou du non-effet. Cependant, on sort les individus de leurs conditions naturelles pouvant mener à des résultats relevant de l’artificialité des conditions expérimentales.
*'''Sur le champ''' (field experiment) : contexte naturel, il peut y avoir d’autres facteurs qui interviennent. Ce sont des expérimentations qui ont été appliquées en science politique. Les principes restent les mêmes avec une distribution aléatoire des sujets en deux groupes ; on manipule la variable indépendante et ensuite on constate s’il y a eu un effet du traitement sur le groupe expérimental et non pas sur le groupe de contrôle. Dès lors on peut éviter la critique de l’artificialité des expérimentations en laboratoire.
*'''Dessin quasi-expérimental''' (quasi-experiment) : ce dessin garde à l’idée que le chercheur manipule la variable indépendante, mais il n’y a pas d’attributions aléatoires des sujets à un groupe expérimental et un groupe de contrôle. Si on fait cela, c’est qu’on ne peut pas distribuer aléatoirement en deux groupes, on est forcé de prendre les groupes qui existent en réalité. En d’autres termes, le chercheur contrôle le traitement, mais ne peut pas attribuer les sujets de manière aléatoire. Parfois, quand nous sommes sur le terrain, il est difficile de faire différemment. Généralement c'est cette méthode qu'on utilise, car il y a un facteur que nous ne pouvons pas contrôler.
=== Exemple ===
Un psychosociologue a voulu tester les effets des objectifs collectifs sur les relations interpersonnelles. Il voulait voir dans quelle mesure, lorsqu’on dit à un groupe de personne qu’il y a un objectif, les stéréotypes négatifs conflictuels disparaissent. C’est une expérience sur-le-champ dans des conditions naturelles. Il a laissé les enfants interagir entre eux, on fait coopérer les enfants entre eux ; le chercheur a essayé de créer une identité collective et a subdivisé le groupe en deux de manière aléatoire. Il les a fait jouer au football ; on a constaté l’émergence de rivalités voire même de stéréotypes négatifs vis-à-vis de l’autre équipe. Ensuite, il a remis le groupe ensemble est il a redéfini un objectif commun qui requiert la coopération. Après coup il a constaté que ces conflits, ces stéréotypes négatifs, ces hostilités se transformaient en une véritable coopération.


== Méthode statistique ==
Il caso di studio è solo lo studio di un caso, non ha alcun confronto. Un caso può essere costituito da molte cose come una festa, una persona o un paese. Cerchiamo di studiare un caso particolare in modo approfondito, ma non in modo estensivo come gli altri tre metodi che non studiano i casi in modo così approfondito.
On ne peut pas faire un dessin de recherche qui a priori permette de tester s’il y a des relations de corrélations, mais on doit le faire après coup.
*'''manipulation conceptuelle (mathématique) de données observées empiriquement''' : on a des données d'observation ou on essaie de contrôler par contrôle statistique, avec les corrélations partielles. On fait une distinction entre les données expérimentales et les données d’observation.
*'''corrélations partielles''' : corrélation entre deux variables une fois qu’on est sorti de l’analyse, c’est-à-dire contrôler l’effet d’autres variables qui pourraient influencer ce que l’on veut expliquer. En d’autres termes c’est rendre les autres Z comme si elles étaient des constantes suite à un processus de dépuration. C’est une logique de contrôle des variables : on contrôle les variables qui pourraient influencer ce qu’on voudrait expliquer. Dans l’exemple sur le vote, tout ce qui pourrait expliquer le vote devrait être pris en considération surtout si on peut penser que ce facteur externe peut influencer à la fois le vote et la variable indépendante (exposition médiatique). Ainsi on peut savoir si on se rapproche d’un effet causal.
Ce qui est important est d’aller au-delà d’une simple analyse bivariée ; il faut aller vers une analyse multivariée ou on introduit dans le modèle explicatif d’autres variables.


== Méthode comparative ==
In altre parole, il grande vantaggio del caso di studio è che si può andare molto più a fondo nella conoscenza del caso. Uno studio di caso è per definizione intensivo, mentre lo studio quantitativo è ampio. Un metodo si basa su standard con l'idea di generalizzare mentre l'altro si basa su un'interpretazione approfondita di un caso specifico.
Toute recherche en science sociale est de par sa nature comparative. On compare toujours implicitement ou explicitement quelque chose. On peut s'interroger sur les objectifs de la comparaison. Nous avons vu que les objectifs de toute méthode scientifique essaient d'établir des propositions empiriques générales en contrôlant toutes les autres variables, mais selon certains, comme Tilly, il y a quatre objectifs à la comparaison, c’est-à-dire que l'onconfronte des unités d’observation.
Les buts de la comparaison selon Charles Tilly sont :
*'''Individualiser (individualizing) – comparaison individualisante''' : le but est de souligner et de mettre en lumière les caractéristiques d’une unité d’analyse donnée sur un certain phénomène ;l’idée est de trouver des comparaisons, pour donner une spécificité à un certain cas donné exemple - dans les études de politique comparative, le cas est le pays, on compare des pays ; le but est par exemple de montrer certaines caractéristiques du système politique en Suisse par rapport aux autres pays. La démocratie directe détermine des valeurs politiques ; on peut comparer la démocratie directe suisse avec des pays qui ne l'ont pas. On pourra analyser l'impact de cette caractéristique sur les gens. Caractériser, individualiser, rendre plus spécifiques les caractéristiques d'un pays par rapport à un autre.
*'''Généraliser''' (generalizing) : on compare non pour individualiser, mais pour généraliser, on inclut le plus grand nombre de cas, établir des propositions empiriques générales. Pour certains, la généralisation est l’un des deux objectifs principaux de la méthode comparative. On étudie des comportements que l’on compare, on veut voir si les configurations et les effets que l’on trouve dans un contexte sont retrouvés dans un autre contexte.
*'''Chercher des variations systématiques''' (variation-finding) : le but est de chercher des variations systématiques et tester une théorie en écartant des théories concurrentes de celle qu'on veut mettre en évidence. Selon Tilly c'est la meilleure manière de comparer. On essaie de tester une hypothèse causale, ainsi on écarter des hypothèses rivales.
*'''Globaliser''' (encompassing) : le but est de globaliser (approche systémique) on inclut tous les pays du monde, ou toutes les unités de comparaison possible. L'idée est que si on enlève une de ces unités de comparaison, tout le système change. Pour le professeur Giugni, ceci n'est pas une approche comparative, car on ne compare pas.
Il y a des objectifs différents de la comparaison ; agir sur la sélection des cas c'est comparer.
Stratégies de comparaison pour chercher des variations systématiques (Przeworski et Teune)
On peut faire une distinction entre deux stratégies de comparaisons, ce sont des logiques et des manières de procéder méthodologiquement dans le choix des cas. Ce sont des manières de traiter la question de la causalité lorsqu'on possède des données d'observation. On fait une distinction entre deux designs de recherche comparatifs, c'est la comparaison par cas analogue (similar) et par cas contraste (different). Chacune des possibilités a ses avantages et désavantages.
*'''Comparaison entre cas contrastés''' (most different systems design) : on choisit des cas qui sont les plus différents possibles
*'''Comparaison entre cas analogues''' (most similar systems design) : vise à contrôler toutes les variables sauf celle qu'on veut analyser (exemple France - Suisse).


[[Fichier:Two designs for macro-analytic comparative history (from Stuart Mill).png|700px|vignette|centré|Skocpol, T. et M. Somers (1994). “The Uses of Comparative History in Macrosocial Inquiry”. In Theda Skocpol (éd.), Social Revolutions in the Modern World. Cambridge: Cambridge University Press. ]]
Se il metodo statistico mira a generalizzare, il caso studio per definizione non consente la generalizzazione, l'obiettivo è un altro. Esistono diversi studi di caso e diversi modi di condurre un caso studio. Possiamo citare 6 varianti:
* i primi due dei quali sono destinati a concentrarsi sul caso specifico.
Stuart Mill a réfléchi sur la manière d’analyser ce lien causal. En sélectionnant des cas différents pour arriver à cet idéal, on vise à la relation cause à effet. Mais nous ne sommes pas dans le contexte de contrôle statistique. Dans notre cas, à travers la sélection de cas, on essaie de se rapprocher de cet idéal.
* le altre quattro modalità hanno l'obiettivo di creare o generare una teoria.
Il caso studio può essere utilizzato per raggiungere diversi obiettivi, da un lato si vuole conoscere meglio una particolare situazione in modo descrittivo, dall'altro si possono studiare diversi casi che permettono di generare una teoria a lungo termine.
Stuart Mill distingue deux cas :
*'''The method of agreement''' (the most different system design): la logique est de choisir des pays très différents, mais qui se ressemblent sur un facteur clef. Il y a X qui est présent partout. Ensuite on observe Y, puis il y a une similarité au niveau de la variable Y que l’on veut expliquer. La logique est de dire qu’on cherche des pays ou on retrouve le même phénomène qui est celui dont on veut prouver l’effet. On observe ce qui se passe est qu’à chaque fois qu’il y a X on retrouve Y. Y a ce moment-là est produit par X parce qu’il ne peut pas être produit par autre chose, car les autres facteurs des pays sont différents, on le retrouve nul part ailleurs. La logique est de choisir des cas très différents sur la plupart des facteurs auxquels on peut penser et ensuite on va voir s’il y a coprésence de la variable que l’on veut expliquer et celle qui explique.
*'''The method of difference''' (the most similar system design): on cherche des pays qui se ressemble le plus possible. On peut distinguer entre les cas positifs et négatifs. On va chercher des cas qui on le facteur A, B et C et des cas négatifs qui ont aussi A, B et C. Dans les cas positifs il y a un facteur présent qui n’est pas présent dans le cas négatif. Ainsi le vote est présent lorsque X est présent et absent lorsque X est absent. La conclusion est que X est la cause de l’effet Y, parce que la présence au moins de Y ne peut pas avoir été produite par A, B et C. On a rendu A, B et C en constante.


Exemple - most different system design : on a trois cas (1, 2, n) ; un cas peut être des individus, pays, etc. On a un nombre de qualités pour ces cas. Ceci sont des caractéristiques de différents pays (chômage, développement), X est la variable indépendante et on veut expliquer Y. Dans cette logique de comparaison, les cas sont très différents, mais ne sont similaires que dans une propriété. Donc cette variable explique le facteur, car il est l'unique facteur commun. Dans le tableau 2 on a des cas positifs et négatifs ; ces cas sont parfaitement semblables sur un nombre le plus élevé possible d’attributs, propriétés et variables, mais il y a une différence cruciale dans ce qui est censé d'expliquer ce que nous voulons expliquer. Il y a un facteur qui n'est pas présent. Dans un cas il y a Y dans l'autre pas ; on attribue la différence à la variable qui n'est pas dans les deux cas. Cette méthode essaie de se rapprocher de la démarche expérimentale, car il est fait en sorte que les deux groupes soient le plus proche possibles (ressemblent a, b, c), mais ils diffèrent avec la variable indépendante, most similar system design. Le professeur Giugni préfère cette manière, car elle se rapproche de l'idéal de l'expérimentation. Un exemple est d’étudier sur deux années des étudiants qui assistent au cours et de changer les diapositives qui sont données. Ensuite, on compare le résultat final (la note moyenne) dans les deux cas.
Secondo Arend Lipihart, lo scopo della ricerca è quello di testare e verificare una teoria e di generalizzare i risultati.
Exemple - most similar system design : je compare des pays que se ressemblent (la France et la Suisse), et je veux démontrer que la répression policière françaises est plus forte, c'est l'unique facteur diffèrent entre deux pays. Ensuite nous constatons que la radicalisation des mouvements sociaux est plus forte en France. Le problème est que les «A» à savoir les facteurs qui se ressemblent entre les deux pays, ne sont jamais égaux, mais seulement se ressemblent (ce problème ne se rencontre qu’avec la méthode du most similar research design, c’est pour cela qu’il y a des chercheurs qui préfèrent l'autre approche, dans lequel il ne faut que trouver les différences), on ne peut que se rapprocher à l'idéal. De plus nous retrouvons le problème de l'endogénéité c’est-à-dire de savoir quel facteur influence l'autre.


== Étude de cas ==
Questi due casi non vogliono creare ipotesi, l'idea è quella di far luce su qualcosa in relazione a un caso:
C’est une méthode plus qualitative, elle diffère des trois autres méthodes, car elles s‘orientent plus vers la recherche quantitative-positiviste. Il y a quelques distinctions faites par Arend Lipihart, il y a une sorte de clivage, une distinction entre les données expérimentales et d’autre part les données d’observations.
*'''ateorico''': non c'è teoria, è puramente descrittivo. Si tratta di ricerca esplorativa, ad esempio, lo studio di una nuova organizzazione, vogliamo solo conoscerla e descriverla, nel qual caso non possiamo generalizzare i risultati, perché sono legati ad un caso particolare studiato. Viene utilizzato in situazioni o casi che non sono mai stati studiati prima.
*'''interpretativo''': usiamo proposte teoriche che esistono in letteratura, in questo approccio qualitativo il ruolo della letteratura è meno importante, applichiamo una generalizzazione esistente ad un caso dato, qui il caso riguarda un caso specifico, senza la volontà di creare una teoria proprio come l'ateo. L'obiettivo non è di confermarlo o negarlo, ma solo di applicarlo. Le proposte o teorie esistenti sono utilizzate e applicate ad un caso; le generalizzazioni esistenti sono applicate ad esso per vedere se la generalizzazione è basata su quel caso specifico. Una situazione particolare viene interpretata alla luce di una teoria esistente.
Alors que la méthode expérimentale s’appuie sur l’idée de grand nombre, la méthode comparative un certain nombre de cas qui peuvent varier, l’étude de cas ne s’appuie que sur un seul cas. Toutefois on peut envisager une étude de cas qui peut s’étendre sur plus d’un cas, car la frontière est parfois souple.
L'étude de cas n'est que l'étude d'un seul cas, il n'a pas de la comparaison. Un cas peut être beaucoup des choses comme un parti, une personne ou encore un pays. On essaie d'étudier en profondeur un cas particulier, mais pas de façon extensive comme les trois autres méthodes qui n’étudient pas les cas autant en profondeur.
En d’autres termes, le grand avantage de l’étude de cas est qu’on peut aller beaucoup plus en profondeur dans la connaissance du cas. Une étude de cas est par définition intensive alors que l’étude quantitative est extensive. Une méthode est basée sur la standardisions avec l’idée de généraliser tandis que l’autre s’appuie sur l’interprétation en profondeur d’un cas spécifique.
Si la méthode statistique a pour objectif de généraliser, l’étude de cas par définition ne permet pas de généralisation, l’objectif est un autre. Il existe différentes études de cas et différentes modalités afin de mener une étude de cas. On peut en mentionner 6 variantes :
*les deux première ayant pour objectif de s’intéresser au cas précis.
*les quatre autres modalités ont un objectif de créer ou générer une théorie.
L’étude de cas peut servir pour atteindre des buts différents, d’une part on veut connaitre mieux une situation particulière de manière descriptive, d’autre part on peut étudier plusieurs cas permettant de générer à terme une théorie.
Selon Arend Lipihart, le but de la recherche est de tester et vérifier une théorie ainsi que de généraliser des résultats.
Ces deux cas ne veulent créer des hypothèses, l’idée est d'éclairer quelque chose par rapport à un cas :
*'''athéorique''' : il n’y a pas de théorie, c’est purement descriptif. C'est une recherche exploratoire, par exemple, l'étude d'une nouvelle organisation, on ne veut que la connaître et la décrire, dans ce cas on ne peut pas généraliser les résultats, car ils sont liés à un cas étudié en particulier. On l’utilise dans des situations ou des cas qui n’ont jamais été étudiés auparavant.
*'''interprétatif''' : on utilise des propositions théoriques qui existent dans la littérature, dans cette démarche qualitative le rôle de la littérature est moins important, on applique une généralisation existante à un cas donné, ici le cas porte sur un cas précis, sans volonté de créer une théorie tout comme l'athéorie. L'objectif n'est pas de confirmer ou de l'infirmer, mais c'est de l'appliquer seulement. On utilise des propositions ou des théories existantes qu’on applique à un cas ; on lui applique des généralisations existantes afin de voir si la généralisation tient de ce cas spécifique. On interprète une situation particulière à la lumière d’une théorie existante.
   
   
Le quatre qui suivent veulent créer une théorie ou tirer quelque chose des cas. Leur objectif est de créer ou de générer des théories ou des hypothèses :
I prossimi quattro vogliono creare una teoria o trarre qualcosa dai casi. Il loro obiettivo è quello di creare o generare teorie o ipotesi:
*'''générant des hypothèses''' : on veut de créer des hypothèses là où il n'y en a pas. J’étudie un cas pas seulement parce qu’il m'intéresse, mais parce que je veux formuler des hypothèses que je vais après tester ailleurs. Ex : d'organisation qui s'engage en politique. On étudie une situation donnée, car on veut des hypothèses qu’on n’arrive pas à trouver par ailleurs. On explore un cas dans l’objectif de formuler des hypothèses. Les hypothèses ont essentiellement trois sources : la littérature existante, l’imagination sociologique, les études exploratoires.
*'''generare ipotesi''': vogliamo creare ipotesi dove non ce ne sono. Studio un caso non solo perché mi interessa, ma perché voglio formulare ipotesi che proverò altrove. Ad esempio: un'organizzazione che si occupa di politica. Studiamo una data situazione perché vogliamo ipotesi che non possiamo trovare altrove. Si esplora un caso per formulare ipotesi. Le ipotesi hanno essenzialmente tre fonti: letteratura esistente, immaginazione sociologica, studi esplorativi.
*'''confirmant une théorie''' : tester une théorie sur un cas particulier pour confirmer cette théorie, ce type d'étude de cas n'est pas très utile, car ce n'est pas le fait qu’il y ait un cas qui reflète une théorie existante qui va renforcer la théorie faisant que ce système n'est pas très utile.
*'''confermando una teoria''': testando una teoria su un caso particolare per confermare questa teoria, questo tipo di studio di caso non è molto utile, perché non è il fatto che c'è un caso che riflette una teoria esistente che rafforzerà la teoria che rende questo sistema poco utile.
*'''infirmant une théorie''' : ceci a beaucoup plus de valeur, il y a une théorie qui est appliquée dans un cas spécifique, on ne cherche pas à confirmer la théorie, mais prouver qu'elle ne fonctionne pas, on cherche à infirmer une théorie. Ceci nous pousse à réfléchir sur la théorie, c’est quelque chose d’important dans le but d'élaborer une théorie.
*'''invalidare una teoria''': questo è molto più prezioso, c'è una teoria che viene applicata in un caso specifico, non cerchiamo di confermare la teoria, ma per dimostrare che non funziona, cerchiamo di invalidare una teoria. Questo ci porta a pensare alla teoria, è qualcosa di importante per sviluppare una teoria.
*'''cas déviant''' : pourquoi un cas dévie de la généralisation, ce cas est très utile quand on veut infirmer une théorie. On cherche une situation qui dévie d’une situation existante, l’étude de cas cherche à montrer pourquoi ce cas dévie de la généralisation.
*'''caso deviante''': perché un caso si discosta dalla generalizzazione, questo caso è molto utile quando si vuole confutare una teoria. Stiamo cercando una situazione che si discosta da una situazione esistente, il caso studio cerca di mostrare perché questo caso si discosta dalla generalizzazione.


= Annexes =
= Allegati =
*[http://www.nyu.edu/gsas/dept/politics/faculty/wood/wood_home.html Elisabeth Wood] - An Insurgent Path to Democracy: Popular Mobilization, Economic Interests and Regime Transition in South Africa and El Salvador," Comparative Political Studies, October 2001. Translation published in Estudios Centroamericános, No. 641-2, 2002. url: http://cps.sagepub.com/content/34/8/862.short
*[http://www.nyu.edu/gsas/dept/politics/faculty/wood/wood_home.html Elisabeth Wood] - An Insurgent Path to Democracy: Popular Mobilization, Economic Interests and Regime Transition in South Africa and El Salvador," Comparative Political Studies, October 2001. Translation published in Estudios Centroamericános, No. 641-2, 2002. url: http://cps.sagepub.com/content/34/8/862.short


= Références =
= Riferimenti =
<references />
<references />



Version actuelle datée du 15 février 2019 à 00:59


Sfide all'inferenza empirica nelle scienze politiche[modifier | modifier le wikicode]

Definizione[modifier | modifier le wikicode]

  • inferire: trarre conclusioni generali da fatti, dati osservazionali e dati sperimentali. Un contesto di inferenza empirica esiste quando si vogliono stabilire legami e relazioni tra fattori esplicativi e spiegare sulla base di dati concreti o empirici.
  • causalità: Come giudicare le relazioni causa-effetto è una questione centrale, specialmente nella metodologia.
  • empirico: trarre conclusioni generali da prove empiriche.

Le tre sfide[modifier | modifier le wikicode]

Multi-causalità[modifier | modifier le wikicode]

  • presque tout à un impact : c'est déterminé par une multiplicité de causes possibles ; ex, le comportement de vote politique n'est pas déterminé par une cause, il y a plusieurs facteurs. Un exemple est le niveau d'éducation, mais il y a d‘autres facteurs contextuels qui interviennent : sexe, position dans les classes.
  • chaque phénomène a plusieurs causes : on peut difficilement défendre une position qui dit qu’un phénomène donné n’a qu’une seule cause. Lorsqu’il y a plusieurs facteurs, cela complique la tâche.

Condizionalità del contesto[modifier | modifier le wikicode]

Collegato al benchmarking; esiste un canale istituzionale che permette ai cittadini di partecipare, il che aiuta a spiegare perché le persone partecipano in Svizzera, ma non in altri paesi dove non esiste una democrazia diretta. Le cause di un fenomeno possono variare da un contesto all'altro. Il legame tra classe e voto dimostra che c'è condizionalità nel contesto e modifica il rapporto che può esistere tra due fattori che possono essere studiati. Ci sono effetti variabili nel contesto.

  • L'effetto di quasi tutto dipende da quasi tutto il resto.
  • Gli effetti di ciascuna causa tendono a variare da un contesto all'altro.

Endogeneità[modifier | modifier le wikicode]

Cause ed effetti si influenzano a vicenda; questo è il problema maggiore negli studi empirici, specialmente quelli che seguono l'approccio dell'osservazione. Ad esempio: l'interesse politico influenza la partecipazione (forte correlazione tra interesse (indipendente) e partecipazione (dipendente)). Il problema è che la causalità può essere invertita: "ciò che voglio spiegare può spiegare ciò che si suppone spieghi ciò che volevo spiegare".

È la difficoltà di distinguere tra "ciò che voglio spiegare" e il fattore che spiega questo fenomeno. La causa diventa un effetto e viceversa.

  • Quasi tutto causa quasi tutto il resto.
  • Cause ed effetti si influenzano a vicenda.

Spesso è difficile dire in quale direzione vada la causalità che si vuole applicare.

Il concetto di causa[modifier | modifier le wikicode]

Article détaillé : L’inférence causale.

Determinazione del rapporto di causalità[modifier | modifier le wikicode]

Nell'approccio scientifico delle scienze sociali, l'obiettivo è quello di determinare le relazioni causali.

"Se C (causa), allora E (effetto).[modifier | modifier le wikicode]

Non e' abbastanza! Il rapporto tra C ed E può a volte o sempre essere utile. Esempio - Dobbiamo essere un po' più specifici. Se diciamo che se c'è un alto livello di istruzione, possiamo dire che c'è un livello di partecipazione più elevato. Si sostiene che se c'è C allora c'è E, non c'è univocità del rapporto mentre il rapporto di causa ed effetto deve essere univoco.

"Se C, allora (e solo allora) sempre E.[modifier | modifier le wikicode]

In questo caso ci sono le quattro caratteristiche della relazione causa-effetto:

  • Condizionalità: effetto a condizione che vi sia una causa.
  • Successione: prima la causa, poi l'effetto.
  • Coerenza: "Sempre" ogni volta che la causa è presente, si osserva anche l'effetto.
  • Univocità: il legame è unico.

Vengono introdotti elementi importanti per definire che cos'è una causa. - non è ancora abbastanza! Esempio: se il livello di istruzione è alto, allora e solo allora c'è sempre una maggiore partecipazione.

Tuttavia, secondo alcuni, nell'epistemologia della scienza, manca l'elemento che consiste nel dire che ci deve essere un legame genetico, un legame nella produzione dell'effetto dovuto alla causa.

"Se C, allora (e solo allora) E sempre prodotto da C".[modifier | modifier le wikicode]

VERO: Un dato effetto non solo deve essere correlato ad una causa, ma l'effetto deve essere prodotto e generato da quella causa. La distinzione è più filosofica che sostanziale.

Definizione di cosa sia una causa[modifier | modifier le wikicode]

  • è generato da , quindi non basta osservare una covarianza tra una causa ed un effetto, ma è necessario, per parlare di causa, che l'effetto sia generato dalla causa.
  • La causa deve produrre l'effetto. (ad esempio, se si ha un alto livello di istruzione, questo genera la partecipazione alla politica).

Fondamentalmente, nel contesto del pensiero causale, appartiene solo al livello teorico. Quando parliamo di causa, siamo su un piano puramente teorico e non empirico. Pertanto, non si può mai dire che empiricamente, una variazione di produce una variazione di .

Non possiamo mai riuscire a stabilire relazioni di causa-effetto a livello teorico, possiamo farlo solo a livello empirico.

Se osserviamo empiricamente, sulla base dei dati, che una variazione di e regolarmente seguita da una variazione di ,

possiamo dire che c'è un elemento di conferma empirica di un'ipotesi causale. Occorre distinguere tra il livello teorico e il livello causale, che è il livello empirico che può essere affrontato solo attraverso lo studio delle covariazioni.

In altre parole, se osserviamo che una variazione di e regolarmente seguita da una variazione di, c'è un elemento di corroborazione, ma ogni altra possibile causa deve ancora essere eliminata. Empiricamente, il compito è quello di dire che vogliamo trovare una covariata, ma poiché c'è la multicausalità, come possiamo assicurarci che questa covariata esista realmente e affermare che abbiamo un elemento di corroborazione empirica dell'assunzione del rapporto di causa-effetto?

Corrosione empirica di una relazione causale[modifier | modifier le wikicode]

Se osserviamo empiricamente che una variazione di è regolarmente seguita da una variazione di mantenendo costanti tutti gli altri. (altre cause e fattori esplicativi) esiste un forte elemento di corroborazione scientifica dell'ipotesi che o la causa di .

Nella ricerca empirica non potremmo mai parlare di causa ed effetto; dobbiamo tenere presente che il rapporto di causa-effetto rimane nell'ambito della teoria, empiricamente possiamo avvicinarci solo in certe condizioni, trovando la covarianza e mantenendo costanti gli altri fattori.

  1. covarianza tra variabili dipendenti (dipende) e indipendenti (causa, non dipende da nient'altro): entrambe devono variare.
  2. direzione causale: è necessario dare una direzione alla causalità, il problema dell'endogeneità.
  3. Impossibilità logica: se si ha una teoria della classe sociale che influenza l'orientamento politico, è ovvio che è la classe che determina. La causalità non può essere invertita.

Va ricordato che nelle scienze sociali vogliamo muoverci verso un'idea di spiegazione causale. Tuttavia, questo non può mai essere fatto, perché sul piano epistemologico l'idea di causa ed effetto è a livello teorico. A livello empirico, possiamo parlare solo di "variazione", ma in certe condizioni possiamo confermare, cioè verificare empiricamente una relazione causale.

Corrosione empirica di una relazione causale[modifier | modifier le wikicode]

Ci sono tre condizioni da soddisfare per verificare empiricamente una relazione causale.

Covariazione tra variabili indipendenti e dipendenti[modifier | modifier le wikicode]

  • variazione della variabile indipendente: questa è la causa () ex: istruzione
  • variazione della variabile dipendente: dipende da , è l'effetto; per esempio, la partecipazione - quello che si suppone che tu debba spiegare deve variare! Anche la variabile indipendente!

Al massimo, la relazione causale teorica può essere corroborata empiricamente.

Direzione causale[modifier | modifier le wikicode]

"Non posso dire se questo e che determina l'attributo o il contrario". Ci sono tre modi per determinare la direzione causale e per avvicinarsi all'ideale teorico per definire una relazione causa-effetto.

  • manipolazione della variabile indipendente: analisi sperimentale, questi sono diversi metodi scientifici fondamentali.
  • successione temporale: ci sono alcune variabili che logicamente precedono altre variabili. Ad esempio, la socializzazione primaria precede (influenza) il comportamento di voto di una persona che ha 30 anni. (in questo caso il problema dell'endogeneità è risolto). In alcuni casi ci sono successioni ovvie. A livello empirico questo è importante per determinare una direzione verso la causalità.
  • impossibilità logica: la classe sociale non determina l'orientamento politico. Ci sono alcuni fattori che non possono dipendere da altri fattori. Ci sono impossibilità logiche che rendono possibile stabilire il rapporto di causa-effetto.

Controllo di variabili esterne[modifier | modifier le wikicode]

Dal punto di vista empirico, si potrebbe dire che il livello di partecipazione politica varia a seconda di diverse variabili. Questo è lo scopo del controllo delle variabili esterne. Si può dire che il 90 per cento di ciò che facciamo nella ricerca nel campo delle scienze sociali è garantire che possiamo controllare l'effetto di fattori esplicativi che non ci interessano. Elemento determinante: controllo delle altre variabili.

  • applicazione della regola "ceteris paribus": il rapporto di causa-effetto può essere determinato sapendo che il resto non è coinvolto, a parità di tutte le altre cose. C'è una relazione tra un dato fenomeno e un altro fenomeno, a parità di tutte le altre cose, cioè dobbiamo fare in modo che tutti gli altri fattori si possano dire controllati o, in altre parole, resi costanti.
  • dipende dalla logica del design della ricerca: è il mio modo di controllare il ruolo di altre potenziali cause che dipendono dal design del modello di ricerca. Dipende dalla logica del design di ricerca; design di ricerca osservazionale. Il modo di aggirare questo problema è diverso a seconda del modello di ricerca. L'obiettivo è quello di controllare l'effetto di altre cause potenziali di cui vogliamo mostrare l'effetto.

Falsa relazione causale[modifier | modifier le wikicode]

Definizione[modifier | modifier le wikicode]

Falsa relazione causale (spiriosa): è una relazione causale apparente, ma inesistente, pensavamo di aver trovato una relazione causale, ma alla fine non c'erano relazioni causali, ma solo una covariata. È una covariata tra due variabili ( ; ) che non risulta da un nesso causale tra e , ma dipende dal fatto che e sono influenzati da una terza variabile . La variazione di produce la variazione simultanea di e senza che ci sia una relazione causale tra i due.

C'è sempre il pericolo che una relazione osservata possa non essere indicativa di una relazione causale.

Assumiamo una relazione causale tra e , ma non e' vero. Il rapporto tra X e Y è fuorviante. C'è una sola covariata, le variabili di controllo devono essere introdotte.

Esempio di relazione causale ingannevole[modifier | modifier le wikicode]

Esempio 1[modifier | modifier le wikicode]

L'intenzione di voto è influenzata da diversi fattori (età, sesso, istruzione, classe sociale, orientamento politico della famiglia, ecc.

Possiamo trovare un collegamento tra l'istruzione () e votare (), ma alla fine è la classe sociale () che li determina entrambi. Pertanto, le variabili di controllo devono essere introdotte! Altrimenti può essere solo una covariata senza nesso causale.

Uso della televisione da parte di due candidati ()

nelle elezioni presidenziali per comunicare il loro programma.

Vogliamo spiegare il voto (), ma il voto è influenzato da diversi fattori che giocano un ruolo come l'istruzione, ma è la classe sociale che genera multicausalità. L'idea è di vedere l'effetto dell'esposizione alla campagna televisiva sugli elettori. Quindi c'è una relazione molto forte tra et . Possiamo fidarci della covarianza tra e  ?

Gli elettori che hanno seguito la campagna in televisione () ha votato in numero maggiore per uno dei due candidati (). Si potrebbe dire che l'esposizione alla campagna produce il voto, ma si dovrebbe tener conto di quanto segue: elettori più anziani () guardare la televisione più spesso, quindi l'età influenza il voto (vecchio a destra, giovane a sinistra).

L'età (Z) influenza sia l'esposizione alla campagna in televisione (), i più anziani rimangono a casa, guardano la TV e votano per uno dei due candidati ().

Così, la covarianza tra e non è verificata, perché la variabile

influenza le altre due variabili contemporaneamente. A tal fine è necessario introdurre una variabile di controllo.

Esamineremo i fattori che spiegano in modo plausibile ciò che vogliamo spiegare.

Esempio 2[modifier | modifier le wikicode]

Ad esempio, se siamo interessati al numero di frigoriferi e al livello di democrazia, affermare un legame tra i due è irrilevante. Tuttavia, si potrebbe spiegare che una terza variabile, che sarebbe il grado di urbanizzazione, genera democrazia secondo certe teorie e allo stesso tempo aumenta il numero di frigoriferi. Quindi la covariata non è una relazione di causa-effetto, perché c'è una terza variabile che influenza sia l'una che l'altra ed è una relazione di causa-effetto.

Esempio 3[modifier | modifier le wikicode]

Se la partecipazione politica () si spiega con l'impegno associativo () si potrebbe pensare che questo rapporto sia reso fallace dal fatto che esiste un'altra variabile che influenza sia la partecipazione che l'impegno associativo. Questa variabile () potrebbe essere la partecipazione politica. Anche in questo caso, c'è una relazione fuorviante; sarebbe un errore concludere dalla semplice osservazione di questa relazione che esiste una relazione causale tra y perché l'effetto di un'altra variabile non è stato controllato.

Due modi per controllare empiricamente un'affermazione causale[modifier | modifier le wikicode]

Nel caso di problemi legati a relazioni causali fuorvianti (multicausalità ed endogeneità), ci sono due modi per controllare empiricamente l'affermazione causale.

Analisi della covarianza (dati di osservazione)[modifier | modifier le wikicode]

  • controllo: trasformazione di variabili esterne () in costanti, quindi non ha effetti, perché non c'è covarianza, non cambia. Dobbiamo prendere in considerazione le possibilità di relazioni ingannevoli (ad esempio, guardiamo tra tutti coloro che frequentano l'università nella classe sociale più alta, e poi analizziamo il loro voto; quindi la classe non avrà un ruolo nell'analisi). Questo controllo può essere fatto manualmente.
  • depurazione: controllo statistico. Facciamo un modello statistico, introduciamo che la variabile , ci interessa, introduciamo variabili con una forte relazione, poi introduciamo le altre variabili di controllo, e se troviamo ancora un effetto tra e , significa che il rapporto non era fuorviante. Questo viene fatto da un computer che calcola le relazioni tra tutte le variabili e considera anche tutte le relazioni di co-variazione. Alla fine determina se c'è una falsa correlazione o meno. Il controllo statistico è un modo di controllare le variabili e permette di verificare empiricamente la relazione causa-effetto.

Esperimento (dati sperimentali)[modifier | modifier le wikicode]

E' l'implementazione di un metodo sperimentale. Nell'analisi della covarianza agiamo una volta che abbiamo i dati, cioè manipoliamo i dati a priori dal disegno di ricerca, mentre nel metodo sperimentale agiamo prima (come produciamo i dati?). Il metodo sperimentale è utilizzato per evitare una relazione fuorviante, un campione è diviso in due gruppi e gli individui sono selezionati in modo casuale. Secondo la legge dei grandi numeri, si può dimostrare che i due gruppi sono simili, quindi l'unica differenza sarà la variabile indipendente.

Conclusione: è una riflessione sulla causalità; è stato detto che la questione della causalità rimane a livello teorico, possiamo solo cercare di avvicinarci a questo ideale. Bisogna cercare una correlazione, ma bisogna escludere ipotesi (contro variabili), se non lo si fa si può cadere in una relazione causale fuorviante.

Covariazione: può essere vicino a una relazione causale, ma è l'effetto di un

(variabile non osservata) che influenza ciò che vogliamo spiegare (dipendente) e ciò che spiegherebbe ciò che vogliamo spiegare (indipendente). Una variabile influenza le altre due variabili contemporaneamente, vi è anche la possibilità di un'interazione tra variabili esplicative.

Come controllare le variabili per evitare di cadere in una relazione ingannevole? Ci sono due modi:

  • analisi di covarianza: osserviamo (dati osservazionali) dopo averli avuti.
    • controllo: faremo costante una variabile straniera, quando abbiamo un rapporto presunto tra due variabili che viene reso fallace, perché c'è una terza variabile, prendiamo una parte degli individui che corrisponde alla seconda variabile, ad esempio, prendiamo persone della stessa età, per il rapporto comportamentale tra esposizione televisiva e voto. Così abbiamo controllato questo valore, l'abbiamo reso costante.
  • depurazione: è un controllo statistico. Depurazione per tutte le variabili.
    • analisi sperimentale: abbiamo messo a punto un disegno di ricerca che evita l'esistenza di variabili Z che potrebbero influenzare la nostra analisi.

Quattro metodi scientifici fondamentali secondo Arend Lipjhart[modifier | modifier le wikicode]

Si possono menzionare tre o addirittura quattro metodi:

  1. Metodo sperimentale (si differenzia dagli altri)
  2. Metodo statistico
  3. Metodo comparativo
  4. Caso di studio

Questi sono i tre metodi fondamentali che permettono di controllare le variabili note anche come "fattori esplicativi aggiuntivi". L'obiettivo è quello di verificare le ipotesi ed escluderne alcune in concorrenza con altre.

I primi tre metodi, infine, hanno tutti l'obiettivo principale di ricercare rapporti di causa-effetto e di eliminare il rumore prodotto da che potrebbero produrre un rapporto fuorviante, hanno lo stesso scopo, ma lo perseguono in modo diverso. I tre stabiliscono proposizioni empiriche generali sotto il controllo di tutte le altre variabili (). Vogliono avvicinarsi al rapporto teorico causa-effetto tra un fenomeno osservato e le cause potenziali, ci sono diversi gradi di successo, abbiamo visto che il metodo sperimentale e quello più vicino ad esso, sui diversi fattori esplicativi. L'idea è di arrivare ad una conferma empirica delle affermazioni causali.

Metodo sperimentale[modifier | modifier le wikicode]

Principi[modifier | modifier le wikicode]

  • Assegnazione casuale: selezionati a caso, tutti gli individui hanno le stesse probabilità di essere nel gruppo di controllo sperimentale o soggetto (nei gruppi di controllo sperimentale e non sperimentale). Questa idea è nata dal principio della legge dei grandi numeri: la variabile casuale dovrebbe escludere qualsiasi altra spiegazione.
  • Manipolazione della variabile indipendente (trattamento), come sono uguali i gruppi? Il ricercatore, ad un certo punto, introduce un input in uno dei due gruppi.

Separiamo due gruppi in modo che i due gruppi siano gli stessi su tutte le dimensioni tranne che su una che è quella su cui vogliamo testare l'effetto. La selezione di una persona e l'assegnazione casuale rende i due gruppi simili. Se, successivamente, viene introdotto un trattamento in uno dei due gruppi e si osserva un cambiamento che non è nel gruppo di controllo, ci può essere un effetto causale che va in una riflessione di causa ed effetto. Si può pertanto concludere che la variabile introdotta ha un effetto causale.

Tipi di esperimenti[modifier | modifier le wikicode]

  • In laboratorio (laboratory experiment): si tratta di esperimenti eseguiti in laboratorio e poi gli individui vengono divisi in gruppi ai quali vengono applicati stimoli per arrivare ad un riscontro di effetto o non effetto. Tuttavia, gli individui vengono prelevati dalle loro condizioni naturali che possono portare a risultati che sono legati all'artificialità delle condizioni sperimentali.
  • Esperimento sul campo (field experiment): contesto naturale, possono essere coinvolti altri fattori. Si tratta di esperimenti che sono stati applicati nelle scienze politiche. I principi rimangono gli stessi con una distribuzione casuale dei soggetti in due gruppi; la variabile indipendente viene manipolata e poi si determina se c'è stato un effetto del trattamento sul gruppo sperimentale e non sul gruppo di controllo. In questo modo è possibile evitare di criticare l'artificialità degli esperimenti di laboratorio.
  • Disegno quasi-sperimentale (quasi-experiment): questo disegno tiene presente che il ricercatore manipola la variabile indipendente, ma non ci sono allocazioni casuali di soggetti ad un gruppo sperimentale e ad un gruppo di controllo. Se lo facciamo, è perché non possiamo distribuirci a caso in due gruppi, siamo costretti a prendere i gruppi effettivamente esistenti. In altre parole, il ricercatore controlla il trattamento, ma non può assegnare i soggetti in modo casuale. A volte, quando siamo sul campo, è difficile fare le cose in modo diverso. Di solito questo è il metodo che usiamo, perché c'è un fattore che non possiamo controllare.

Esempio[modifier | modifier le wikicode]

Uno psicosociologo ha voluto testare gli effetti degli obiettivi collettivi sulle relazioni interpersonali. Voleva vedere fino a che punto, quando a un gruppo di persone viene detto che c'è un obiettivo, stereotipi negativi in conflitto scompaiono. È un'esperienza immediata in condizioni naturali. Ha lasciato che i bambini interagissero tra loro, i bambini collaborano tra loro; il ricercatore ha cercato di creare un'identità collettiva e ha diviso il gruppo in due in modo casuale. Li ha fatti giocare a calcio; abbiamo visto emergere rivalità e persino stereotipi negativi nei confronti dell'altra squadra. Poi ha rimesso insieme il gruppo e ha ridefinito un obiettivo comune che richiede cooperazione. In seguito, ha notato che questi conflitti, gli stereotipi negativi e le ostilità si sono trasformati in una vera e propria cooperazione.

Metodo statistico[modifier | modifier le wikicode]

Non possiamo fare un disegno di ricerca che a priori ci permette di verificare se ci sono relazioni di correlazione, ma dobbiamo farlo dopo il fatto.

  • manipolazione concettuale (matematica) di dati empiricamente osservati: abbiamo dati osservazionali o cerchiamo di controllare per controllo statistico, con correlazioni parziali. Si distingue tra dati sperimentali e osservazionali.
  • correlazioni parziali: correlazione tra due variabili una volta lasciata l'analisi, cioè il controllo dell'effetto di altre variabili che potrebbero influenzare ciò che si vuole spiegare. In altre parole, significa fare le altre Z come se fossero costanti a seguito di un processo di depurazione. E' una logica di controllo delle variabili: controlliamo le variabili che possono influenzare ciò che vorremmo spiegare. Nell'esempio sul voto, dovrebbe essere preso in considerazione tutto ciò che potrebbe spiegare il voto, soprattutto se si può presumere che questo fattore esterno possa influenzare sia il voto che la variabile indipendente (esposizione mediatica). In questo modo possiamo sapere se ci stiamo avvicinando a un effetto causale. Tradotto con www.DeepL.com/Translator

L'importante è andare oltre la semplice analisi bivariata; è necessario passare ad un'analisi multivariata dove altre variabili sono introdotte nel modello esplicativo.

Metodo comparativo[modifier | modifier le wikicode]

Tutta la ricerca nel campo delle scienze sociali è per sua natura comparativa. Confrontiamo sempre qualcosa in modo implicito o esplicito. Ci si può chiedere quali siano gli obiettivi del confronto. Abbiamo visto che gli obiettivi di qualsiasi metodo scientifico cercano di stabilire proposizioni empiriche generali controllando tutte le altre variabili, ma secondo alcune, come Tilly, ci sono quattro obiettivi per il confronto, cioè il confronto delle unità di osservazione.

Gli obiettivi del confronto secondo Charles Tilly sono:

  • Individualizzazione (individualizing): l'obiettivo è quello di evidenziare ed evidenziare le caratteristiche di una data unità di analisi su un certo fenomeno; l'idea è quella di trovare confronti, di dare specificità ad un dato caso di esempio; negli studi di politica comparativa, il caso è il paese, i paesi sono confrontati; l'obiettivo è, ad esempio, di mostrare alcune caratteristiche del sistema politico svizzero rispetto ad altri paesi. La democrazia diretta determina i valori politici; la democrazia diretta svizzera può essere confrontata con paesi che non ne dispongono. Possiamo analizzare l'impatto di questa caratteristica sulle persone. Caratterizzare, individualizzare, personalizzare, rendere più specifiche le caratteristiche di un paese rispetto ad un altro.
  • Generalizzare (generalizing) : non confrontiamo per individualizzare, ma per generalizzare, includiamo il maggior numero di casi, stabiliamo proposte empiriche generali. Per alcuni, la generalizzazione è uno dei due obiettivi principali del metodo comparativo. Studiamo i comportamenti che confrontiamo, vogliamo vedere se le configurazioni e gli effetti che troviamo in un contesto si trovano in un altro contesto.
  • Ricerca di variazioni sistematiche (variation finding): l'obiettivo è quello di cercare variazioni sistematiche e testare una teoria scartando le teorie concorrenti da quella che si vuole evidenziare. Secondo Tilly, questo è il modo migliore per fare un confronto. Cerchiamo di testare un'ipotesi causale, quindi escludiamo ipotesi rivali.
  • Globalizzazione (encompassing): l'obiettivo è quello di globalizzare (approccio sistemico) che comprende tutti i paesi del mondo, o tutte le possibili unità di confronto. L'idea è che se si rimuove una di queste unità di confronto, l'intero sistema cambia. Per il professor Giugni, questo non è un approccio comparativo, perché non c'è confronto.

Ci sono diversi obiettivi del confronto; agire sulla selezione dei casi è comparare.

Strategie di confronto per cercare variazioni sistematiche (Przeworski e Teune) Si può fare una distinzione tra due strategie di confronto, sono logiche e modi di procedere metodologicamente nella scelta dei casi. Questi sono modi per affrontare la questione della causalità quando sono disponibili dati osservazionali. Viene fatta una distinzione tra due progetti di ricerca comparativa, vale a dire il confronto per caso analogico (simile) e per contro caso (diverso). Ciascuna delle opzioni presenta vantaggi e svantaggi.

  • Confronto tra casi contrastanti (la maggior parte dei sistemi di progettazione diversi): scegliamo casi che sono i più diversi possibili
  • Confronto tra casi analoghi (progettazione di sistemi più simili): ha lo scopo di controllare tutte le variabili tranne quella che si vuole analizzare (esempio Francia - Svizzera).
Skocpol, T. et M. Somers (1994). “The Uses of Comparative History in Macrosocial Inquiry”. In Theda Skocpol (éd.), Social Revolutions in the Modern World. Cambridge: Cambridge University Press.

Stuart Mill ha riflettuto su come analizzare questo nesso causale. Selezionando diversi casi per raggiungere questo ideale, puntiamo al rapporto di causa-effetto. Ma non siamo nel contesto del controllo statistico. Nel nostro caso, attraverso la selezione dei casi, cerchiamo di avvicinarci a questo ideale.

Stuart Mill distingue tra due casi:

  • The method of agreement (the most different system design): la logica è quella di scegliere paesi molto diversi, ma che sono simili su un fattore chiave. C'è una X ovunque. Poi osserviamo Y, poi c'è una somiglianza nella variabile Y che vogliamo spiegare. La logica è quella di dire che stiamo cercando paesi dove troviamo lo stesso fenomeno, che è quello di cui vogliamo dimostrare l'effetto. Osserviamo quello che succede è che ogni volta che c'è la X troviamo la Y. In quel momento, è prodotto da X perché non può essere prodotto da nient'altro, perché gli altri fattori dei paesi sono diversi, non si trova da nessun'altra parte. La logica è quella di scegliere casi molto diversi sulla maggior parte dei fattori a cui si può pensare e poi si vedrà se c'è una compresenza della variabile che si vuole spiegare e di quella che spiega.
  • The method of difference (the most similar system design): stiamo cercando paesi che sono il piu' simili possibile. Si può operare una distinzione tra casi positivi e negativi. Cercheremo i casi che hanno il fattore A, B e C e i casi negativi che hanno anche A, B e C. Nei casi positivi è presente un fattore che non è presente nei casi negativi. Quindi la votazione è presente quando X è presente e assente quando X è assente. La conclusione è che X è la causa dell'effetto Y, perché la presenza di almeno Y non può essere stata prodotta da A, B e C. Abbiamo reso costanti A, B e C.

Esempio - la maggior parte della progettazione del sistema: ci sono tre casi (1, 2, n); un caso può essere individuale, nazionale, ecc. Abbiamo una serie di qualità per questi casi. Queste sono caratteristiche dei diversi paesi (disoccupazione, sviluppo), X è la variabile indipendente e vogliamo spiegare Y. In questa logica di confronto, i casi sono molto diversi, ma sono simili in una sola proprietà. Quindi questa variabile spiega il fattore, perché è l'unico fattore comune. Nella Tabella 2 abbiamo casi positivi e negativi; questi casi sono perfettamente simili su quanti più attributi, proprietà e variabili possibili, ma c'è una differenza cruciale in ciò che si suppone di spiegare ciò che vogliamo spiegare. C'è un fattore che non è presente. In un caso c'è Y nell'altro passaggio; la differenza è attribuita alla variabile che non lo è in entrambi i casi. Questo metodo cerca di approssimare l'approccio sperimentale, perché è fatto in modo che i due gruppi siano il più possibile vicini (simili ad a, b, c), ma differiscono dalla variabile indipendente, più simile al disegno del sistema. Il professor Giugni preferisce questo modo, perché si avvicina all'ideale di sperimentazione. Un esempio è quello di studiare gli studenti che frequentano il corso nell'arco di due anni e cambiano le diapositive che vengono fornite. Poi, confrontiamo il risultato finale (il punteggio medio) in entrambi i casi.

Esempio - sistema più simile: confronto paesi simili (Francia e Svizzera), e voglio dimostrare che la repressione della polizia francese è più forte, è l'unico fattore che differisce da un paese all'altro. Poi vediamo che la radicalizzazione dei movimenti sociali è più forte in Francia. Il problema è che la "A", cioè i fattori che sono simili tra i due paesi, non sono mai uguali, ma solo simili (questo problema può essere trovato solo con il metodo di progettazione di ricerca più simile, motivo per cui ci sono ricercatori che preferiscono l'altro approccio, in cui è solo necessario trovare le differenze), possiamo solo avvicinarci all'ideale. Inoltre, troviamo il problema dell'endogeneità, cioè sapere quale fattore influenza l'altro.

Caso di studio[modifier | modifier le wikicode]

È un metodo più qualitativo, si differenzia dagli altri tre metodi in quanto sono più orientati alla ricerca quantitativa-positivista. Ci sono alcune distinzioni fatte da Arend Lipihart, c'è una sorta di scissione, una distinzione tra dati sperimentali e d'altra parte i dati di osservazione.

Mentre il metodo sperimentale si basa sull'idea di un gran numero, il metodo comparativo un numero di casi che possono variare, il caso studio si basa su un solo caso. Tuttavia, è possibile prendere in considerazione un caso di studio che può coprire più di un caso, in quanto il confine è a volte flessibile.

Il caso di studio è solo lo studio di un caso, non ha alcun confronto. Un caso può essere costituito da molte cose come una festa, una persona o un paese. Cerchiamo di studiare un caso particolare in modo approfondito, ma non in modo estensivo come gli altri tre metodi che non studiano i casi in modo così approfondito.

In altre parole, il grande vantaggio del caso di studio è che si può andare molto più a fondo nella conoscenza del caso. Uno studio di caso è per definizione intensivo, mentre lo studio quantitativo è ampio. Un metodo si basa su standard con l'idea di generalizzare mentre l'altro si basa su un'interpretazione approfondita di un caso specifico.

Se il metodo statistico mira a generalizzare, il caso studio per definizione non consente la generalizzazione, l'obiettivo è un altro. Esistono diversi studi di caso e diversi modi di condurre un caso studio. Possiamo citare 6 varianti:

  • i primi due dei quali sono destinati a concentrarsi sul caso specifico.
  • le altre quattro modalità hanno l'obiettivo di creare o generare una teoria.

Il caso studio può essere utilizzato per raggiungere diversi obiettivi, da un lato si vuole conoscere meglio una particolare situazione in modo descrittivo, dall'altro si possono studiare diversi casi che permettono di generare una teoria a lungo termine.

Secondo Arend Lipihart, lo scopo della ricerca è quello di testare e verificare una teoria e di generalizzare i risultati.

Questi due casi non vogliono creare ipotesi, l'idea è quella di far luce su qualcosa in relazione a un caso:

  • ateorico: non c'è teoria, è puramente descrittivo. Si tratta di ricerca esplorativa, ad esempio, lo studio di una nuova organizzazione, vogliamo solo conoscerla e descriverla, nel qual caso non possiamo generalizzare i risultati, perché sono legati ad un caso particolare studiato. Viene utilizzato in situazioni o casi che non sono mai stati studiati prima.
  • interpretativo: usiamo proposte teoriche che esistono in letteratura, in questo approccio qualitativo il ruolo della letteratura è meno importante, applichiamo una generalizzazione esistente ad un caso dato, qui il caso riguarda un caso specifico, senza la volontà di creare una teoria proprio come l'ateo. L'obiettivo non è di confermarlo o negarlo, ma solo di applicarlo. Le proposte o teorie esistenti sono utilizzate e applicate ad un caso; le generalizzazioni esistenti sono applicate ad esso per vedere se la generalizzazione è basata su quel caso specifico. Una situazione particolare viene interpretata alla luce di una teoria esistente.

I prossimi quattro vogliono creare una teoria o trarre qualcosa dai casi. Il loro obiettivo è quello di creare o generare teorie o ipotesi:

  • generare ipotesi: vogliamo creare ipotesi dove non ce ne sono. Studio un caso non solo perché mi interessa, ma perché voglio formulare ipotesi che proverò altrove. Ad esempio: un'organizzazione che si occupa di politica. Studiamo una data situazione perché vogliamo ipotesi che non possiamo trovare altrove. Si esplora un caso per formulare ipotesi. Le ipotesi hanno essenzialmente tre fonti: letteratura esistente, immaginazione sociologica, studi esplorativi.
  • confermando una teoria: testando una teoria su un caso particolare per confermare questa teoria, questo tipo di studio di caso non è molto utile, perché non è il fatto che c'è un caso che riflette una teoria esistente che rafforzerà la teoria che rende questo sistema poco utile.
  • invalidare una teoria: questo è molto più prezioso, c'è una teoria che viene applicata in un caso specifico, non cerchiamo di confermare la teoria, ma per dimostrare che non funziona, cerchiamo di invalidare una teoria. Questo ci porta a pensare alla teoria, è qualcosa di importante per sviluppare una teoria.
  • caso deviante: perché un caso si discosta dalla generalizzazione, questo caso è molto utile quando si vuole confutare una teoria. Stiamo cercando una situazione che si discosta da una situazione esistente, il caso studio cerca di mostrare perché questo caso si discosta dalla generalizzazione.

Allegati[modifier | modifier le wikicode]

  • Elisabeth Wood - An Insurgent Path to Democracy: Popular Mobilization, Economic Interests and Regime Transition in South Africa and El Salvador," Comparative Political Studies, October 2001. Translation published in Estudios Centroamericános, No. 641-2, 2002. url: http://cps.sagepub.com/content/34/8/862.short

Riferimenti[modifier | modifier le wikicode]