Notes d'étude sur le test du chi carré

Cet article fournit une note d'étude sur le test du chi carré.

Le test X 2 (lettre grecque X 2 prononcée en tant que Ki-carré) est une méthode permettant d’évaluer si les fréquences observées empiriquement diffèrent de manière significative de celles auxquelles on pourrait s’attendre avec un certain ensemble d’hypothèses théoriques. Par exemple, supposons que la préférence politique et le lieu de résidence ou la nativité aient été recoupés et que les données soient résumées dans le tableau de contingence 2 × 3 ci-dessous.

On voit dans le tableau que les proportions de citadins sont 38/48 = 0, 79, 20/46 = 0, 34 et 12/18 = 0, 67 (arrondies à deux décimales) pour les trois partis politiques du pays. Nous voudrions alors savoir si ces différences sont statistiquement significatives.

À cette fin, nous pouvons proposer une hypothèse nulle qui suppose qu'il n'y a pas de différences entre les trois partis politiques en ce qui concerne la nativité. Cela signifie que les proportions de citadins et de ruraux devraient être les mêmes pour chacun des trois partis politiques.

En partant de l'hypothèse que l'hypothèse nulle est correcte, nous pouvons calculer un ensemble de fréquences auquel on pourrait s'attendre compte tenu de ces totaux marginaux. En d’autres termes, nous pouvons calculer le nombre de personnes préférant le parti du Congrès qui, selon l’hypothèse ci-dessus, devraient être des citadins, et comparer ce chiffre à celui réellement observé.

Si l'hypothèse nulle est vraie, nous pouvons calculer une proportion commune comme suit:

38 + 20 + 12/48 + 46 + 18 = 70/112 = 0, 625

Avec cette proportion estimée, nous nous attendrions à ce que 48 x (0, 625) = 30 personnes affiliées au Congrès, 46 x (0, 625) = 28, 75 personnes affiliées au Parti Janata et 18 x (0, 625) = 11, 25 personnes affiliées à Lok Dal sur 70 les citadins. En soustrayant ces chiffres des chiffres respectifs observés aux tailles respectives des trois échantillons, nous trouvons 48 - 30 = 18 affiliés au Congrès, 46 - 28, 75 = 17, 25 affiliés à Janata et 18 - 11, 25 = 6, 25 personnes affiliées à Lok Dal sur 42 personnes. des zones rurales.

Ces résultats sont présentés dans le tableau ci-dessous, où les fréquences attendues ar. montré entre parenthèses.

Pour tester la tenabilité de l'hypothèse nulle, nous comparons les fréquences attendues et observées. La comparaison est basée sur la statistique X 2 suivante.

X 2 = Σ (O- E) 2 / E

où O représente les fréquences observées et E les fréquences attendues.

Degrés de liberté :

Le nombre de degrés de liberté signifie le nombre de contraintes indépendantes qui nous sont imposées dans un tableau de contingence.

L'exemple suivant illustrera le concept:

Supposons que les deux attributs A et B soient indépendants. Dans ce cas, le

la fréquence attendue ou la cellule AB serait de 40 × 30/60 = 20. Une fois cette information identifiée, les fréquences des trois cellules restantes sont automatiquement fixées. Ainsi, pour la cellule αB, la fréquence attendue doit être 40 - 20 = 20, de même pour la cellule AB, elle doit être de 30 - 20 = 10 et pour αB, elle doit être de 10.

Cela signifie que pour la table 2 × 2, nous n’avons qu’un choix à faire, alors que nous n’avons aucune liberté dans les trois cellules restantes. Ainsi, les degrés de liberté (df) peuvent être calculés par la formule:

df - (c - 1) (r - 1)

où df représente les degrés de liberté, c le nombre de colonnes et r le nombre de lignes.

Ainsi, dans le tableau 2 x 3 (tableau 18.54)

df = (3 - 1) (2 - 1) = 2 x 1 = 2

Niveau d'importance :

Comme indiqué précédemment, le test du khi-deux sert à déterminer si la différence entre les fréquences observées et attendues est due aux fluctuations de l'échantillonnage et, en tant que telle, non significative ou contraire, si la différence est due à une autre raison et, en tant que telle, significative.

Avant de déduire que la différence est significative, les chercheurs ont formulé une hypothèse, souvent qualifiée d’hypothèse nulle (symbolisée par H o ) par opposition à l’hypothèse de recherche (H 1 ) définie comme alternative à H o .

En règle générale, bien que pas toujours, l'hypothèse nulle affirme qu'il n'y a pas de différence entre plusieurs groupes ni de relation entre les variables, alors qu'une hypothèse de recherche peut prédire une relation positive ou négative.

En d’autres termes, l’hypothèse nulle suppose qu’il n’ya pas d’erreurs non dues à l’échantillonnage et que la différence est due au seul hasard. Ensuite, la probabilité d'apparition d'une telle différence est déterminée.

La probabilité indique l'étendue de la confiance que nous pouvons accorder à l'inférence tirée. Les valeurs de la table du chi carré sont disponibles à différents niveaux de probabilité. Ces niveaux sont appelés niveaux de signification. Nous pouvons trouver dans le tableau les valeurs de Khi-deux à certains niveaux de signification.

Habituellement (dans le cas des sciences sociales), la valeur du khi-carré à 0, 05 ou 0, 01 niveau de signification à partir des degrés de liberté donnés est indiquée dans le tableau et comparée à la valeur observée du khi-deux. Si la valeur observée ou y 1 est supérieure à la valeur de la table à 0, 05, cela signifie que la différence est significative.

Degré de liberté :

Pour utiliser le test du khi-deux, l'étape suivante consiste à calculer les degrés de liberté: supposons que nous ayons un tableau de contingence 2 x 2 similaire à celui de la figure 1.

Nous connaissons le total des lignes et des colonnes r t 1 et r t 2 - et c t 1 et c t 2 . Le nombre de degrés de liberté peut être défini comme le nombre de valeurs de cellule que nous pouvons spécifier librement.

Sur la figure 1, une fois que nous spécifions la valeur de la rangée 1 (indiquée par un contrôle sur la figure), la deuxième valeur de cette rangée et les valeurs de la deuxième rangée (notées X) sont déjà déterminées; nous ne sommes pas libres de les spécifier car nous connaissons les totaux des lignes et des colonnes. Cela montre que dans un tableau de contingence 2 x 2, nous sommes libres de spécifier une seule valeur.

Procédure :

Calcul pour le Chi-carré:

Le chi carré comme test de la qualité de l'ajustement:

Dans la section précédente, nous avons utilisé le Khi-deux comme test d’indépendance; c'est-à-dire s'il faut accepter ou rejeter une hypothèse nulle. Les x ~ tests peuvent également être utilisés pour déterminer s’il existe une différence significative entre une distribution de fréquence observée et une distribution de fréquence théorique.

De cette manière, nous pouvons déterminer la qualité de l'ajustement des fréquences observées et attendues. En d'autres termes, l'ajustement serait considéré comme bon s'il n'y avait pas de divergence significative entre les données observées et attendues lorsque la courbe des fréquences observées est superposée à la courbe des fréquences attendues.

Nous devons toutefois nous rappeler que, même si les proportions dans les cellules restent inchangées, la valeur du khi-carré varie directement avec le nombre total de cas (N). Si nous doublons le nombre de cas, la valeur du Khi-deux est doublée; si on triple le nombre de cas, on triple aussi le khi-carré, etc.

Les implications de ce fait peuvent être illustrées par un exemple donné ci-dessous:

Dans le présent exemple, la valeur du Khi-deux est 3.15. Sur cette base, nous déduirions naturellement que la relation n’est pas significative.

Supposons maintenant que des données aient été collectées sur 500 cas avec les résultats suivants:

La valeur du Khi-deux, calculée à partir des chiffres, est maintenant de 6, 30, soit le double de la valeur atteinte dans l'exemple précédent. La valeur 6, 30 est statistiquement significative. Si nous avions exprimé les résultats en termes de pourcentages, il n'y aurait pas eu de différence d'interprétation.

Les exemples ci-dessus illustrent un point très important, à savoir que le chi carré est directement proportionnel à N. Nous aurions donc besoin d'une mesure qui ne soit pas affectée simplement par une modification du nombre de cas. La mesure phi () offre cette facilité, c’est-à-dire la propriété que nous désirons dans notre mesure. Cette mesure est simplement un rapport entre la valeur du Khi-deux et le total numérique des cas étudiés.

La mesure phi (ø) est définie comme suit:

Ø = √x 2 / n

c'est-à-dire la racine carrée du chi-carré divisée par le nombre de cas.

Ainsi, en appliquant cette formule aux deux exemples cités ci-dessus, nous obtenons, dans le premier cas:

Ainsi, la mesure ø, contrairement au khi-deux, donne le même résultat lorsque les proportions dans les cellules comparables sont identiques.

G. Udny Yule a proposé un autre coefficient d’association, généralement désigné par le symbole «Q» (plus communément appelé Q de Yule), qui mesure l’association en? x 2 table. Le coefficient d'association (Q) est obtenu en calculant le rapport entre la différence et la somme des produits croisés des cellules diagonales, si les cellules du tableau 2 × 2 sont désignées comme suit:

ACB / AD + BE

où a, b, c et d se rapportent aux fréquences de cellules.

Le coefficient d'association Q varie entre moins un et plus un (+1), étant inférieur ou supérieur à ad. Q atteint sa limite de +1 lorsque l'une des cellules est égale à zéro, c'est-à-dire que l'association est complète (la corrélation est parfaite). Q est zéro lorsque les variables sont indépendantes (c'est-à-dire lorsqu'il n'y a pas d'association), c'est-à-dire lorsque ad. = être et. Q = 0.

L'application de la formule ci-dessus est illustrée dans l'exemple suivant:

Calculons le coefficient d’association de Yule entre l’état matrimonial et la performance à l’examen sur la base des données présentées dans le tableau suivant:

En substituant les valeurs ci-dessus dans la formule de Yule:

Ainsi, il existe une légère association négative entre l’état matrimonial et la performance à l’examen.

Nous pouvons aussi examiner le problème sous un autre angle.

Le pourcentage d'étudiants mariés ayant échoué est = 60 × 100/150 = 40.

Le pourcentage d'élèves non mariés ayant échoué est égal à, = 100 × 100/350 = 28, 57 (environ).

Ainsi, 40% des étudiants mariés et près de 29% des étudiants non mariés ont échoué à l'examen. Par conséquent, la piètre performance des étudiants peut être attribuée à l’état matrimonial.

Les inférences causales peuvent être très sûrement établies dans des situations expérimentales. Nous avons examiné cette question lorsqu’il s’agissait de modèles expérimentaux. En sciences sociales, il est très difficile de mettre en place une expérience, la plupart des études sont donc non expérimentales. Des procédures analytiques ont toutefois été conçues pour tirer des conclusions sur les relations de cause à effet dans des études non expérimentales.

Dans la mesure où la plupart des recherches sociales comportent une étude des échantillons tirés de la "population" et cherchent à tirer des généralisations à cette "population", il est nécessaire, dans l’intérêt de la science, de savoir dans quelle mesure les généralisations ainsi obtenues sont générées. justifié.

Supposons que, dans une étude portant sur des échantillons d'étudiants masculins et féminins, nos résultats montrent des différences significatives entre les deux échantillons en termes de nombre d'heures consacrées aux études.

On peut se demander si les différences observées reflètent les vraies différences entre les étudiants et les étudiantes ou si les deux «populations» d’étudiants sont en réalité identiques en termes d’heures consacrées aux études, mais les échantillons prélevés sur ces «populations» car l'étude aurait pu différer dans cette mesure par «hasard».

Un certain nombre de procédures statistiques ont été conçues pour nous permettre de répondre à une telle question en termes de déclarations de probabilité.

Lorsque nous comparons des échantillons ou étudions la différence entre les groupes expérimental et témoin, nous souhaitons normalement tester une hypothèse sur la nature de la vraie différence entre les «populations» supposées être représentées par les échantillons étudiés.

En sciences sociales, nous nous intéressons généralement à une hypothèse relativement grossière (par exemple, les étudiantes consacrent plus de temps à leurs études que les étudiants).

Nous ne sommes généralement pas en mesure d'envisager des hypothèses plus spécifiques ou exactes (par exemple, qui précisent en termes exacts la différence entre les deux «populations»). Supposons que nos données montrent que l’échantillon d’étudiantes consacre en moyenne quatre heures aux études alors que l’échantillon d’étudiants ne compte que deux heures.

Clairement, les résultats de nos échantillons sont en accord avec l'hypothèse, c'est-à-dire que les étudiantes consacrent plus de temps à leurs études que leurs homologues masculins. Mais nous devons constamment garder à l'esprit la possibilité que les résultats basés sur nos échantillons ne soient pas exactement les mêmes que ceux que nous aurions pu obtenir si nous avions étudié deux «populations» au total.

Maintenant, nous voulons estimer si nous aurions encore observé plus de temps consacré aux études chez les étudiantes si nous avions étudié la «population» totale. Une telle estimation est possible si nous testons «l'hypothèse nulle».

L '«hypothèse nulle» indique que les «populations» ne diffèrent pas en termes de caractéristiques à l'étude. Dans ce cas, une "hypothèse nulle" indiquerait que dans la "population" plus large d'étudiants, les sous-groupes d'étudiants masculins et masculins ne diffèrent pas en ce qui concerne le temps consacré à leurs études.

Diverses techniques statistiques, appelées tests de signification, ont été conçues pour nous aider à estimer la probabilité que nos deux échantillons diffèrent autant que par le passé, même s’il n’ya aucune différence entre les deux «populations» masculines correspondantes. et les étudiantes en ce qui concerne le temps consacré aux études.

Parmi les différentes méthodes de test de signification, la décision concernant la méthode appropriée à une étude dépend de la nature des mesures utilisées et de la distribution des caractéristiques (heures d’études, nombre d’enfants, attentes salariales, etc.). ).

La plupart de ces tests significatifs supposent que les mesures constituent une échelle d'intervalle et que la distribution de la caractéristique se rapproche d'une courbe normale. En recherche sociale, ces hypothèses correspondent rarement à la réalité. Les développements statistiques récents ont toutefois permis de trouver une solution, sous la forme de tests non paramétriques qui ne reposent pas sur ces hypothèses.

Nous devrions essayer de comprendre à ce stade la raison pour laquelle «l'hypothèse nulle» devrait être testée alors que notre intérêt réel est de tester une hypothèse (l'hypothèse alternative, comme on l'appelle) qui stipule qu'il existe une différence entre les deux «populations». représenté par les échantillons.

La raison est facile à apprécier. Étant donné que nous ne connaissons pas la réalité de la «population», le mieux que nous puissions faire est de faire des déductions à ce sujet sur la base de notre recherche d’échantillon.

Si nous comparons deux échantillons, il y a bien sûr deux possibilités:

(1) Soit les populations représentées par l’échantillon sont identiques, soit

(2) Ils sont différents.

Nos échantillons provenant de deux «populations» sont différents en ce qui concerne certains attributs; heures consacrées aux études dans notre exemple. Clairement, cela pourrait se produire si les deux «populations» représentées par les échantillons diffèrent en fait par rapport à cet attribut.

Cela ne constitue toutefois pas une preuve définitive que ces "populations" sont différentes, car il est toujours possible que les échantillons ne correspondent pas exactement aux "populations" qu'ils sont censés représenter.

Nous devons donc laisser de la place à la possibilité que l'élément de hasard impliqué dans la sélection d'un échantillon nous ait fourni des échantillons différents, bien que les deux «populations» dont ils sont issus ne diffèrent pas en réalité.

Nous voudrons peut-être poser la question suivante:

"Aurions-nous pu éventuellement avoir des échantillons différant les uns des autres dans la mesure où ils le font, même si les" populations "dont ils sont tirés ne différaient pas?" Telle est précisément la question à laquelle une "hypothèse nulle" répond.

L '"hypothèse nulle" nous aide à estimer les chances que les deux échantillons différant de ce point soient issus de deux "populations" identiques: 5 sur 100? 1 sur 100? ou peu importe.

Si le test de signification statistique suggère qu'il est improbable que deux échantillons aussi différents aient pu être prélevés dans des «populations» qui sont en fait similaires, nous pouvons en conclure que les deux «populations» diffèrent probablement l'une de l'autre.

Il convient de garder à l’esprit que tous les tests statistiques de significativité et donc toutes les généralisations des échantillons aux populations reposent sur l’hypothèse que les échantillons ne sont pas sélectionnés de manière à ce que des biais aient pu être introduits dans le processus de prélèvement des échantillons.

En d’autres termes, l’hypothèse est que l’échantillon que nous avons sélectionné a été établi de manière à ce que tous les cas ou articles de la «population» aient une chance égale ou spécifiable d’être inclus dans l’échantillon.

Si cette hypothèse n'est pas justifiée, les tests de signification perdent leur sens et deviennent inapplicables. En d'autres termes, les tests de signification ne s'appliquent que lorsque le principe de probabilité a été utilisé pour la sélection de l'échantillon.

Pour revenir à notre illustration, supposons que nos résultats ne montrent aucune différence entre les deux échantillons: cela signifie que les étudiants et les étudiantes de notre échantillon consacrent un temps égal à leurs études.

Pouvons-nous alors dire que les deux «populations» d’étudiants masculins et féminins sont similaires en ce qui concerne cet attribut? Bien sûr, nous ne pouvons pas le dire avec certitude, car il est possible que les échantillons se ressemblent lorsque les populations diffèrent.

Mais pour revenir au cas où les deux échantillons diffèrent, nous pouvons affirmer que les deux populations qu’ils représentent diffèrent probablement si nous pouvons rejeter «l’hypothèse nulle»; c'est-à-dire que si nous pouvons montrer que la différence entre les deux échantillons est peu probable si les «populations» ci-dessus ne diffèrent pas.

Mais encore une fois, il y a une chance que nous puissions nous tromper en rejetant «l'hypothèse nulle» car il est dans la nature de la probabilité que même des événements très improbables puissent parfois se produire.

Il y a aussi un autre côté. Tout comme nous pouvons avoir tort de rejeter «l'hypothèse nulle», il est également probable que nous ayons tort d'accepter «l'hypothèse nulle». C'est-à-dire que même si notre test statistique de signification indique que des différences d'échantillon pourraient facilement être apparues par hasard même si les «populations» sont similaires, il peut néanmoins être vrai que les «populations» diffèrent effectivement.

En d’autres termes, nous courons toujours le risque de commettre l’un des deux types d’erreur:

(1) On peut rejeter «l'hypothèse nulle» alors qu'en réalité,

(2) Nous pouvons accepter «l'hypothèse nulle» alors qu'en réalité elle est fausse.

Le premier type d'erreur, nous pouvons appeler l'erreur de type I. Cela consiste à déduire que les deux «populations» diffèrent alors qu'en réalité elles se ressemblent.

Le deuxième type d'erreur peut être appelé erreur de type II. Cela consiste à déduire que les deux «populations» se ressemblent alors qu’elles diffèrent.

Le risque de commettre une erreur de type I est déterminé par le degré de signification que nous sommes disposés à accepter dans nos tests statistiques, par exemple 0, 05, 0, 01, 0, 001, etc. (soit 5 sur 100, 1 sur 100 et 1 sur 1000). Ainsi, si nous décidons, par exemple, que les populations diffèrent réellement chaque fois qu’un test de significativité montre que la différence entre les deux échantillons serait probablement due au hasard pas plus de 5 fois sur 100.

Cela signifie que si les deux «populations» représentées par l'échantillon étaient en réalité similaires (en termes d'un certain attribut), nous acceptons alors 5 chances sur 100 que nous aurons tort de rejeter «l'hypothèse nulle». Nous pouvons bien entendu minimiser le risque d'erreur de type I en rendant notre critère de rejet de l'hypothèse nulle plus strict et plus strict.

Nous pouvons, par exemple, décider du niveau de signification à 0, 01, c'est-à-dire que nous ne rejetterions «l'hypothèse nulle» que si le test montre que la différence entre les deux «échantillons» peut n'être apparue par hasard qu'une seule fois sur cent.

Essentiellement, ce que nous disons, c'est que nous rejetterons «l'hypothèse nulle» si le test montre que sur une centaine d'échantillons d'une taille donnée sélectionnés dans les «populations» respectives en utilisant le principe de probabilité, un seul échantillon montre une différence. en termes d'attributs dans la mesure où cela se voit dans les deux échantillons à l'étude.

Le critère de rejet de «l'hypothèse nulle» peut être encore plus strict en augmentant encore le niveau de signification. Mais la difficulté réside dans le fait que les erreurs de type I et de type II sont tellement liées que plus nous nous protégeons contre les erreurs de type I, plus nous sommes vulnérables à commettre une erreur de type II.

Après avoir déterminé l’ampleur du risque d’erreur de type I que nous sommes disposés à exécuter, le seul moyen de réduire le risque d’erreur de type II consiste à prélever des échantillons plus volumineux et à utiliser des tests statistiques permettant une utilisation optimale des informations pertinentes disponibles.

La situation concernant l’erreur de type II peut être illustrée de manière très précise au moyen d’une «courbe caractéristique d’ouverture». Le comportement de cette courbe dépend de la taille de l’échantillon. Plus l'échantillon est grand, moins il est probable que nous accepterons une hypothèse suggérant un état de choses extrêmement éloigné de l'état de réalité.

Dans la mesure où la relation entre les erreurs de type I et de type II est inverse, il est nécessaire de ménager un équilibre raisonnable entre les deux types de risque.

En sciences sociales, il est presque devenu une pratique ou une convention établie de rejeter "l'hypothèse nulle" lorsque le test indique que la différence entre les échantillons ne se produirait pas plus de cinq fois par hasard. Cependant, les conventions sont utiles n'y a pas d'autre guide raisonnable.

Le chercheur doit décider de la manière dont l’équilibre entre les deux types d’erreur devrait être trouvé. Dans certains cas, il est plus important d'être certain de rejeter une hypothèse lorsqu'elle est fausse que de ne pas l'accepter lorsqu'elle est vraie. Dans d'autres cas, l'inverse peut être vrai.

Par exemple, dans certains pays, il est jugé plus important de rejeter une hypothèse de culpabilité lorsqu'elle est fausse que de ne pas accepter cette hypothèse lorsqu'elle est vraie, c'est-à-dire qu'une personne est considérée comme non coupable aussi longtemps qu'il existe un doute raisonnable. à propos de sa culpabilité. Dans certains autres pays, une personne accusée d'un crime est considérée comme coupable jusqu'à ce qu'elle ait démontré son absence de culpabilité.

Bien sûr, dans de nombreuses recherches, il n’existe aucune base claire permettant de décider si une erreur de type I ou de type II serait plus coûteuse et l’enquêteur utilise donc le niveau conventionnel pour déterminer la signification statistique. Cependant, il peut exister certaines études dans lesquelles un type d'erreur serait clairement plus coûteux et nuisible que l'autre.

Supposons que, dans une organisation, il a été suggéré qu'une nouvelle méthode de division du travail serait plus efficace et supposons également que cette méthode nécessiterait beaucoup de dépenses.

Si une expérience constituée de deux groupes de personnel - l’un opérant en tant que groupe expérimental et l’autre en tant que groupe de contrôle - est configurée pour vérifier si la nouvelle méthode est réellement bénéfique pour les objectifs de l’organisation et s’il est prévu que la nouvelle méthode impliquerait: beaucoup de dépenses, l’organisation ne voudrait pas l’adopter à moins d’obtenir une assurance considérable de sa supériorité.

En d’autres termes, il serait coûteux de faire une erreur de type 1, c’est-à-dire de conclure que la nouvelle méthode est meilleure alors que ce n’est pas le cas en réalité.

Si la nouvelle méthode entraînait des dépenses à peu près identiques à l’ancienne méthode, une erreur de type II serait indésirable et plus préjudiciable, car elle risquerait d’empêcher la direction d’adopter la nouvelle méthode alors qu’elle est en réalité supérieure et en tant que tel, il offre des avantages à long terme à l’organisation.

Toute généralisation de l’échantillon à la «population» est simplement un énoncé de probabilité statistique. Disons que nous avons décidé de travailler avec un niveau de signification de 0, 05. Cela signifie que nous ne rejetterons «l'hypothèse nulle» que si la différence d'échantillon de la magnitude que nous avons observée peut vraisemblablement se produire par hasard, pas plus de 5 fois sur 100.

Bien entendu, nous accepterons «l'hypothèse nulle» si on peut s'attendre à ce qu'une telle différence se produise par hasard plus de 5 fois sur 100. La question qui se pose maintenant est la suivante: notre constatation représente-t-elle l'une de ces 5 fois qu'une telle différence pourrait avoir est apparu par hasard?

Il n’est pas possible de répondre définitivement à cette question sur la base d’une constatation isolée. Cependant, il est peut-être possible pour nous de dire quelque chose à ce sujet lorsque nous examinerons les tendances dans nos constatations.

Supposons que nous voulions tester les effets d'un film sur les attitudes envers un programme gouvernemental particulier, par exemple la planification familiale. Disons que nous avons pris soin de garder au maximum les conditions souhaitées pour l'expérimentation.

Supposons maintenant que nous utilisions comme mesure d'attitude vis-à-vis du programme, un seul élément, à savoir l'attitude vis-à-vis de l'espacement des enfants, et constatons que ceux qui ont vu le film sont plus enclins à parler de cette question que ceux qui n'ont pas vu le film.

Supposons maintenant que le test statistique montre que la différence ne serait pas apparue par hasard en raison de fluctuations d'échantillonnage aléatoires plus d'une fois sur vingt. Logiquement, cela signifie aussi qu'il aurait pu apparaître par hasard une fois sur vingt (ou cinq fois sur 100). Comme nous l’avons souligné, nous n’avons aucun moyen précis de savoir si notre échantillon est un parmi cinq sur 100. Que pouvons-nous faire de mieux?

Disons que nous avons posé 40 questions différentes aux répondants, qui sont des indicateurs raisonnables de l’attitude à l’égard du programme gouvernemental de protection de la famille. Si nous utilisons un niveau de confiance de 5% et si nous posons 100 questions, nous pourrions nous attendre à trouver des différences statistiquement significatives imputables au hasard sur 5 d'entre elles.

Ainsi, sur nos 40 questions sur divers articles, nous pouvons nous attendre à trouver des différences statistiquement significatives sur 2 d’entre elles. Mais supposons que nous trouvions effectivement que sur 25 questions sur 40 qui ont vu le film, les attitudes étaient plus favorables que celles qui n’avaient pas vu le film.

Nous pouvons, dans ce cas, nous sentir beaucoup plus en sécurité en concluant qu'il existe une véritable différence d'attitudes (même si le test statistique indique que la différence peut être apparue par hasard sur chaque question 5 fois sur 100).

Supposons maintenant que sur les 40 questions, les réponses à une seule question, à savoir l'espacement des enfants, montrent une différence statistiquement significative entre les deux groupes de personnes exposées au film et celles qui ne le sont pas). Cette différence aurait tout aussi bien pu se produire par hasard.

D'autre part, il se peut que le contenu du film ait réellement influencé les opinions sur ce point mais pas sur un autre (tel que celui relatif aux opérations de stérilité). Cependant, à moins que notre hypothèse ait spécifiquement prévu à l'avance que le film serait plus susceptible d'affecter les attitudes à l'égard de l'espacement des enfants que les attitudes à l'égard des 39 autres questions, nous ne sommes pas en droit de faire cette interprétation.

Une telle interprétation, c'est-à-dire celle invoquée pour expliquer les constatations après leur apparition, est connue sous le nom d'interprétation «post factum», car elle implique des explications fournies pour justifier les constatations quelles qu'elles soient. Cela dépend de l'ingéniosité du chercheur, de l'explication qu'il peut inventer pour justifier ces résultats. Il peut donc justifier même les conclusions opposées.

Merton a très lucidement souligné que les interprétations post-factum sont conçues pour «expliquer» les observations. La méthode d’explication post-factum est complètement flexible. Si le chercheur constate que les chômeurs ont tendance à lire moins de livres qu'auparavant, cela peut être «expliqué» par l'hypothèse selon laquelle l'anxiété résultant du chômage affecte la concentration et rend donc difficile la lecture.

Toutefois, si on constate que les chômeurs lisent plus de livres qu'auparavant (lorsqu'ils sont au travail), une nouvelle explication post factum peut être invoquée; l'explication étant que les chômeurs ont plus de loisirs et, par conséquent, ils lisent plus de livres.

Le test critique sur 'une relation obtenue (entre variables) n'est pas la logique post factum ni son explication; il s’agit plutôt de la capacité de le prédire ou de prédire d’autres relations sur cette base. Par conséquent, notre constat imprévu d'une différence d'attitude vis-à-vis de l'espacement des enfants, même s'il est statistiquement significatif, ne peut pas être considéré comme établi par l'étude que nous avons réalisée.

Puisque les énoncés statistiques sont des énoncés de probabilité, nous ne pouvons jamais totalement nous fier aux preuves statistiques pour décider si nous accepterons ou non une hypothèse comme étant vraie.

La confiance dans l'interprétation d'un résultat de recherche nécessite non seulement une confiance statistique dans la fiabilité de la constatation (c'est-à-dire qu'il est peu probable que les différences se soient produites par hasard), mais aussi certaines preuves de la validité des présuppositions de la recherche.

Cette preuve est nécessairement indirecte. Cela provient de la congruence des résultats de la recherche avec d'autres connaissances qui ont résisté à l'épreuve du temps et qui, par conséquent, offrent une assurance considérable.

Même dans l’enquête la plus rigoureusement contrôlée, l’établissement de la confiance dans l’interprétation des résultats ou dans l’imputation des relations de causalité exige la reproduction de la recherche et la mise en relation des résultats avec ceux d’autres études.

Il est nécessaire de noter que même lorsque les tests statistiques et les conclusions d'un certain nombre d'études suggèrent qu'il existe effectivement une différence cohérente entre deux groupes ou une relation cohérente entre deux variables, cela ne constitue toujours pas la preuve de la raison de la relation.

Si nous voulons tirer des déductions causales (par exemple, X produit Y), nous devons tenir compte d'hypothèses allant au-delà de celles requises pour établir l'existence d'une relation. Il est également intéressant de noter qu'un résultat n'est pas significatif socialement ou psychologiquement, simplement parce qu'il est statistiquement significatif. De nombreuses différences statistiquement significatives peuvent être triviales dans le langage social pratique.

Par exemple, une différence moyenne inférieure à un point de QI entre les citadins et les ruraux peut être statistiquement significative, mais pas dans la vie pratique quotidienne. Au contraire, il existe des cas où une différence petite mais fiable a une grande signification pratique.

Dans une enquête à grande échelle, par exemple, une différence de moitié ou d'un pour cent peut représenter des centaines de milliers de personnes et la prise de conscience de la différence peut être importante pour les décisions stratégiques importantes. Par conséquent, le chercheur doit non seulement s'intéresser à la signification statistique de ses résultats, mais aussi à leurs significations sociales et psychologiques.

Inférer des relations de causalité:

En raison de difficultés évidentes, de telles conceptions expérimentales rigides peuvent rarement être élaborées dans le cadre d’investigations en sciences sociales. La plupart des recherches en sciences sociales ont un caractère non expérimental.

Dans de telles études, certains obstacles empiriques empêchent de déterminer si une relation entre variables est causale. L'établissement de relations de cause à effet est l'une des tâches les plus difficiles de l'analyse des données relatives au comportement social.

Une situation problématique doit son origine et le processus de devenir, non pas à un seul facteur, mais à un complexe composé d’une variété de facteurs et de séquences.

Le processus de démêlage de ces éléments pose un défi majeur à l’imaginaire sociologique et met à l’épreuve les compétences des chercheurs. Il est dangereux de suivre une explication «à piste unique» qui mène à la cause. Il est impératif de rechercher toute une batterie de facteurs de causalité qui jouent généralement un rôle important dans la création de situations sociales complexes.

Comme le remarque fort justement Karl Pearson, «aucun phénomène ni aucune étape de la séquence n’a une seule cause; toutes les étapes antécédentes sont des causes successives; lorsque nous énonçons scientifiquement des causes, nous décrivons réellement les étapes successives d’une routine d’expérience. »

Yule et Kendall ont reconnu le fait que les statistiques «doivent accepter pour analyse les données soumises à une multitude de causes et doivent tenter de découvrir à partir des données elles-mêmes quelles sont les causes les plus importantes et quelle part de l'effet observé est due. l'opération de chacun. "

Paul Lazarsfeld a retracé les phases de la technique qu'il appelle «discernement». Il préconise son utilisation pour déterminer les relations causales entre les variables. Lazarsfeld prévoit cette procédure:

(a) Vérification d'un présumé événement comme suit:

Afin de vérifier cet événement, il est nécessaire de vérifier si la personne a réellement vécu les situations alléguées. Si oui, comment l'événement se manifeste-t-il et dans quelles conditions, dans sa vie immédiate?

Quelles sont les raisons avancées pour penser qu'il existe une interconnexion spécifique entre deux variables, par exemple la perte d'emploi et la perte d'autorité? Dans quelle mesure le raisonnement de la personne est-il correct dans ce cas particulier?

(b) Tenter de découvrir si la condition alléguée est compatible avec les faits objectifs de la vie passée de cette personne.

(c) Tester toutes les explications possibles pour la condition observée.

(d) Éliminer les explications qui ne sont pas en accord avec le modèle d'événements.

Il est tout à fait compréhensible que la plupart des difficultés ou obstacles à l’établissement de relations de cause à effet pèsent plus lourdement sur les études non expérimentales. Dans les études non expérimentales où l’intérêt est d’établir des relations de cause à effet entre deux variables, l’enquêteur doit trouver des substituts aux sauvegardes qui sont manifestement intégrées aux études expérimentales.

Nombre de ces sauvegardes interviennent au moment de la planification de la collecte des données, sous la forme d’une collecte d’informations sur un certain nombre de variables qui pourraient bien être les conditions alternatives pour produire l’effet supposé.

En introduisant de telles variables supplémentaires dans l'analyse, le chercheur se rapproche de certains des contrôles inhérents aux expériences. Néanmoins, tirer des inférences de causalité reste toujours quelque peu dangereux dans des études non expérimentales.

Nous allons maintenant aborder quelques-uns des problèmes et des stratégies pour les surmonter, en ce qui concerne les inférences sur la causalité dans des études non expérimentales. Si une étude non expérimentale met en évidence une relation ou une association entre deux variables, par exemple X et Y, et si l’intérêt de la recherche porte sur les relations causales plutôt que sur le simple fait d’associer des variables, l’analyse n’a pris que la première étape.

Le chercheur doit en outre examiner (outre l'association entre X et Y) si Y (effet) peut s'être produit avant X (la cause supposée), auquel cas Y ne peut pas être l'effet de X.

En plus de cette considération, le chercheur doit s'interroger sur la question de savoir si des facteurs autres que X (la cause hypothétique) ont pu produire Y (l'effet hypothétique). Ceci est généralement pris en charge en introduisant des variables supplémentaires dans l'analyse et en examinant comment la relation entre X et Y est affectée par ces autres variables.

Si la relation entre X et Y persiste même lorsque d’autres variables supposées efficaces et éventuellement alternatives sont introduites, l’hypothèse selon laquelle X est la cause de Y reste valable.

Par exemple, si la relation entre la consommation d’un fruit saisonnier particulier (X) et du froid (Y) ne change pas, même si d’autres variables telles que l’âge, la température, l’état de la digestion, etc., sont introduites dans l’analyse, nous pouvons accepter les paramètres suivants: hypothèse que X conduit à Y comme tenable.

Mais il est possible que dans de nombreux cas l'introduction d'autres variables supplémentaires modifie la relation entre X et Y. Elle peut réduire pour éliminer complètement la relation entre X et Y ou peut améliorer la relation dans un groupe et la réduire. en autre.

Si la relation entre X (consommation de fruits de saison) et Y (froid) est renforcée dans un sous-groupe caractérisé par Z (mauvais état de digestion) et réduite dans un sous-groupe non caractérisé par Z (état de digestion normal), peut conclure que Z est la condition éventuelle pour la relation entre X et Y.

Cela signifie, en d'autres termes, que nous avons pu spécifier la condition (Z) sous laquelle la relation entre X et Y est vérifiée. Maintenant, si l’introduction de Z dans l’analyse réduit ou élimine totalement la relation entre X et Y, nous pouvons conclure que X n’est pas un producteur de Y, c’est-à-dire que la relation entre X et Y est «fausse» ou que nous avons tracé le processus par lequel X mène à Y (c.-à-d. via Z).

Examinons maintenant la situation dans laquelle nous pouvons légitimement conclure que la relation entre X et Y est fausse.

Une relation apparente entre deux variables X et Y est dite parasite si leur variation concomitante provient non pas d'un lien entre elles, mais du fait que chacune d'elles (X et Y) est liée à une troisième variable (Z) ou à une combinaison de variables qui ne servent pas de lien dans le processus par lequel X mène à Y.

La situation caractérisant une relation parasite peut être schématisée comme suit:

L'objectif ici est de déterminer la cause de Y, la variable dépendante (par exemple, les attentes monétaires des diplômés des collèges). La relation (trait interrompu) entre X la variable indépendante (par exemple, les notes obtenues par les étudiants) et les attentes monétaires des diplômés (Y) a été observée au cours de l'analyse des données.

Une autre variable (Z) est introduite pour voir comment la relation entre X et Y se comporte avec la saisie de ce troisième facteur. Z est le troisième facteur (disons le niveau de revenu des parents d'élèves). Nous constatons que l'introduction de ce facteur réduit la relation entre X et Y.

Autrement dit, on constate que la relation entre les notes les plus élevées à l'examen et les attentes monétaires plus élevées ne se maintient pas, mais est considérablement réduite lorsque nous introduisons la troisième variable, à savoir le niveau de revenu des parents.

Une telle introduction de Z met en évidence le fait que non pas X mais Z peut probablement être un facteur déterminant de Y. Ainsi, la relation entre X et Y (représentée en trait pointillé dans le diagramme) est fausse, alors que la relation entre Z et Y est un vrai. Illustrons cela à l'aide de données hypothétiques.

Supposons qu'au cours de l'analyse des données d'une étude, il a été constaté qu'il existe une corrélation significative entre les notes ou divisions (I, II, III) que les étudiants ont obtenues à l'examen et le salaire auquel ils s'attendent pour un travail ils pourraient être nommés à.

On a vu, par exemple, que généralement les premiers diviseurs parmi les étudiants s'attendaient à une rémunération plus élevée par rapport aux seconds diviseurs et que les seconds diviseurs en attendaient davantage par rapport aux troisièmes diviseurs.

Le tableau suivant illustre la situation hypothétique:

Le tableau montre clairement qu’il existe une base pour émettre une hypothèse selon laquelle les notes des étudiants déterminent leurs attentes en matière de salaires. Supposons maintenant que le chercheur ait en quelque sorte l'idée que le niveau de revenu des parents (X) pourrait être l'une des variables importantes déterminant ou influençant les attentes des élèves en matière de salaire (Y). Ainsi, Z est introduit dans l'analyse.

Supposons que le tableau suivant représente la relation entre les variables:

Remarque:

HML dans la rangée horizontale, divisant chaque catégorie de notes des étudiants, représente respectivement un niveau de revenu parental élevé, un niveau de revenu parental modéré et un niveau de revenu parental faible. Le tableau ci-dessus montre clairement que la relation entre X et Y est devenue moins significative par rapport à la relation entre Z et Y. '

Pour avoir une image plus précise, voyons le tableau suivant (une version du tableau B en omettant les catégories de X) montrant la relation entre Z et, c’est-à-dire le niveau de revenu des parents et les attentes monétaires des étudiants:

Le tableau montre très clairement que, quel que soit leur niveau, les attentes monétaires des élèves sont très fortement influencées par le niveau de revenu des parents (Z).

Nous constatons qu’un très grand nombre d’élèves (c’est-à-dire 91, 5%) ayant des attentes monétaires élevées appartiennent au groupe des parents à revenu élevé, 92% ayant des attentes monétaires modérées appartiennent au groupe des revenus parentaux modérés et, enfin, 97% ayant des attentes monétaires faibles groupe de revenu parental faible.

En comparant cette image avec celle représentée par le tableau A, on peut dire que la relation entre X et Y est fausse, c'est-à-dire que la note des étudiants n'a pas principalement déterminé le niveau des attentes monétaires de ceux-ci.

Le tableau A indique que les élèves qui obtiennent une note plus élevée montrent une tendance significative à la hausse des attentes monétaires, tandis que les étudiants de la première année ont une concentration très marquée dans la fourchette des attentes monétaires les plus basses.

Mais lorsque nous introduisons la troisième variable du revenu parental, le tableau qui apparaît devient suffisamment clair pour justifier la conclusion que le facteur réellement responsable des différentiels de taux d’anticipations monétaires est le niveau de revenu des parents.

Le tableau C montre une très forte et formidable concentration d’étudiants correspondant aux trois combinaisons mentionnées ci-dessus, à savoir des attentes monétaires plus élevées et un revenu parental plus élevé, des attentes monétaires modérées et des revenus modérés ainsi que des attentes monétaires plus basses revenu parental inférieur, soit 5%, 92, 1% et 1% respectivement.

Traçage du processus impliqué et d'une relation entre variables: Comme indiqué précédemment, si un troisième facteur Z réduit ou élimine la relation entre la variable indépendante X et la variable dépendante Y, nous pouvons en conclure que la relation entre X et Y est fausse, ou que nous avons pu retracer le processus par lequel X mène à Y.

Nous allons maintenant examiner les circonstances qui permettraient de conclure que le processus de relation entre X et Y a été tracé grâce à un troisième facteur Z.

Supposons que, dans une étude, les enquêteurs ont constaté que le score d'intimité moyen était plus élevé dans les petites communautés, ce dernier étant une mesure de l'intimité d'association entre les membres d'une communauté à laquelle on est arrivé en utilisant une échelle d'intimité.

Supposons qu'ils aient également constaté que les communautés de taille moyenne avaient un score d'intimité inférieur à celui des communautés de petite taille et que les communautés de grande taille affichaient le score d'intimité moyen le plus faible. Une telle conclusion suggère que la taille de la communauté détermine l'intimité de l'association entre les membres de la communauté.

En d'autres termes, les observations permettent de conclure que les membres vivant dans une communauté de petite taille ont une plus grande intimité d'association, alors que les communautés de grande taille se caractérisent par une moindre intimité d'association entre les membres.

Le tableau suivant présente les données hypothétiques:

Dans la deuxième colonne du tableau, des échantillons correspondant à chacune des communautés ont été présentés.

Dans la deuxième colonne du tableau, des échantillons correspondant à chacune des communautés ont été présentés. Dans la colonne 3, les scores d'intimité moyens correspondant aux types de communautés calculés sur la base des réponses données à certains éléments sur une échelle relative aux associations quotidiennes des membres ont été indiqués.

Le tableau montre que les scores d'intimité moyens varient inversement avec la taille de la communauté: plus la taille est petite, plus le score d'intimité est grand et, inversement, plus la taille est grande, plus le score d'intimité est faible.

Maintenant, supposons que les enquêteurs aient eu l’idée que les trois types de communautés différaient en termes de possibilités d’interaction entre membres, dans la mesure où les conditions de logement, la configuration résidentielle, les services publics partagés, etc., favoriseraient une telle association.

Ainsi, les enquêteurs introduiraient le troisième facteur dans l’analyse du potentiel d’interaction, c’est-à-dire dans quelle mesure les circonstances dans lesquelles vivent les personnes sont susceptibles de fournir des possibilités d’interaction entre elles.

Afin de vérifier l’hypothèse selon laquelle c’est en grande partie à cause des différences de structure résidentielle, de conditions de vie, de commodités communes, etc. que les trois types de communautés produisent des différences d’interaction entre les membres d’une même communauté, les enquêteurs tiennent compte de la taille de la interaction-potentiel conjointement par rapport au score d'intimité moyen.

L'infraction potentielle est donc la troisième variable Z introduite dans l'analyse. Le potentiel d’interaction est classé, par exemple, en faible potentiel d’interaction (b) potentiel d’interaction moyen et (c) haut potentiel d’interaction.

Le tableau suivant représente les données hypothétiques:

En lisant les lignes du tableau, nous voyons que le potentiel d'interaction est fortement lié au score d'intimité des membres de la communauté, quelle que soit sa taille.

Autrement dit, que nous considérions le rang pour les petites communautés, les moyennes ou les grandes, il y a dans chaque cas une augmentation du score d'intimité moyen avec une augmentation du potentiel d'interaction. De plus, en lisant les entrées sur les lignes, il apparaît clairement que la taille de la communauté et le potentiel d’interaction ont une corrélation significative.

Par exemple, environ les deux tiers des répondants d'une petite communauté vivent dans des conditions de potentiel d'interaction élevé; nous constatons également qu’une proportion beaucoup plus faible de résidents de communauté de taille moyenne vivent dans des conditions de potentiel d’interaction élevé et une très faible proportion de résidents de grande taille dans des conditions de potentiel d’interaction élevé.

Maintenant, nous lisons les scores d’intimité en bas des colonnes pour constater que la relation entre le type de communauté et l’intimité d’association a été considérablement réduite. En fait, pour les personnes vivant dans des conditions de potentiel d’interaction élevées, aucune relation précise n’est établie entre la taille de la communauté et le score d’intimité.

Les enquêteurs peuvent conclure de cet ensemble de relations que la relation inverse entre la taille de la communauté et le score d'intimité est valable, mais que l'un des principaux moyens par lesquels un type particulier de communauté encourage l'intimité parmi ses membres consiste à: opportunités qui augmentent le taux d'interaction entre eux.

En d'autres termes, les petites communautés se caractérisent par un score d'intimité moyen plus élevé, car leur petite taille offre de nombreuses possibilités pour une interaction élevée entre les membres. Les communautés de grande taille, en revanche, se caractérisent par un score d'intimité relativement faible.

Mais le score d'intimité le plus faible n'est pas attribuable à la taille de la communauté mais au fait qu'une communauté de grande taille ne peut pas offrir la possibilité d'une interaction accrue entre ses membres, contrairement aux communautés de petite taille.

Par conséquent, les enquêteurs, au lieu de conclure que la relation entre la taille de la communauté et le score d'intimité moyen entre les membres sont fausses, pourraient conclure qu'ils ont été en mesure de retracer le processus par lequel X (c'est-à-dire le type de communauté) influence Y (le score d'intimité).

La première garantissait la conclusion que la relation entre les variables X et Y était fausse, et la dernière la conclusion que le processus de X à Y pouvait être suivi par Z (X à Z à Y). Dans les deux cas, l'introduction d'une troisième variable Z a réduit ou éliminé la relation entre elles (X et Y).

Une différence peut cependant être notée. Dans le premier exemple, la variable Z (c.-à-d. Le niveau de revenu des parents) était clairement antérieure aux deux autres variables (la note des étudiants à l'examen et les attentes monétaires des étudiants).

Dans le deuxième exemple, la troisième variable Z (potentiel d’interaction offert par les communautés) n’est pas apparue avant la variable causale supposée (taille de la communauté). Il était concomitant et pourrait être considéré comme commençant après.

La séquence chronologique des variables est donc un facteur important à prendre en compte pour déterminer si une relation de cause à effet apparente est fallacieuse. En d’autres termes, si la troisième variable Z, qui supprime ou élimine la relation entre les variables X et Y liées initialement, nous concluons généralement que la relation causale apparente entre les variables X et Y est fallacieuse.

Mais si la troisième variable Z est connue ou supposée s’être produite aux mêmes moments que X ou après X, il peut être utile de conclure que le processus par lequel X conduit à Y a été tracé.Ainsi, une certaine mesure de confiance dans le lien de causalité déduit d'études à caractère non expérimental, il est nécessaire de les soumettre au test critique consistant à éliminer les autres variables éventuellement pertinentes.

Pour cette raison, il est important de collecter au cours de l’étude des données sur ces variables éventuellement influentes autres que celles pour lesquelles l’hypothèse de l’étude est centralement concernée.

Il a été dit précédemment que l'introduction d'une troisième variable dans l'analyse pouvait avoir pour effet d'intensifier la relation au sein d'un sous-groupe et de réduire celle-ci dans un autre sous-groupe. Si tel est le cas, nous disons que nous avons spécifié une condition (Z) sous laquelle la relation entre X et Y est vérifiée.

Illustrons maintenant le processus de spécification. Supposons que, dans une étude communautaire, nous trouvions une relation entre le revenu et le niveau d'éducation.

Ceci est indiqué dans le tableau ci-dessous:

Nous voyons dans le tableau que la relation entre l'éducation et le revenu est assez marquée. Plus l’enseignement est élevé, plus le pourcentage de cas dont le revenu annuel est supérieur à 5 000 roupies est élevé. Cependant, nous pouvons décider que la relation nécessite des précisions supplémentaires.

C'est-à-dire que nous souhaiterions peut-être en savoir plus sur les conditions dans lesquelles cette relation se crée. Supposons que l’idée nous vienne à l’esprit que le fait que les répondants vivant dans une communauté urbaine-industrielle puisse influer positivement sur les avantages de l’éducation pour un emploi rémunéré et donc sur son incidence sur le revenu.

Sur cette hypothèse, nous introduisons dans l'analyse le troisième facteur Z, à savoir les répondants qui vivent dans la communauté industrielle urbaine et ceux qui vivent dans la communauté rurale non industrielle, et nous analysons son incidence sur la relation initiale entre X et Y ( c'est-à-dire l'éducation et le revenu).

Supposons que nous obtenions une image comme indiqué dans le tableau suivant:

Nous pouvons voir clairement que le tableau B reflète une relation très différente entre le revenu et l'éducation pour les personnes vivant dans la communauté rurale non industrielle et celle pour ceux vivant dans la communauté urbaine-industrielle. Nous voyons que pour ceux qui vivent dans les villes industrielles, le rapport entre l'éducation et le revenu est légèrement supérieur à celui d'origine.

Toutefois, pour les personnes vivant dans les communautés rurales non industrielles, la relation dans le tableau ci-dessus est considérablement inférieure à la relation initiale.

Ainsi, l'introduction du troisième facteur et la rupture de la relation d'origine sur la base du troisième facteur (Z) ont permis de spécifier une condition dans laquelle la relation entre X et Y est plus prononcée, ainsi que la condition dans laquelle la relation est moins prononcée.

De même, supposons que, dans le cadre d'une étude, les personnes appartenant à la catégorie de revenu supérieur aient généralement un nombre d'enfants inférieur à celui des catégories de revenu inférieur. Supposons que nous estimions (sur la base d’une orientation théorique) que le facteur de l’habitation en ville pourrait jouer un rôle important dans l’influence de la relation.

En introduisant ce facteur, supposons que nous trouvions que la relation initiale entre le niveau de revenu et le nombre d’enfants devienne plus prononcée en ville et qu’elle devienne moins prononcée chez les populations rurales que nous n’avons identifié une condition Z (c’est-à-dire ) sous laquelle la relation devient nettement renforcée ou prononcée.

Interprétation des résultats d’une étude:

Jusqu'ici, nous nous sommes principalement intéressés aux procédures qui, ensemble, constituent ce que nous appelons habituellement l'analyse de données. Cependant, la tâche du chercheur est incomplète s'il ne présente pas ses résultats sous la forme de généralisations empiriques auxquelles il parvient par le biais de l'analyse de données.

Un chercheur qui, par exemple, termine son exercice de recherche simplement en affirmant que «les personnes non mariées ont une incidence de suicide plus élevée que les personnes mariées» ne remplit pas son obligation générale envers la science, bien que la généralisation empirique qu'il a énoncée a une valeur en soi.

Le chercheur dans l’intérêt plus large de la science doit également chercher à montrer que ses observations révèlent certains rapports et processus sous-jacents qui sont initialement dissimulés à l’œil. En d’autres termes, le chercheur doit montrer que son observation a un sens, beaucoup plus large et plus profond, que celui qu’il semble avoir à la surface.

Pour revenir à notre exemple de suicide, le chercheur devrait être en mesure de montrer que son observation selon laquelle «les personnes non mariées sont caractérisées par le suicide» reflète, en fait, la relation plus profonde entre la cohésion sociale et le taux de suicide (théorie de Durkheim).

Une fois que le chercheur est capable d'exposer les relations et les processus qui sous-tendent ses découvertes concrètes, il peut établir des relations abstraites entre ses découvertes et diverses autres.

Le travail du chercheur va donc bien au-delà de la collecte et de l’analyse de données. Sa tâche va jusqu'à interpréter les résultats de son étude. C'est par interprétation que le chercheur peut comprendre la signification réelle de ses résultats, c'est-à-dire qu'il peut comprendre pourquoi les résultats sont ce qu'ils sont.

Comme indiqué précédemment, l'interprétation consiste à rechercher des significations plus larges et plus abstraites des résultats de la recherche. Cette recherche consiste à visualiser les résultats de la recherche à la lumière d'autres connaissances établies, d'une théorie ou d'un principe. Cette recherche a deux aspects principaux.

Le premier aspect concerne l’effort d’établir une continuité dans la recherche en reliant les résultats d’une étude à ceux d’une autre. C'est par interprétation que le chercheur peut démêler ou comprendre le principe abstrait sous-jacent aux observations empiriques concrètes.

Après avoir discerné ce dénominateur commun abstrait, le chercheur peut facilement relier ses résultats à ceux d’autres études conduites dans des contextes divers, divers en termes de détail mais reflétant le même principe abstrait au niveau des résultats.

Il va sans dire que le chercheur peut, sur la base de la reconnaissance du principe théorique abstrait sous-jacent à sa découverte, faire diverses prédictions sur le monde concret des événements sans aucun lien apparent avec le domaine de ses découvertes. Ainsi, de nouvelles enquêtes peuvent être déclenchées pour tester les prévisions et, de manière compréhensible, de telles études seraient en relation avec l'étude initiale du chercheur.

Dans un sens quelque peu différent, l'interprétation est nécessairement impliquée dans la transition de la recherche exploratoire à la recherche expérimentale. L'interprétation des résultats de la première catégorie de recherches conduit souvent à des hypothèses pour la seconde.

Puisqu'une étude exploratoire n'a pas d'hypothèse pour commencer, les résultats ou conclusions d'une telle étude doivent être interprétés sur une interprétation "post factum" est souvent un jeu hasardeux lourd d'implications dangereuses. Une telle interprétation implique une recherche d'un parrain sous la forme d'une théorie ou d'un principe qui adopterait (c.-à-d. Expliquerait) les résultats de l'étude.

Cette quête s'avère souvent être un exercice de la part du chercheur pour justifier ses découvertes en localisant une théorie adaptée à ses découvertes. En conséquence, des conclusions contradictoires peuvent souvent trouver leurs «parrains» dans diverses théories.

Cet aspect de l'interprétation post-factum, comprenant des tentatives de rationalisation des résultats de la recherche, doit être clairement pris en compte lors de la poursuite de celui-ci. Parfois, cependant, il n’ya pas d’autre alternative.

Deuxièmement, l'interprétation mène à l'établissement de concepts explicatifs. Comme il a été souligné, l'interprétation des résultats implique des efforts pour expliquer pourquoi les observations ou les résultats sont ce qu'ils sont. En accomplissant cette tâche, la théorie revêt une importance centrale.

C'est un sensibilisant et un guide des facteurs et processus sous-jacents (bases explicatives) sous-jacents aux résultats. Au cours d'une étude, le chercheur a sous ses observations un ensemble de facteurs et de processus susceptibles d'expliquer ses observations sur le monde empirique. L'interprétation théorique permet de découvrir ces facteurs.

La tâche du chercheur est d’expliquer les relations qu’il a observées au cours de son étude, en exposant les processus sous-jacents qui lui permettent de mieux comprendre ces relations et de mettre en évidence le rôle de certains facteurs fondamentaux intervenant dans la problématique de son étude.

Ainsi, l’interprétation a un double objectif. Premièrement, il donne une compréhension des facteurs généraux qui semblent expliquer ce qui a été observé au cours d’une étude et deuxièmement, il fournit une conception théorique qui peut à son tour servir de guide pour des recherches ultérieures.

C’est ainsi que la science parvient à désengager cumulativement avec plus de succès les processus fondamentaux qui façonnent la partie du monde empirique qui préoccupe un chercheur.

L’interprétation est tellement inextricablement liée à l’analyse qu’elle devrait plutôt être conçue comme un aspect particulier de l’analyse plutôt que comme une opération séparée ou distincte. En conclusion, nous sommes tentés de citer le professeur C. Wright Mills qui a expliqué l’essence même de tout ce qui est impliqué dans l’analyse (impliquant l’interprétation) de données.

Mills déclare: «Vous allez donc découvrir et décrire, en définissant des types pour la commande de ce que vous avez découvert, en focalisant et en organisant l'expérience en distinguant les éléments par leur nom. Cette recherche d’ordre vous amène à rechercher des modèles et des tendances et à trouver des relations qui peuvent être typiques et causales. En bref, vous chercherez le sens de ce que vous avez découvert ou ce qui peut être interprété comme un signe visible de quelque chose qui semble impliqué dans tout ce que vous essayez de comprendre; vous le réduirez à l'essentiel; ensuite, soigneusement et systématiquement, vous les relierez afin de former une sorte de modèle de travail…. ”

«Mais parmi tous les détails, vous chercherez toujours des indicateurs qui pourraient indiquer la dérive principale, les formes et les tendances sous-jacentes de l’ensemble de la société à une époque donnée.» À la suite d’une recherche arrêtée, la déclaration cela soulève un éventail de nouvelles questions et des problèmes peuvent être posés.

Certaines des nouvelles questions constituent le fondement de nouvelles recherches et de la formulation de nouvelles théories qui modifieront ou remplaceront les anciennes. C'est en effet ce que recherche signifie. Il sert à ouvrir de nouvelles voies d'aventure intellectuelle plus vastes et simule la quête de plus de connaissances ainsi que d'une plus grande sagesse dans son utilisation.