Vous êtes sur la page 1sur 51

Processus d’influence sociale

Juan Falomir-Pichastor

Introduction aux processus d’influence sociale

Les phénomènes d’influence sociale concernent les processus par lesquels les
individus et les groupes façonnent (normalisation), maintiennent
(conformation), diffusent et modifient leurs modes de pensée et d’action lors
d’interaction sociales directes ou symbolique.

L’influence sociale présuppose, la plupart du temps, une divergence de


jugement entre la source et la cible.

Les rapports d’influence sont très souvent caractérisés par une différence de
ressources psychosociales. Les ressources psychosociales sont des symboliques
qui font qu’on a une certaine puissance d’impact sur la cible. L’idée est qu’on a
quelqu’un avec beaucoup de ressources vs quelqu’un qui dispose de moins de
ressources psychosociales. Il y a donc, dans l’équation, une différence de
ressource et l’idée des modèles classique était de dire que l’influence était très
largement liée à cette différence et la source est celle qui dispose du plus de
ressources.

Le modèle classique repose sur le fait qu’on peut expliquer l’influence par un
type de dépendance et le différentiel de ressource sur la dépendance. La
première est la dépendance informationnelle, on est dépendant pour les
connaissances. C’est typique des situations d’incertitude.
Les autres dépendances sont des dépendances normatives. La question ici
n’est pas est-ce que l’autre va boucher les trous mais qu’est-ce qui va me
prédominer ? Il y a des sources qui disposent d’un pouvoir de feedback sur les
gens qui peut être positif ou négative. C’est le pouvoir de punition ou de
récompense. Il y a aussi l’influence supérieure de l’intragroupe. Une source a
plus d’influence si elle a le même groupe d’appartenance que le nous que si
elle faisait partie d’un autre groupe. Le dernier élément est le pouvoir externe
légitime. Il y a des individus à qui on attribue des pouvoirs d’expert légitimes, la
capacité de nous dire ce qui est vrai ou non.
Dans ces modèles classiques, on va privilégier certaines sources : les majorités,
les sources intragroupes, les experts et ceux de statut psychosocial supérieur
en général.
Festinger a posé une question : pourquoi communique-t-on ? pour la
communication dépend de 3 facteurs :
- Il faut une divergence. Si 2 personnes sont complètement d’accord sur
qqch, il n’y a pas de raison de parler
- Il faut que le thème de la divergence soit pertinent pour la locomotion
du groupe. Ici la communication est la motivation à ‘’traiter’’ la
pertinence.
- La cohésion, l’idée étant que les groupes cohésifs, sont fait de gens qui
ont des motivations identitaires et qui auront donc plu envie de
communiquer
Les motivations à se conformer sont les mêmes que les motivations à
communiquer.

Les modèles de la divergence les plus récents insistent sur les motivations et le
traitement de l’information, la cognition. Ils élaborent la divergence de
contenu. Le rôle du conflit est central, dans le sens que la divergence doit être
importante.

Les différents niveaux d’influence sont manifeste ou latente. Celle manifeste


est une démonstration publique, immédiate, directe et consciente de
l’influence. L’influence latente est l’inverse. Elle est privée, différée, indirecte
et inconsciente.

Ceci permet d’étudier 4 patrons d’influence :


- Les cas où il y a de l’influence manifeste et de la latente, ce qu’on
appelle l’influence totale
- Les cas où il n’y a pas d’influence ni manifeste, ni totale, ce qu’on appelle
un échec d’influence
- Les cas où il y a de l’influence manifeste mais pas latente, ce qu’on
appelle la complaisance. Le changement est superficiel
- Les cas où il n’y a pas d’influence manifeste, mais que de l’influence
latente, c’est de la conversion. Il n’y a rien sur le plan public mais avec le
temps, peu à peu, on est influencé de manière profonde

Une méta-analyse a été réalisée. Les études montrent que les sources avec un
haut statut psychosocial obtiennent plus d’influence manifeste sans que cela
préjuge d’une influence latente. On peut retrouver les 2 comme que la
manifeste.
Pour les sources de bas statut, elles obtiennent peu d’influence manifeste mais
peuvent induire de l’influence latente.
Mais ces choses sont des grandes tendances. En réalité, tout est possible.

La normalisation est basée sur un paradigme qui est celui autocinétique. On


met les gens dans une salle noire, dont ils ne connaissent pas les dimensions et
on projette une petite lumière momentanément. Elle ne bouge pas mais on a
l’impression qu’elle bouge. Les gens font 80 essais et doivent dire, selon eux,
de combien de centimètres bouge la lumière. On met ensuite les sujets par 2
ou 3. Dans les groupes de 2, on met des personnes qui divergent initialement,
à la fin de 80 essais individuels et on voit que, plus ils font d’essais ensembles,
plus la distance jugée par les sujets devient similaire. Ces derniers n’ont pas le
droit de communiquer, simplement dire la distance estimée. C’est ce que
Sherif appelle la normalisation.

La convergence réciproque est quand 2 individus divergents se rejoignent


chacun de la même amplitude, une sous-branche de la normalisation. Pour
qu’elle ait lieu dans la tâche, il faut qu’il y ait une absence de référence
antérieure saillante et elle dépend de la représentation du savoir scientifique.
Les sujets sont dans une situation d’incertitude et dans ces situations, il faut
établir une validité des jugements. Pour cela, on se réfère à la représentation
naïve qu’on a du savoir scientifique : le consensus, c’est valide si on est
d’accord.
Les caractéristiques du contexte social sont l’absence d’enjeux interférents (il
ne faut pas qu’il y ait d’autre but que de trouver la distance), l’égalité de statut
et l’absence de menace identitaire.

Sampson a fait une thèse où il est allé dans un monastère où il y avait des
novices qui venaient d’arriver et des novices qui étaient là depuis 1 année. Ces
gens ne se connaissent pas. Les chercheurs ont fait 4 types de paires à qui ils
font passer le paradigme autocinétique, en voilà 2 :
- Novice et novice : les 2 convergent de manière égale l’un vers l‘autre
- Novice et novice de 1 an : le novice récent converge vers l’autre mais pas
l’inverse. Il faut une égalité de statut.
Donc, on converge de manière égalitaire quand il y a une égalité de statut

Dans une situation de normalisation, il y a 2 types d’enjeux :


- Épistémiques/sociocognitifs : comment je résous la tâche ?
- Relationnel
Mais il y a des interférences.
On utilise un dispositif allocinétique où la lumière bouge vraiment. On fait
passer la tâche à un sujet qui va être confronté à un compère qui donne des
réponses différentes selon 3 conditions :
- Très différents
- Différent
- Similaire, il donne les mêmes réponses que le sujet au pré-test (80
premiers essais)

Il y avait une autre variable qui était les idéologies, une des interférences. On
faisait passer un questionnaire aux sujets en même temps que le compère et à
la fin on disait à haute voix si le compère avait des idéologies similaires ou
différentes de celles du sujet.
On leur fait donc passer le paradigme autocinétique aux 2 participants et on
observe que quand les jugements de distances sont très différents, peu
importe les idéologies, le sujet converge beaucoup, quand le jugement est
différent et les idéologies similaires, il y a une convergence aussi mais si les
idéologies sont différentes, il ne bouge pas. Par contre, quand les idéologies
sont différentes mais les jugements similaires, il y a une divergence. Les sujets
répondent différemment de ce qu’ils avaient dit au prétest. C’est un effet de
dissimilation.

L’expérience de Asch montre que le conformisme dépend d’une unanimité. Si


les compères ne répondent pas tous la même chose, le taux de conformisme
passe de 36% à 5%.
L’autre condition est la persévérance dans l’erreur. Plus la source se trompe,
plus on se conforme.

L’effet du nombre, dans le paradigme de Asch, montre que 1 personne n’a pas
d’effet, 2 plus mais pas beaucoup. Mais à partir de 3, peu importe si on
augmente le nombre de compères ensuite, le niveau de conformisme
n’augmente plus après. 1 est un individu, 2 est une paire, 3 et plus est un
groupe.
Deutsch et Gerard ont voulu montrer qu’il y a des influences informationnelles
et d’autre normatives. Celles informationnelles sont parce qu’il y a de
l’incertitude. Les chercheurs ont alors fait une variante de Asch où, dans un cas
les participants voyaient les barres tout le long et dans un autre, on les retirait
pour créer une incertitude visuelle. Les sujets étaient soit seuls, en anonyme
ou en groupe. Les résultats montrent qu’il y a beaucoup plus d’influence dans
la condition d’incertitude et moins dans celle en anonymat.
Dans un groupe il y a une pression normative à répondre comme les autres

Mais il y a aussi des pressions à se conformer à soi-même. … l’influence est très


réduite quand on rend la norme individuelle saillante.

Obéissance

Quand on parle d’obéissance on fait toujours référence à une figure d’autorité


et on parle donc du fait de se conformer aux ordres d’une personne ou
institution en position d’autorité. Du point de vue historique, l’obéissance a été
étudiée comme une qualité essentielle de l’être humain en société, surtout
pour l’éducation. Un enfant non-obéissant était considéré comme mal élevé et
déviant.
Ce n’est pas quelque chose d’intrinsèquement lié à l’individu, c’est quelque
chose qui s’apprend et le plus tôt le mieux. Ce n’est pas un trait
Mais l’obéissance a aussi été considérée négativement dans certains cas. En
psychanalyse, on considère que c’est naturel chez l’enfant car il est dépendant
des parents mais cette dépendance devrait disparaître avec l’adulte et si le
besoin d’être soumis persiste, c’est qu’il y a eu un transfert de la figure
parentale à d’autres personnes de la vie. L’obéissance aveugle est aussi
problématique.

Milgram a étudié l’obéissance aveugle, aveugle face aux conséquences de ses


actes et à l’emprise que la figure d’autorité a sur la personne obéissante.
Pour étudier cette situation il a créé un paradigme avec 19 variantes, afin de
comprendre comment les Nazis avaient réussis à commettre des atrocités
telles durant la 2ème guerre mondiale, sans ressentir de culpabilité. Son
paradigme était basé sur l’apprentissage mémoriel. On présentait des duos de
mots et les sujets devaient les mémoriser. On présentait ensuite un des 2
mots, et le sujet devait restituer celui qui y était associé. Ce sujet était en fait
un compère qui se faisait attacher à une chaise et connecté à des câbles
électriques, pour que, quand il réponde faux, il se fasse punir. Évidemment, il
n’y avait pas de vraies décharges. Le seul vrai sujet était une personne qui était
chargée d’administrer les chocs en appuyant sur des boutons. Les boutons
allaient jusqu’à 450 Volts, ce qui était écrit sur les boutons. Le sujet savait donc
ce qu’il faisait.

On avait, dans une salle, le vrai participant avec l’expérimentateur (figure


d’autorité), qui ordonnait l’administration des charges, et dans une salle
adjacente, le compère.
Le compère a des réaction différentes et de plus en plus intenses avec le
nombre de volts augmentant, jusqu’à 315, où il ne répond plus. Quand le vrai
participant disait qu’il ne voulait plus continuer, l’expérimentateur avait 4
phrases prévues à lui donner pour le persuader de continuer. Si malgré ces
phrases, le sujet ne voulait pas continuer, l’expérience s’arrêtait.
Milgram était allé voir des psychiatres et psychologues pour leur demander,
selon eux, quel pourcentage irait jusqu’au bout. Très peu répondirent juste.

Les résultats montrent que tous les vrais sujets tiennent jusqu’à, au moins, 210
volts.

Pour mieux étudier la situation, Milgram a fait des variantes (19 en comptant
celle de base) où on varie la proximité entre le sujet et le compère,
l’importance de l’autorité, avec des sujets féminins, le rôle dans l’expérience
(administrateur, victime ou vérificateur de réponse), le changement de statut
et des troubles au sein de l’autorité.
Les résultats généraux montrent qu’on obéit vraiment qu’à une figure
supérieure dans une position supérieure. Si les ordres viennent de quelqu’un
d’autre ou la figure n’a pas une position d’autorité, alors personne ne va
jusqu’au bout.

Aujourd’hui, cette étude ne pourrait pas être répliquée pour des raisons
éthiques.

Une des approches alternatives est celle de Burger qui, pour détourner les
considérations éthiques, avait présélectionné les participants pour éviter des
réactions émotionnelles indésirables, avait clarifié que l’on pouvait arrêter dès
que l’on voulait, il y avait un débriefing à la fin, l’expérimentateur était un
psychologue clinicien et le voltage maximum était de 150V car chez Milgram,
c’était un point où on trouvait 82,5% d’obéissance en général et c’était un
point de non-retour car 79% des gens qui allaient jusqu’à là, allaient jusqu’à la
fin.
Pourquoi les participants obéissent ? On ne sait pas vraiment. On peut
imaginer qu’il y a un facteur culture mais en comparant les États-Unis aux
autres pays (Europe mais aussi Afrique, Golfe arabique et Asie), on ne perçoit
qu’une toute petite différence. Malgré les stéréotypes sur les femmes étant
plus obéissantes ou à l’opposée, plus stressé, on ne trouve pas de différence

L’obéissance aux règles est un comportement inhérent à la vie en société afin


d’éviter les conflits. Il n’y a donc pas de personnalité qui obéit plus qu’une
autre.
Lorsqu’on se conforme, on devient un agent de l’autorité, ce qui est le
problème de l’obéissance aveugle.

Il y a une théorie qui propose 3 stades qui seraient requis au fonctionnement


de l’expérience :
- Les conditions préalables
o La famille a donné un contexte d’éducation et d’autorité
o L’idéologie dominante doit être la science, on doit croire en sa
légitimité
- L’état d’obéissance/agentique
o Syntonisation (harmonie avec l’environnement) avec l’autorité et
diminuée avec l’extérieur
o Perte du sens de la responsabilité
- Les causes qui maintiennent l’obéissance
o Une anxiété se créé vis à vis des actes, ce qui rassure le sujet sur le
fait qu’il n’était pas d’accord avec
Mais la théorie n’est pas prouvée

D’autres explications sont qu’on obéit pour garder une bonne image car
désobéir pourrait être mal perçu (impression management). Une autre dit que
quand on parle d’obéissance, on devrait se référer simplement aux ordres
donner et non pas aux arguments donnés qui pourraient persuader les sujets
d’aller jusqu’aux bout car dans le 2ème cas, ils obéiraient donc car ils pensent
bien faire et non à cause de la figure d’autorité. C’est la rhétorique de
l’interaction.

D’autres explications reposent sur des techniques d’influence sociale comme


l’engagement. On escalade les volts 20 par 20, et c’est à 150 que la conception
change, quand le compère se plaint pour la première fois.
Une autre explication dit que 12,5% des obéissants se sentent responsables
alors que 66,7% des désobéissants se sentent responsables. On nie la
responsabilité pour éviter des conséquences psychologiques négatives
(dissonance).
On pourrait aussi expliquer le tout par l’incertitude, l’ambiguïté de la situation
face à l’expert. Dans la situation avec les 2 expérimentateurs ou enseignants se
contredisant, le taux d’obéissance baisse.

Peut-on donc expliquer les atrocités de l’Holocauste ? Non. L’Holocauste est un


phénomène complexes multifactoriel. Des différences entre l’holocauste et
l’expérience sont que les Nazis manifestaient de l’initiative, fierté,
enthousiasme et spontanéité. Ils partageaient leurs objectifs avec leurs
supérieurs et ils n’avaient pas de supervision directe. Rien de tout ça n’est vrai
pour les sujets de Milgram.

Un paradigme alternatif est celui de Beauvois. Dans l’expérience de Milgram,


c’est le statut de scientifique qui accord une légitimité et supériorité à l’agent.
Beauvois se demande si les animateurs d’émissions télévisées ont l’autorité
nécessaire pour faire commettre des actes dangereux. On a pris 76 participants
pour participer à un jeu télévisé. Les participants devaient apprendre des pairs
de mots. Il y avait un apprenant et un ‘’enseignant’’, comme chez Milgram.
L’expérience comportait 4 conditions :
- Contrôle
- Support social : à 120V, le producteur de l’émission dit d’arrêter car c’est
immoral
- TV-broadcast : les sujets pensent que l’émission est diffusée en direct
- Host-withdrawal : l’animateur s’en va après 80 volts
Les décharges vont de 20 à 460V et augmentent de 20V par échec

Dans la condition contrôle, 81% des sujets vont jusqu’au bout, 74% dans la
condition support social, 72% quand ils pensent que c’est en live mais
seulement 28 quand l’animateur s’en va.

Après l’expérience, on demande aux participants de distribuer 100 points de


responsabilité à différentes causes. Les obéissants mettent la faute sur le
producteur plus que tout et les non-obéissants sur les enseignants. Les autres
choix sélectionnés de manière égale dont l’animateur, l’audience et
l’apprenant.

Psychologie de l’engagement

1. Rappels théoriques autour de l’effet de gel


L’effet de gel est une conclusion qu’a tiré Lewin de ses recherches. En 1947,
aux États-Unis, on cherche à amener les ménagères à consommer plus d’abats.
Lewin a alors réuni les ménagères pour qu’elles écoutent une conférence sur
l’avantage de consommer des abats en pensant que la transmission des
informations suffirait. 1 mois plus tard, si on les questionnait sur leur
consommation d’abat, seul 3% l’avait fait. Le chercheur a alors refait une
conférence et, à la fin, a demandé aux ménagères d’accord d’utiliser des abats
de e montrer publiquement (lever la main). Une majorité témoigne. 1 mois
plus tard, on questionne à nouveau les ménagères et cette fois, 32% des
ménagères en ont utilisé.
Lewin a interprété cet effet comme un effet de gel. Lorsqu’on prend une
décision (en levant la main par exemple) et de plus si cette décision est
publique, cette dernière va geler le reste de nos comportements autour de
cette décision.

‘’L’effet de gel traduit ce phénomène d’adhérence à la décision prise. Tout se


passe comme si la décision prise gelait le système de choix possibles en
focalisant l’individu sur le comportement directement relié à sa décision’’
– Lewin
À partir du moment où on prend une décision, on ne considère plus les autres
car on s’est engagé, publiquement des fois, et on doit donc s’y tenir, même si
on ne pense pas que ce soit la bonne décision.

2. La théorie de l’engagement

La théorie de l’engagement a été développée par Kiesler qui a essayé de


comprendre les mécanismes de l’effet de gel. Son idée principale est que les
comportements des individus ne sont pas uniquement le fruit de nos attitudes
et idées mais des actes qui nous engagent dans un cours d’action donné. On
n’agit pas forcément sur nos pensées mais sur des actes passés via lesquels on
a exprimé un engagement envers quelque chose, ce qui gèle les autres options.
On appelle ça des actes préparatoires
Kiesler definit l’engagement comme le lien qui unit l’individu à ses actes
comportementaux

Ce n’est pas le sujet qui s’engage en fonction de ses idées ou de ses actes eux-
mêmes, mais bien les circonstances qui engagent le sujet dans ses actes en
fonction de certaines caractéristiques objectives.
La prise de décision est indépendante de attitudes des individus.
Dans une expérience, des chercheurs essayait d’amener les participants à
pratiquer plus le recyclage et ramasser les déchets. Ils se sont focalisés sur 3
quartiers, 1 par condition expérimentale. Il y avait 2 phases :
- Celle expérimentale de 15 jours où on invitait les participants à 2 dates
spécifiques à ramasser les déchets
- La 2ème phase consiste à regarder si le comportement allait se maintenir
en disant qu’eux, les expérimentateurs allaient s’en aller mais que 2
dates en plus étaient prévues s’ils voulaient
Dans la première condition, on faisait simplement du porte-à-porte en donnant
les dates. Dans la 2ème, on demandait à la fin des informations l’accord oral des
personnes de participer à l’expérience lors des 2 dates, un petit engagement.
Lors de la 3ème condition, on demande un accord écrit et les sujets reçoivent un
reçu pour témoigner qu’ils ont bien signé.
Les expérimentateurs pesaient aussi les poubelles, voir si les sujets
ramassaient plus.

Au niveau du poids la condition 3 avait ramassé plus que la condition 2, qui


avait ramassé plus que la condition 1 mais au niveau de l’engagement la
condition 3 était plus présente que la condition 1 et 2 qui étaient au même
niveau, car après l’étude, la condition 1 et 2 ne continuent pas alors que la 3
oui.

Un acte est engageant dans des conditions :


- Répétées
- Couteuses
- Produites en public
- Irrévocables
- Importantes ou impliquant de fortes conséquences
- De libre choix (il ne faut que la personne croie qu’elle a pris sa décision
seule)
- Si identification de l’action congruente
- Acte non-problématique (il est plus favorable qu’un acte engageant ne
remette pas en cause nos opinions, attitudes ou normes)

3. L’escalade d’engagement

Dans une étude, on demande à des étudiants de se mettre à la place d’un chef
d’entreprise qui est à la tête de 2 filiales. On leur accorde un crédit de 20’000$
qu’ils doivent donner à une filiale ou l’autre, ils doivent faire un choix. Ils
reçoivent des dossiers sur les filiales pour qu’ils puissent faire leur décision. On
leur dit que 5 ans sont passés et ils ont un nouveau crédit qu’ils doivent cette
fois répartir entre les 2 filiales.
La première variable est la conséquence de la première décision, l’attribution
des fonds. Soit on leur dit que la 1 ère décision était bonne et a porté ses fruits,
soit la filiale choisie est un échec. La 2 ème variable est la responsabilité de la 1 ère
décision. Un groupe a dû prendre cette décision eux-mêmes et un autre
apprend cette décision avant de prendre la 2 ème, comme si quelqu’un d’autre
l’avait faite.
Ce qu’on mesure est l’argent attribuer à la filiale choisie lors de la 1 ère décision.

On s’aperçoit que lorsque la première décision prise est positive, peu importe
si la responsabilité est notre ou non, on donne le même montant d’argent à
cette filiale. Si les conséquences sont négatives et qu’on a la responsabilité de
la décision, on investit beaucoup plus que si la décision n’était pas la nôtre. On
persévère dans nos décisions.

4. Les techniques d’engagement

La plupart des techniques d’engagement prennent appuis sur ce qui a été vu


au préalable mais d’autres s’appuient sur d’autres théories parallèles.

Le principe du pied dans la porte est de demander peu avant d’en demander
beaucoup. Le comportement peu couteux et non-problématique est appelé un
acte préparatoire, ce qui aide à la requête finale, un acte non-problématique
mais plus couteux.

Des chercheurs ont fait une recherche en lien avec une association sur le
handicap mental dans le but de récolter de l’argent. Il y a 2 conditions :
- Dans un cas on demande directement si les gens veulent faire un don
- Dans un autre on demande de signer une pétition pour la création d’un
centre de rencontre pour des gens handicapé puis on demande si les
gens veulent faire des dons.
Une autre variante est que les gens donnent la somme qu’ils veulent et l’autre
est de proposer de donner une somme fixe, 40£, 50£ ou 60£.
Les résultats montrent que quand il n’y a pas de pieds dans la porte et que plus
on demande d’argent, moins les gens sont prêts à en donner. Mais de manière
générale le pied dans la porte aide au don et plus on demande d’argent, plus
les gens donnent.
La technique de la porte-au-nez est en quelques sortes le contraire du pied-
dans-la-porte. On propose un comportement non-problématique et très
couteux comme acte préparatoire pour ensuite demander un comportement
non-problématique et peu couteux. Le principe est d’en demander beaucoup
pour en obtenir moins.

Une expérience avait comme objectif d’amener des étudiants à accompagner


des jeunes délinquants au zoo durant 2h. Seulement 16,7% acceptent dans la
condition contrôle. Mais quand on leur demande au préalable de travailler
dans un centre de détention 2h par semaine, durant 2 ans, ce que personne
n’accepte, alors 50% des gens acceptent ensuite d’accompagner les jeunes
délinquants au zoo.
Cette technique n’est pas vraiment une technique d’engagement car les gens
ne s’engagent à rien et, au contraire, disent non.

L’amorçage consiste à utiliser une amorce afin d’obtenir une première


acceptation, qui gèlera le comportement final. Il en existe 2 types :
- Sur des avantages fictifs, on dit des choses qui n’existent pas
- Par inconvénients cachés, on omet des aspects de la décision

Doivent choisir entre 2 expériences DEMANDER A VAL + SLIDE

Dans une autre étude pour illustrer l’amorçage par inconvénient caché, on
essaye de faire venir des étudiants à une expérience à 7h du matin.
Dans une condition, on ne dit pas l’heure de début de l’expérience et dans une
autre on ne la cache pas. On voit que dans la première condition, 56% des
gens acceptent et 53% viennent vraiment alors que dans la 2 ème condition, 31%
des gens acceptent mais seulement 26% viennent.

L’hypocrisie induite fait référence à la dissonance cognitive, qui est fortement


liée à l’engagement. Le principe est de mettre en avant des évènements passés
où l’individus a transgressé la norme ou ses attitudes personnelles.
Dans une étude, on assigne des étudiants à 4 conditions :
- Information seule sur les bienfaits des préservatifs
- Les étudiants devaient dire toutes les fois où ils auraient pu utiliser les
préservatifs mais ne l’ont pas fait
- On les filme en train de dire pourquoi l’usage des préservatifs est bien
en disant que ça va être utilisé dans la campagne
- Ils sont filmés et doivent dire quand ils n’ont pas utilisé de préservatif
mais auraient dû
On mesure ensuite le pourcentage de gens qui achètent des préservatifs et/ou
prennent des brochures et on voit que la dernière condition est celle qui prend
le plus de préservatifs et brochures.

5. De la communication persuasive à la communication engageante

La communication persuasive est peu efficace au niveau comportemental, mais


si on fait effectuer un acte préparatoire, un acte d’engagement avant la
communication, cette dernière passe de persuasive à engageante, qui est
beaucoup plus efficace.

Processus automatiques

1. Effet d’ancrage

L’effet d’ancrage joue sur le besoin d’avoir des points de référence, comme
dans les expériences de Sherif, le processus de normalisation. Le phénomène
d’ancrage est un processus cognitif articulé par 2 étapes :
- On demande à la personne d’estimer l’attribut d‘un objet qui doit être
supérieur ou inférieur à une valeur. Cette valeur est l’ancrage
- On demande de donner une valeur numérique de l’estimation de l’objet
Il a été expliqué dans la littérature par un biais cognitif. On considère que
l’ancrage, quand on met des jugements dans une situation d’incertitude, ce
qu’il fait est poser un point de référence, même si ce dernier semble faux, on
ne partira pas trop loin du point d’ancrage sur une échelle numérique. Une
autre explication est que l’ancrage amènerait à une redéfinition de l’objet et
les gens utilisent donc ces nouveaux éléments pour émettre leur jugement.
Les caractéristiques de l’effet sont que c’est non-intentionnel, on peut créer un
ancrage sans le vouloir et que l’ancrage est inconscient dans la pensée du
‘’manipulé’’.

On a fait une étude où on demande aux participants combien de migrants ils


pensent que la Suisse peut accueillir chaque année. Dans un cas on dit qu’un
politicien a dit qu’on pouvait en accueillir 1000 par année et dans un autre cas,
100'000 par années.
Donc, première étape, on demande aux participants s’ils pensent que la valeur
réelle est supérieure ou inférieure à la valeur donnée par le politicien et en 2 ème
étape on demande combien de migrants, en chiffre, ils pensent peuvent être
accueilli chaque année.

Les résultats montrent que les participants à qui on a montré un ancrage bas,
la moyenne tourne autour des 15'000, ce qui est bien au-dessus de 1'000 mais
dans le groupe à qui on a donné un ancrage haut, la moyenne tourne autour
de 103'000 et c’est cette différence qui est intéressante.

On a vu que c’est effet tellement puissant qu’il est indépendant que


l’orientation politique. Droite et gauche étaient influencés par l’ancrage initial.
L’effet de l’ancrage est aussi indépendant de l’appartenance politique
attribuée à la source.

2. Conditionnement évaluatif

Le conditionnement évaluatif se base sur un processus extrêmement simple,


un processus associatif qui se réfère au fait qu’au niveau mental, on crée un
lien entre 2 objets/personnes. L’idée du conditionnement évaluatif est qu’une
fois que 2 objets sont en lien, le lien qui est caractérisé par le fait que
l’activation d’un objet va faciliter l’activation de l’autre, il y a une sorte de
transfert évaluatif de l‘un à l’autre. L’évaluation d’un objet va aussi être
transférée à l’autre.
Par exemple, dans une étude classique, on a affiché des slogans politiques sur
des murs et on s’est arrangé pour que des jours, l’odeur de la cuisine soit
désagréable et d’autres jours agréables, selon les affiches. Quand on a
demandé aux étudiants qui fréquentait la cuisine d’évaluer les slogans, on a pu
voir que les slogans affichés quand les mauvaises odeurs étaient propagées
étaient moins bien évalués que ceux affiché avec les bonnes odeurs.
Un phénomène associé est le kill-the-messenger effect où on associe la source
au message.
On peut observer ce transfert évaluatif dans des travaux sur la contamination
morale où des aspects moraux sont associé à des objets qui ont été en contact
avec une personne possédant cette morale. On le voit aussi dans le stigma by
association qui se base dans l’évaluation d’une personne sur la base d’une
association qu’on peut faire de cette personne à une autre. Cela peut se faire
simplement si 2 personnes sont physiquement proches.

On le voit aussi dans le spreading attitude effect. Dans une étude de Walther,
on présente un objet pendant 2s, il y a ensuite un intervalle de la même durée,
puis la présentation d'un autre objet pendant 2s. Si on associe un des 2 objets
à une charge évaluative positive, l’autre objet présenté juste après devrait
endosser cette charge aussi.
Le spreading attitude effect se demande, quand on change la valence d’un des
2 objets, est-ce que le changement évaluatif va être transféré au second sans
qu’on ait besoin de réactiver le lien entre les 2 ? On voit que oui.

C’est un apprentissage qui a des conséquences. Il se différencie du


conditionnement classique car c’est un apprentissage stimuli-stimuli et non
stimuli-réponse. Mais si on a une attitude forte concernant le SN, le
conditionnement évaluatif est moins efficace.
Il faut qu’il y ait certaine similarité entre le SC et le SN pour que la propagation
soit facile. Également, l’association influence d’autres caractéristiques que la
valence.
On ne sait pas encore si c’est un processus automatique ou non.
Il est résistant à l’extinction car la réponse n’est pas l’élément central de
l’apprentissage comme dans conditionnement classique. L’élément central est
l’association.

3. Amorçage

L’amorçage fait référence à l’association d’un stimulus avec un comportement.


Pour que ceci puisse avoir lieu, le champ sémantique activé par amorçage doit
être associé au comportement désiré. Dans ce cas, la simple exposition à ce
stimulus peut faciliter la réalisation du comportement associé. Mais la validité
de l’amorçage est débattue.

Dans une étude, des participants devaient rédiger des arguments pour
améliorer les ventes d’un produit. Ça se faisait par 2, un sujet et un compère.
Les 2 faisaient leur travail individuellement avant de lire le travail de l’autre et
l’évaluer. Cette évaluation se faisait sous forme de chocs électriques. Plus il y a
de ‘’fautes’’ plus on reçoit de décharges. Le sujet est le premier à se faire
évaluer. Dans un cas, il ne reçoit un seul choc et dans l’autre, il en reçoit 7.
C’est ensuite au tour du compère de se faire évaluer. Dans une condition, il y
avait une arme à feu qui appartient au compère, dans la salle, pour qu’elle soit
associé à ce dernier, dans un autre cas, l’arme est oubliée par une autre
personne, dans une autre condition il n’y a pas d’objet et dans encore un autre
cas, il y a une raquette. On voit que s’il y a une arme dans la salle, peu importe
son appartenance, elle activerait un schéma sémantique lié à l’agression, ce
qui stimulerait les gens à être plus agressifs, s’ils avaient été choqués 7x plutôt
qu’une.

Dès qu’on active un champs sémantique associé à un comportement, on


observe que les gens ont plus tendance à émettre ce comportement.
Au niveau du marketing, l’effet d’activer un champ sémantique lié au
prestige/luxe vs l’économie amène les gens à acheter des chaussures plus
chères.

Les stéréotypes font partie de l’effet d’amorçage.

Des sujets sont invités à participer à une étude durant laquelle on propose des
biscuits qui dessèchent la bouche. On propose ensuite à la moitié de boire et
pas à l’autre moitié. On fait ensuite un amorçage subliminal avec des mots
relatifs à la soif à une moitié des sujets et pas à l’autre. On mesure le nombre
millilitre consommés à la fin de l’étude et on voit que les sujets à qui on n’a pas
proposé à boire et à qui on a fait un amorçage subliminal consomment
beaucoup plus d’eau que n’importe quel autre groupe de sujets.

4. Activation environnementale des normes

Dans le contexte où on se trouve, on peut être influencé par différents


éléments qui indiqueraient la norme adéquate pour la situation.
Dans une étude, on a 3 conditions :
- On montre une photo d’une bibliothèque
- On montre une photo d’une bibliothèque, puis on la fait visiter
- On montre une photo d’une gare, puis on la fait visiter
On leur demande ensuite de prononcer les mots affichés à l’écran. On mesure
les décibels, le volume auquel les mots sont dits

On observe que les gens ayant visité la bibliothèque sont plus silencieux que
les 2 autres groupes (qui ne diffèrent pas) car la bibliothèque active la norme
d’être silencieux.

Dans une étude qui manipule la forme du plateau sur lequel on met l’addition,
les conditions sont une forme de cœur, de rond ou de carré. On mesure le
pourcentage de gens laissant un pourboire selon la forme de plateau et on voit
que le plateau en forme de cœur le plateau qui amasse le plus de pourboire
car les gens ont été amorcés à un concept associé à l’amour, les amenant à
être plus altruistes.
Dans une autre étude faite sur un campus universitaire, on regarde comment
l’expression du racisme va varier selon l’activation que la situation permet de
la norme auparavant.
On interroge des gens sur le campus 2 par 2. Un sujet et un compère. Ce
dernier s’exprime d’abord et manifeste 3 orientations différentes :
- Opinion non-préjudiciée
- Pas d’opinion
- Opinion préjudiciée
Dans la dernière situation, l’activation de la norme à ne pas exprimer des
opinions racistes amène le sujet à exprimer moins d’opinion raciste.

5. Inférence normative

L’inférence normative est le fait de pouvoir tirer des normes d’environnement


qu’on ne connaît pas. On sait que les enfants en sont capables à partir de 3 ans
en régulant leur comportement et réagissant à celui des autres.
La question est : que se passe-t-il quand il n’y a pas de normes ? On voit que
les enfants sont tellement habitués à vivre avec des normes qui les guident
dans leurs actions, qu’ils utilisent n’importe quel comportement pour inférer
une norme, même s’il n’y en a pas. Ils ont une tendance naturelle à chercher la
norme.

6. Contagion d’objectifs

Un but est en général associé à des actions spécifiques et utiles à l’obtention


du but. Il y a une littérature qui dit qu’on se représente les actions en fonction
des objectifs qu’elles représentent. Les buts influenceraient donc de manière
consciente (ou par processus automatique) par association du but à une
situation ou un comportement.
La contagion d’objectifs est le fait que l’observation de quelqu’un d’autre peut
activer la représentation d’un but et donc influencer le comportement de
l’observateur dans la direction du but, même dans un contexte différent et
avec un comportement différent.
Dans une étude, on fait lire une vignette qui décrit un homme qui rencontre
quelqu’un dans un bar. Dans la condition contrôle, la vignette se termine sans
connotation sexuelle. Dans la condition expérimentale, la vignette se termine
avec l’homme accompagnant la femme chez elle et lui demandant s’il peut
monter.
Les participants, tous des hommes, passaient ensuite à une deuxième tâche
qui n’a rien à voir. On leur demande d’aider quelqu’un en leur donnant du
feedback sur une tâche qu’ils ont fait au préalable. La personne est soit un
homme, soit une femme. On mesure le nombre de mots écrits en feedback et
le temps que le sujet y a passer comme indice d’intérêt en la personne.

On voit que dans la condition contrôle, il n’y a pas de différence entre les 2
conditions alors que si on a activé le but de coucher avec une femme, on voit
une différence entre la condition homme et celle femme.

7. Imitation

L’imitation concerne le verbale et le non-verbale. L’explication donnée à cet


effet est que la perception d’une action et l’action-même sont traitées dans les
mêmes zones cérébrales. Au niveau fonctionnel, l’utilité du comportement
pourrait être d’aider le développement social et de créer des liens sociaux
positifs car quand on est imité, on se sent plus proche des autres et
l’interaction est plus fluide. De plus, imiter nous aide à ressentir ce que les
autres ressentent.

Dans une étude sur les compétences communicationnelles, les participants


arrivent en laboratoire. Ils doivent travailler en binôme et chacun joue un rôle.
Le rôle est soi celui de cible, qui doit regarder des vidéos, positives ou
négatives et les raconter à l’autre. Le 2ème rôle était d’imiter ou non la cible. Les
2 participants vont être aux 2 postes à tour de rôle.
On mesure la proximité perçue et fluidité de la relation ainsi que l’empathie.
On n’est donc pas dans l’imitation spontanée mais instruite.

On remarque que dans toutes les mesures (proximité et fluidité) sont plus
hautes quand on demande aux participants d’imiter leur camarade que quand
ils ne sont pas instruits de le faire.

Processus identitaires
1. Considérations générales

Dans la conceptualisation des processus d’influence sociale il y a toujours eu


des références a des processus associés à l’identité, comme la dépendance
normative ou encore l’identification.
Aujourd’hui, les 3 gros processus qui motivent à se conformer aux autres sont
considérés être :
- Understanding : je me conforme pour m’adapter à la réalité
- Being : je me conforme afin d’obtenir et maintenir des principes
fondamentaux du soi
- Relating : se conformer pour être apprécié par les autres

2. Identité positive versus distinctivité

La conceptualisation classique du conformisme est que si on se conforme, on


aura une image positive puisque les autres représentent la validité externe
mais aussi car les autres auront des attentes de nous et si on s’y conforme, on
adhèrera au point de vue. Le conformisme a donc été associé à une identité
positive. La déviance reviendrait donc à une image du soi négative, une
identité marginalisée et stigmatisée.
Mais il y a des travaux qui, malgré tout, ont commencé à dire que l’on devrait
interpréter la déviance aussi, parfois, comme étant associée à une identité
positive car elle donnerait une certaine distinctivité à l’individu, un élément de
l’identité d’une personne. La déviance permet aussi à l’individu d’avoir un
concept de soi stable, d’autant plus si la position minoritaire est représentative
des valeurs individuelles. Également, les gens qui auraient des lacunes dans
l’estime de soi compensent cette lacune en étant plus en désaccord avec les
autres, car c’est une manière de se réconforter par la singularité que ce
désaccord leur apporte.

Dans le processus d’influence sociale, il y a une théorie qui est donc apparue,
celle de la régulation de la déviance qui postule que nous sommes tous
motivés à réguler la déviance. La théorie va essayer de comprendre comment
on choisit entre 2 comportements, quelle est la signification de chaque
comportement et comment le comportement change de signification selon la
norme contextuelle.

La théorie par des travaux de Rios, qui stipulent que la déviance peut être
quelque chose de positif. Elle propose qu’il y a une motivation à maintenir une
image de soi positive. Comment articule-t-on le besoin de singularité et le
maintien d’une identité positive ?
Il y aurait en fait 2 cadrages possibles de la déviance. Un cadrage positif qui
consiste en des comportements déviants mais qui malgré cela ont une
connotation positive. Par exemple, si boire de l’alcool est désirable, on a plus
de chance de boire si c’est peu normatif. Il y a aussi le cadrage négatif avec des
comportements déviants et indésirables.

Une étude exemplifiant bien ce phénomène est une étude où on manipulait la


norme concernant le vaccin sur la grippe, selon si c’était normatif ou pas de le
faire, puis on donnait le degré de désirabilité d’être vacciné en montrant soi les
caractéristiques positives de ceux qui se vaccinent, soit celles négatives de
ceux qui ne se vaccine pas. On mesure l’intention de se faire vacciner.

Les résultats montrent que les conditions où les gens ont le plus l’intention de
se faire vacciner sont celle du conformisme classique où c’est la norme et
désirable de se faire vacciner et aussi la situation où les gens n’ont pas
l’habitude de se faire vacciner mais que c’est la désirable. Dans le dernier cas,
c’est car c’est un comportement contre-normatif mais avec une connotation
positive.

3. Identité positive versus consistance de soi

L’idée est que la gestion de l’identité du soi doit répondre à différents


principes :
- Le premier est évidemment le rehaussement de soi. Il nous amène à
incorporer des comportements qui nous valorisent. On se conforme tant
que ces comportements amélioreraient notre image. Dans le cas
contraire, une motivation défensive du soi s’active.
- Le deuxième est la consistance de soi. Quand on incorpore un nouveau
comportement, c’est plus facile si ce comportement est cohérent avec
l’image qu’on a de nous-même.

Une étude montrant les 2 mécanismes a pris des adolescents de 11-15 ans. On
mesurait l’image qu’il avait du fumeur (positive ou négative), l’image qu’ils
avaient de soi et la perception de la norme sociale concernant le tabac. On
mesurait ensuite leur intention future de fumer.
Les résultats montrent que dans la mesure où les adolescents s’identifient au
fumeur, plus ils ont une image de lui positive, plus l’attitude envers la
consommation de tabac est favorable. C’est le conformisme.

Pour la consistance de soi, on voit que lorsque la consommation du tabac est


vue comme non-normative et qu’on a une image de soi positive, on ne s’y
conforme pas car elle est connotée négativement et ça ne rentre pas dans la
cohérence de l’image de soi. En réalité on ne sait pas si le mécanisme derrière
est le rehaussement ou la consistance.
Là où on peut clairement voir le mécanisme de consistance est chez les
adolescents qui perçoivent la norme anti-tabac comme étant forte mais on se
voit soi négativement. Dans ces situations, on est plus enclin à fumer car on
sent que le comportement est cohérent avec notre image négative.

4. Théories de l’identité sociales

La théorie de l’identité sociale (et de l’auto-catégorisation) se base sur la


motivation que l’individu a à maintenir une identité sociale positive et
distincte, qui serait obtenue à travers la catégorisation sociale. Dès que nous
sommes dans un contexte où la catégorisation sociale est forte et où notre
appartenance est saillante, alors il y a un processus qui se met en place qui
renforce le conformisme appelé le self-stereotyping & depersonnalisation.
Nous internalisons les normes de notre groupe et selon la théorie, l’identité
sociale positive s’obtient par comparaison avec l’hors-groupe. Alors pour
rentabiliser cette comparaison, nous devons maximiser les différences avec
l’autre groupe et minimiser celles avec l’intragroupe. Cette conformité
augmente le bien-être et l’image positive de l’individu.
Dans la théorie de l’auto-catégorisation, un concept développé par Turner est
le referent informational influence. L’idée est que la validité, compétence, la
certitude, etc… sont une fonction directe de la similarité d’autrui dans la même
situation. Nos opinions passent toujours par une validation sociale qui ne peut
être accordée que par le groupe auquel nous appartenons. La conformité est
donc un élément central des relations intra mais aussi intergroupe, car il
contribue aux différences. Un désaccord se traduit donc par :
- Un changement d’opinion du déviant
- Une tentative d’influencer les autres membres du groupe
- La re-catégorisation des autres membres de l’intragroupe comme hors-
groupe
- Une clarification de la situation
D’après ce point de vue, la dépendance informative et celle normative
renvoient en fait à la même chose. C’est toujours une validation sociale.

Une 3ème théorie est celle de la réduction de l’incertitude. L’idée de base est
que l’identité sociale est motivée par le besoin de réduire des incertitudes par
rapport à soi. L’identification avec un groupe avec des normes, prototypes,
etc… contribue à réduire cette incertitude car elle donne des guides sur
comment se comporter, se sentir et réagir. La catégorisation, en général,
réduit l’incertitude sur comment les autres doivent agir.
Plus un groupe est distinct plus est efficace dans la réduction de l’incertitude.

Une idée est que la saillance de l’identité sociale est directement impliquée
dans l’émergence d’un stéréotype partagé. Une étude illustre ce phénomène
en demandant aux participants d’indiquer au moins 3 choses que lui
individuellement fait régulièrement, rarement, bien et mal. Dans l’autre
condition, la question est formulé non pour l’individu-même mais pour
l’individu en tant qu’Australien. On obtient une liste de 84 caractéristiques
qu’on donne aux participants en leur demandant quelles sont celles typiques
pour des australiens. On considère qu’il y a un consensus sur un stéréotype
quand une caractéristique est choisie par au moins 2 personnes.

Dans la condition sociale, par rapport à celle personnelle, on observe


beaucoup plus de mots ayant été choisi 2x ou plus. On avait également
demandé de noter la désirabilité du stéréotype et on voit qu’ils sont plus
favorables dans la condition sociale que celle personnelle. L’étude montre que
dès qu’on réfléchit en termes de membre d’un groupe, on active une
connaissance du groupe partagée.

Dans une autre étude, on observe comment les opinions de l’intragroupe sont
traités plus attentivement que ceux de l’hors-groupe. Dans l’étude, on mesure
l’attitude initiale des participants à propos de l’introduction d’un teste
standardiser de sélection des étudiants. On leur fait écouter un message qui
s’oppose à l’introduction de test. Dans certains cas, le message sera pro-
attitudinal car il ira dans le même sens que la pensée des étudiants et dans
d’autres cas, le contraire. Dans une condition, le message a des arguments
forts et dans d’autres, des arguments faibles. On le fait pour voir s’il y a une
différence entre les 2 messages car une différence voudrait dire que les
participants ont effectivement traité l’information. Si on regarde les résultats,
c’est ce qu’on observe quand le message était attribué à un hors-groupe.
Dans une 3ème étude, on montre que la comparaison intergroupe est
fondamentale car elle contribue à la définition du prototype de l’intragroupe
et à quel point les membres en sont prototypiques. On a amené les
participants à se définir en tant que britanniques en opposition à être
américain, à être suédois ou sans opposition. On a choisi la Suède et les États-
Unis pour qu’une comparaison soit par le haut, et l’autre par le bas.
On leur demande à quel point est-ce qu’être soucieux de l’environnement est
une caractéristique typiquement britannique, à quel point c’est central pour
eux comme individu et s’ils avaient des intentions environnementales durant
les prochains mois.

Si on regarde les résultats de la comparaison avec les américains, on voit que


les sujets se considèrent être plus environnementaux, avec les suédois, se
sentent moins environnementaux et pour la comparaison simple, ils se placent
entre les 2.

Toujours dans le cadre de l’auto-catégorisation, on voit que ce phénomène a


lieu chez les membres qui s’identifient le plus au groupe. On demande à des
étudiants de s’imaginer comme membre d’une industrie dont ils doivent créer
un logo. On mesure à quel point les élèves s’identifient à l’industrie et on a
manipulé la norme du groupe comme étant soit individualiste soit collectiviste.
Comme mesure finale on a mesuré le degré d’auto-stéréotypisation. Les
résultats montrent que si on se considère comme faisant plus partie du groupe
et qu’on voit le groupe comme collectiviste, on se considèrera comme
collectiviste aussi, idem pour l’individualisme. Le contraire peut être vu avec
les gens s’identifiant peu à l’industrie.

Une dernière étude regarde l’idée que l’identité sociale prédit la conformité au
groupe. On est allé voir des infirmières, a pris leur statut de vaccination,
regarder leur intention de se faire vacciner l’année d’après, les raisons pour
lesquelles elles le feraient (pour elles-mêmes ou pour protéger les patients).
On a également mesuré les conséquences négatives perçues d’avoir la grippe,
les bénéfices du vaccin, l’identification à leur travail et à quel point on
considérait le vaccin comme un devoir professionnel.

On a d’abord regardé ce qui prédisait que l’infirmière se soit fait vacciner ou


non et on voit que la perception de la grippe le prédit ainsi que les bénéfices
perçus du vaccin.
On regarde ensuite les intentions de se faire vacciner. On trouve le fait d’être
déjà vacciner, les bénéfices du vaccin mais aussi l’identité du groupe ont un
impact surtout quand le but de se faire vacciner est de protéger le patient.

5. Conformisme, estime de soi et stigmatisation sociale

Que se passe-t-il quand notre identité sociale rencontre un contexte où elle


stigmatisée ? la théorie de l’identité sociale dit qu’il y a 2 manières de gérer la
menace. Il y a des stratégies individuelles comme abandonner le groupe ou
s’en distancer et il y a des stratégies collectives comme renforcer
l’attachement au groupe et le défendre face à la menace. Cela est grâce un
mécanisme protecteur de l’appartenance groupale car le groupe fonctionne
comme un support et aussi grâce à la stigmatisation qui peut augmenter
l’identification au groupe.

Dans une étude, on mesurait l’estime de soi tout court puis l’estime de soi en
tant que fumeur de sujets qui fumaient et finalement on leur montrait des
études qui exposaient les avis négatifs de la société sur la fumée qui était soit
stigmatisante des fumeurs, soit pas. On regardait quel mécanisme de défense
était enclenché.

On voit que quand la norme n’est pas stigmatisante et l’estime du fumeur


basse, on a plus tendance à choisir une solution individuelle que si notre
estime de fumeur était haute. L’estime de soi ne joue pas de rôle si le stigma
est faible. Mais quand le stigma est grand, on voit que les fumeurs avec une
forte estime de soi ont moins d’intentions d’arrêter de fumer, utilisent la
stratégie collective. Cette dernière apparaît lorsque l’estime personnelle est
faible mais le fait d’être fumeur est une bonne chose. On choisit de rester dans
cette catégorie.

Théorie de (focus) comportement normatif

Nous avons une préférence pour une conception de l’être humain en tant que
personne autonome, raisonnable et qui agit de manière réfléchie. Pour
appuyer ce point de vue, il y beaucoup de travaux de travaux qui remettent en
question l’influence que les normes sociales ont sur nous. Ils ont montré qu’on
ne peut pas définir un contexte social comme étant caractérisé que par 1 seule
norme, mais plusieurs, ce qui rend la situation ambiguë. Mais une des critiques
de ces travaux est qu’on peut sûrement expliquer le comportement exprimé
dans cette situation par 1 des normes activées dans le contexte. Mais malgré
tout, beaucoup de comportements contre-normatifs sont exprimés et donc si
ces normes ont un impact, il est petit. Un dernier élément associé à cette
conception de l’être humain est le fait qu’en plus d’être autonome, rationnel,
etc… l’être humain est aussi intéressé, guidé par les motivations
instrumentales et agit selon des ‘’calculs’’ qui lui permettent de rentabiliser ses
comportements au mieux.

Au vu de ces critiques, Cialdini a fait des études qui ont remis le pouvoir des
normes sociales au centre du comportement humain. Un exemple d’étude
porte sur le comportement de réduction de la consommation d’énergie. On a
d’abord demandé à des experts en économie d’énergie quel type de
justification ils utilisaient pour motiver les gens à économiser de l’énergie. Il y
avait 5 conditions :
- Contrôle, où on ne donnait pas de motivation spécifique
- Pour la protection de l’environnement
- Pour laisser une planète avec des ressources à nous enfants
- Pour des raisons financières
- Parce que c’est comme ça que font les autres
Les experts pensaient que les gens allaient agir si on leur présentait une
motivation qui leur bénéficiait, donc celle financière. Celle normative était la
moins utilisée.

On leur demandait ensuite dans quelle mesure, en utilisant telle motivation, ils
pensaient réussir à motiver les gens à économiser de l’énergie. De nouveau il y
avait les 5 options et les experts choisissent la motivation financière comme
étant celle avec le plus de pouvoir.

On leur a aussi demandé quelle motivation ils avaient l’intention d’utiliser dans
l’avenir et encore une fois, la motivation financière était choisie. Voilà l’opinion
de personnes en charge de faire changer les comportements.

Dans ce contexte, Cialdini développe la the focus theory of normative conduct


d’après laquelle les normes motivent et dirigent les comportements
lorsqu’elles sont activées, lorsque l’individu est focalisé sur la norme. Cela
règle le problème de l’existence des différentes normes dans 1 contexte.
Il inclut aussi la différenciation entre 2 types de normes sociales :
- Descriptive ou informationnelle : les comportements qui semblent être
ceux de la majorité. C’est le comportement efficace et adaptatif à la
situation
- Prescriptive : les comportements acceptables aux yeux des autres, ce qui
est considéré comme le plus adéquat. Un idéal

Une étude centrée sur la norme descriptive avait lieu dans un parking après
avoir reçu un dépliant. Pour montrer l’influence des normes descriptives, on a
créé 2 conditions. Soit il y avait pleins de dépliants similaires par terre, soit il
n’y en avait aucun et une poubelle sur le côté. Pour rendre la norme saillante,
on faisait passer un compère qui allait soit jeter le dépliant par terre, soir le
jeter à la poubelle.
On voit que l’influence de la norme descriptive est toujours là et donc les gens
jettent plus par terre dans l’environnement salle que dans l’environnement
propre mais cet effet est accentué quand on met le focus sur cette norme avec
le compère. Dans un cas il rend la saleté saillante et dans l‘autre la propreté.

L’effet un peu contrintuitif du compère qui salit l’environnement propre


mettant ainsi en avant sa propreté montre qu’une violation de la norme la
rend plus saillante et focale. On a testé cette idée dans un paradigme similaire
où le sujet recevait un dépliant et par terre il n’y avait soit pas de papier soit de
1 à 16 papiers. On a observé combien de gens jetaient le papier par terre selon
ces conditions. Évidemment, plus il y a de papiers, plus les gens en jettent mais
quand il n’y a qu’un seul papier, seulement 10% des gens jettent ce papier
alors que quand il n’y en a aucun, 18% jettent. Cette diminution corrobore
l’hypothèse que la norme descriptive doit être rendue focale pour avoir effet.

Une autre étude montre le rôle des 2 normes. La norme descriptive est
manipulée de la même manière que dans la première étude et on observe les
mêmes résultats. Celle prescriptive est manipulée en faisant en sorte que le
compère nettoie l’environnement (on laisse 1 ou 2 papiers dans
l’environnement propre). Dans les 2 environnements, on observe une
diminution du nombre de personnes qui jettent un papier par rapport à la
situation contrôle.

Dans autre étude sur les 2 types de normes porte sur la consommation
d’électricité. Les auteurs vont aller chercher la quantité d’électricité
consommée avant l’intervention et vont donner ce chiffre (feedback) aux
participants. 1 semaine après, les participants reçoivent la moyenne du
quartier (norme descriptive) dans une condition, et dans l’autre, ils reçoivent la
moyenne et un émoticône heureux ou triste (norme prescriptive). On mesure
la consommation 1x tout de suite après l’intervention et une autre fois 3
semaine après.
On voit que 3 semaines après, les gens dans la condition avec la norme
descriptive seule, il y a un effet de la norme qui fait que les gens qui participent
plus diminuent leur consommation et ceux qui consommaient moins ont
consommé plus. Il y a un effet de conformité chez tous les participants.
Quand on ajoute la norme prescriptive, les gens qui consommaient plus que la
moyenne, baissent leur consommation mais ceux qui consommaient moins
n’augmentent presque pas.

Une étude faite dans un autre contexte dit à des étudiants que, soit une
minorité, soit une majorité d’étudiants réduisent leur consommation d’énergie
(norme descriptive) et des informations sur le pourcentage d’élèves
approuvant des gens s’engageant dans la diminution (prescriptive). On mesure
l’intention de participants de réduire leur consommation d’énergie.
On voit que quand une majorité de gens compte diminuer leur consommation
et approuvent de ce changement, c’est là qu’il y a le plus d’intentions et quand
les gens ont le moins d’intentions est là où les gens approuvent mais les gens
ne pensent pas le faire. Si les normes s’opposent, les gens ne savent pas
comment agir.

Les intentions sont plus influencées quand les 2 types de normes sont alignés.
Quand ce n’est pas le cas, la norme prescriptive a généralement plus d’impact.
Mais il arrive tout de même que dans des cas où les normes sont alignées, le
comportement ne soit presque pas influencé mais ce n’est pas assez consistant
pour en faire une généralité.
Il y a des travaux qui suggèrent que les normes descriptives sont associées à
des processus plus superficiels et automatiques qu’on appelle les heuristiques
alors que les normes prescriptives demandent un traitement systématique car
on est en train de prendre en compte des valeurs. Ce serait la raison pour
laquelle elles ont plus d’impact car le traitement effectue un changement dans
les attitudes alors que la norme descriptive ne change que le comportement.
Mais l’effet de la norme prescriptive dépend beaucoup de la source. Si le
groupe est pertinent au récepteur, elle aura évidemment plus d’influence.

Si on revient sur les experts en diminution de la consommation d’énergie, on a


posé les mêmes questions aux consommateurs (sans l’option de contrôle) et
on voit que les gens se voient moins utilitaristes que les experts et pensent que
l’environnement est la raison majoritaire pour laquelle ils économiseraient de
l’énergie.
Si on regarde les corrélations entre le degré avec lequel chaque participant
donne de l’importance à chaque motif et le vrai comportement réalisé, la
norme a la plus grande corrélation et l’environnement seulement une de 0.06.

Une étude montre comment, par le biais des processus automatiques, les
normes descriptives ont un effet plus direct sur le comportement alors que
celles prescriptives ont en un à travers des mécanismes plus profonds. Dans
cette étude, on mesure la perception de degré auquel les autres boivent de
l’alcool (norme descriptive) et la perception du degré auquel les autres
approuvent de boire de l’alcool. On mesure, 1 mois plus tard, l’attitude
(évaluation de la consommation d’alcool) et le comportement (fréquence de
consommation d’alcool pendant le mois).
On voit ces corrélations :
PHOTO

Si le groupe qui émet la norme prescriptive est un groupe de référence pour


l‘individu, elle sera mieux intégrée. Mais ça ne veut pas dire que les normes
descriptives ont un impact indépendamment de leur source.
L’idée des normes provinciale fait référence au groupe qui a énoncé la norme.

Dans une étude, on mesure l’identité des participants avec des items comme
‘’le recyclage est important pour moi’’. On mesure aussi la norme en regardant
combien d’amis proche de la personne s’engagent dans des activités similaires
aux siennes (perception de la norme descriptive). Il y a la mesure de
l’identification au groupe et l’intention de recycler dans le futur.

Plus on perçoit que nos amis recyclent, plus on a l’intention de recycler et cela
modulé par l’identification au groupe d’amis. Plus on s’identifie, et plus on a
l’impression que nos amis recyclent, plus on aura l’intention de recycler.
L’identification au groupe est donc aussi importante pour les normes
descriptives.

Dans une autre étude, on mesure la norme description par la perception du


degré d’action prises pour économiser de l’énergie. On mesure l’implication
personnelle dans la consommation d’énergie et on mesure les comportements
aussi.

On voit un effet de la norme descriptive uniquement dans la condition où les


gens sont peu impliqués car c’est là qu’elle a un potentiel de faire effet. Si les
gens sont déjà impliqués, ils agissent indépendamment de la norme.
DERNIER SLIDE MAIS PAS AVANT

Influence minoritaire

1. Conversion et innovation : le modèle de Moscovici

Moscovici publie un livre où il propose une théorie générale du changement


social, valeurs, pensées, etc… ils part du principe que le changement social ne
part pas d’une dépendance comme l’a théorisé Asch par exemple, mais part du
principe que le changement social repose d’une part sur les actions des
minorités et d’autre part que les influences des minorités reposent sur les
conflits.
Les minorités ne peuvent pas exercer une influence via une forme de
dépendance manquant de ressource. La seule ressource psycho-sociale dont
elles disposent sont la négociation et création du conflit social. Pour illustrer
cette théorie, Moscovici va utiliser un paradigme perceptif, celui de Asch.

Quand on confronte un individu à des divergents majoritaires et consensuels,


la source majoritaire est considérée comme légitime et l’individu est alors celui
qui créé la déviance puisqu’il défend des positions opposées à celle de
majorité. Cela créé un inconfort psychologique qui va focaliser l’attention des
individus sur leur déviance dans un processus de comparaison sociale. On se
demande pourquoi on ne partage pas les positions, lee opinions de la majorité
et quelles en sont les conséquences. La gestion de ce conflit serait de nature
relationnelle, comment gérer la divergence avec la majorité.
En termes d’influence sociale, cette gestion relationnelle du conflit se traduirait
par un processus de complaisance.

Quand on est confronté à une prise de position divergente par une minorité, ce
qui peut initialement paraître illégitime, on dispose de l’appui de la majorité. Il
n’y a donc pas d’inconfort psychologique et pas de conflit relationnel. Mais les
minorités actives qui défendent leur point de vue avec consistance amènent
une cohérence qui va induire un conflit cognitif chez les individus, ce qui
amène à une focalisation sur l’objet et des interrogations sur la nature de
l’objet. Cela amène à une prise en considération de l’adéquation entre l’objet
et les jugements de la source dans un processus de validation. On s’interroge
sur les raisons qui font que la minorité défend la position qu’elle a.
Cela a comme conséquence un processus de conversion, un changement
perceptif, de fond et relatif à l’objet en dépit d’une influence manifeste.
La première étude que propose Moscovici utilise le paradigme bleu vert où on
projette des diapositives qui sont clairement bleues. On va présenter aux sujets
les jugements d’une minorité consistante (vert 100%) ou inconsistante (vert
66%) en répondant vert. On étudie l’effet de la consistance. Il y a aussi une
condition témoin où les compères répondent toujours bleu.
On voit que dans la condition contrôle, les sujets ne répondent jamais vert.
Quand la minorité est inconsistante, les sujets répondent vert dans 1,25% des
cas, ce qui n’est pas significatif. Mais dans la condition consistante, les sujets
répondent vert dans 8% des cas. La minorité induit donc de l’influence.
L’intérêt de cette étude était d’introduire une mesure d’influence latente.
Cette dernière utilise un test de couleur. On présente des pastilles de couleur
allant du bleu au vert avec des zones d’incertitude. On fait passer ce test à tous
les sujets et on voit que les réponses ne changent pas de la condition
inconsistante à celle témoin mais que les sujets de la condition consistante
vont juger les pastilles plus souvent comme vertes. Il y avait donc une
influence latente aussi.

On a voulu montrer que cet effet était spécifique à une source minoritaire et
pas majoritaire alors on a refait l’expérience de nouveau avec la minorité
consistante et inconsistante, la condition contrôle et cette fois on rajoute une
majorité consistante et inconsistante.
Pour les minorités, on retrouve la même influence manifeste. La majorité
inconsistante a la même influence que la minorité consistante et la majorité
consistante a 4x plus d’influence que la minorité consistante.

On mesure ensuite l’influence latente et on voit qu’il y a une seule condition


qui diffère significativement de celle contrôle et c’est celle de la minorité
consistante.

Pour résumer ces 2 études, on retient que les sources, minoritaires ou


majoritaires, ont plus d’influence quand elles sont consistantes.
Si on se concentre simplement sur les sources consistantes, la majorité a de
l’influence manifeste mais pas latente, un contrôle de complaisance et on voit
l’inverse pour la minorité consistante. Mais ce n’est pas toujours le cas selon
les paradigmes.

Une autre étude reprend le paradigme bleu vert avec les conditions de
minorité consistante et rajoute une condition où la minorité répond
constamment vert – bleu, une autre où les projections sont soit des bleus
clairs, soient des bleus foncés et la source répond bleu ou vert au hasard,
indépendamment de la luminosité. Dans une autre condition, on fait une
correspondance où pour les diapositives claires, la minorité répond toujours
vert et dans l’autre, pour les diapositives foncées, la minorité répond toujours
vert. Le vert correspond à une luminosité.
Dans la condition de hasard, il n’y a pas de différence par rapport à la condition
contrôle mais dès qu’il y a une correspondance, il y a une différence
significative. On peut donc en conclure que la consistance n’est pas que le fait
de répondre constamment la même chose mais aussi une cohérence entre des
jugements qui sont en correspondance avec une propriété, ici, la luminosité.
Leur hic de cette étude est qu’aucune mesure d’influence latente n’a été prise.

Moscovici et Personnaz ont imaginé un dispositif qui permet de mesurer


l’indice de changements perçu indépendamment des jugements manifestes.
Pour cela, on a utilisé la méthode de l’effet consécutif. Si on projette une
diapositive bleue sur un écran blanc et qu’on interrompe la projection, l’image
consécutive va naître de la sensation de perception d’un carré (diapo) de
couleur orange – rouge, le complémentaire du bleu. Les chercheurs se
demandent ce qu’il se passe si lors de la projection de la diapositive, vient se
greffer une influence ? est-ce qu’on continue à voir de l’orange – rouge ou est-
ce que cette perception sera modifiée ?
Dans une série d’études, il y a une première phase où le sujet est avec un
compère. On les confronte à la diapositive bleue et puis on mesure l’effet
consécutif. Les réponses sont fournies de manière individuelles. La couleur va
du jaune au violet. Plus les réponses sont proches du violet, plus la perception
s’approche du vert. Dans la condition minoritaire, on dit au sujet que 18% des
gens avaient perçu du vert et inversement pour la condition majoritaire.
Dans la 2ème phase le compère répond oralement en premier et toujours vert. Il
dispose du support soit d’une minorité, soit d’une majorité.
Dans la 3ème phase, les jugements sont de nouveau rendus individuellement et
dans la 4ème phase, le compère n’est plus là.

À la phase, on ne voit pas de différence entre la condition majoritaire et


minoritaire. À la phase 3, une phase poste influence par le compère, il n’y a pas
de changement pour la majorité alors que pour la minorité, il y a un
déplacement vers le vert. Dans la phase 4, on voit que l‘influence latente se
maintient dans la condition minoritaire alors que pour la majorité, il n’y a
toujours pas de différence.
Il y a eu des tentatives de réplications de ces résultats avec le même
paradigme et on voit qu’une première étude à trouver les mêmes résultats
pour ce qui est de l’effet de la minorité mais pour la source majoritaire, on
trouve un effet lors de la phase 4, en absence de la source.
Dans une 2ème réplication, la minorité induit un effet que lors de la phase 4 et
les effets de la source majoritaire ne sont pas répliqués. Il faut donc retenir que
les résultats de Moscovici ne sont pas facilement répliqués.

Les limites du paradigme bleu-vert portent sur les effets latents trouvés.

2. Au-delà de la conversion : le modèle de Nemeth

Nemeth dit étudier différentes formes de pensées qu’induisent la majorité ou


la minorité. Son modèle stipule que, peu importe la source, il y a toujours une
réflexion sur l’objet mais que cette réflexion n’est pas de la même nature. La
majorité induirait une pensée convergente et la minorité, une pensée
divergente.
Il y a 2 composantes principales du modèle :
- Le taux d’activation, qui serait trop élevé face à la majorité et optimal
face à la minorité
- La croyance que les individus auraient quant à la validité des jugements
de la source. Il y aurait une motivation générale à croire qu’une majorité
défend des positions correctes alors que la minorité serait incorrecte

Pour ce qui est du niveau d’activation, Nemeth s’inspire de la littérature sur le


niveau d’activation de l‘organisme et la qualité de différents types de
performances, comme la loi de Yerkes & Dodson. Plus le niveau d’activation
augmente, plus l’organisme augmente son niveau d’éveil jusqu’à atteindre un
niveau optimal de performance. Si l’activation augmente au-delà de ce niveau,
apparaissent des réactions d’anxiété. Le niveau d’activation induit par la
divergence avec une majorité, selon Nemeth, correspond à un niveau excessif
se traduisant par du stress. Le niveau d’activation induit par une divergence
avec la minorité serait optimal et permettrait un traitement de la tâche qui
serait optimal.

Si on prend la dynamique qui apparaît face à une majorité, on a 2 facteurs :


- Un niveau d’activation élevé
- Une croyance que la majorité est correcte
La conjonction de ces 2 facteurs va amener une forme de pensée que Nemeth
appelle convergente. Par le niveau d’activation élevé, le focus attentionnel
devient plus étroit, peu de dimensions sont saillantes à part celle qui
prédomine dans la situation, c’est à dire celle de la majorité. Le mode de
pensée convergent implique la reprise des réponses de la majorité ou
l’organisation des réflexions sur l’objet sur la base des réponses de la majorité.

Pour la dynamique face à une minorité, il y a aussi 2 facteurs :


- Un niveau d’activation optimal
- Une croyance que la minorité est incorrecte
Il découle qu’il n’y aura donc pas de reprise du point de vue de la minorité mais
le niveau d’activation étant optimal, ça se traduit en un focus attentionnel
large ce qui permet d’étudier plus des paramètres disponibles. Cet ensemble
amène à une forme de pensée divergente, donc pas de reprise du point de vue
de la minorité mais l’examen de tous les points de vue disponibles, ce qui
aurait comme conséquence d’amener les individus à être plus corrects et
créatifs aussi, dans les réponses qu’ils donnent.

Une étude de Nemeth de 1983 utilise une tâche de figures imbriquées avec
une figure standard et 6 figures de comparaison dont 3 incluent celle standard.
Parmi ces 3, 1 se voit facilement et 2 se voient très difficilement. La source,
majorité ou minorité, donne toujours 2 réponses, dont celle facile. La 2 ème est
soit correcte, soit incorrecte.

La mesure de suivisme montre qu’on suit plus la majorité que la minorité. Pour
ce qui est des réponses nouvelles, il est plus important face à la minorité que
face à la majorité (et la condition de contrôle). Mais il faut s’assurer que ces
réponses nouvelles soient correctes et non pas simplement données au hasard
pour diverger de la minorité. Ce n’est pas le cas puisque les réponses nouvelles
correctes sont significatives dans le cas de la minorité, mais pas de la majorité.

Une autre étude de Nemeth utilise une tâche d’anagramme où, à partir de
quelques lettres, on doit former des mots. On affiche les lettres très
rapidement, laissant le temps aux sujets de repérer le mot déjà écrit (DOG). On
leur donne alors 2 feedbacks possibles. Soient qu’ils sont confrontés à une
minorité car une personne sur 4 a écrit god, ou alors à une majorité car 3
personnes sur 4 ont écrit god.

On mesure ensuite le nombre de mots corrects formés avec une chaîne de


lettres et les résultats montrent que quand on a confronté le sujet à une
majorité, les sujets trouvent significativement plus de mots que quand ils
avaient été confrontés à la majorité car la minorité les a activés au niveau
optimal.

Une 3ème étude de Nemeth qui porte plus sur la créativité et originalité est
divisées en 2 phases. Dans la 1ère, on confronte les sujets à une influence
majoritaire ou minoritaire ou à rien (contrôle) dans le paradigme bleu – vert.
On manipule l’appui majoritaire eu minoritaire en disant que 80% des gens
avant avaient répondu comme lui ou seulement 20%. Le compère répond
systématiquement vert.
La 2ème phase est une phase individuelle avec une tâche d’association. On
donne le mot bleu et puis vert aux sujets et ils doivent y associer ce qu’ils
veulent. On mesure le nombre d’association trouvées pour chaque couleur et
l’originalité des associations.
Les résultats montrent que le nombre d’association au mot bleu est plus grand
quand le sujet a été confronté à une minorité défendant le vert. On trouve la
même chose pour le vert, excepté que ce n’est pas significatif. Pour l’originalité
des associations, que ce soit pour le bleu, ou le vert, elles ont plus originales
quand les sujets ont été confrontés à des minorités.

Un 4ème exemple, toujours une étude de Nemeth, teste si les sujets ayant été
confrontés à une minorité consistante lors du paradigme bleu – vert, les rends
plus résistant face à une majorité plus tard.
On fait donc passer le paradigme bleu – vert à des sujets suite à quoi, les sujets
se retrouvent dans un groupe de 4 dont les 3 compères répondent de
constamment orange lorsqu’on leur présente des diapositives rouges. On
mesure le nombre de fois où les sujets répondent orange. Dans la condition
contrôle, on voit que c’est 0. Dans la condition no minority, plus de la moitié
des gens cèdent à la majorité et répondent orange. Mais dans les 2 cas
minoritaires, consistant ou inconsistant, il y a une diminution de la
conformisation, encore plus quand la minorité était consistante.

Dans le cas de Moscovici et Nemeth, il y a une association univoque d’un


processus à la majorité et un autre à la minorité. Mais cela est remis en
question car il est difficile de croire que ces théories soient des vérités
absolues, indépendamment du contexte.

Perspectives intégratives et développements récents

1. Objective consensus approach


Le consensus majoritaire est une preuve de validité mais cette validité n’est
pas élaborée par l’individu, elle n’est pas traitée de manière approfondie. On
l’accepte pour ne pas être en déviance. C’est le point de vue de Moscovici.
Suite à l‘émergence de cette théorie, il y a eu des travaux qui ont essayé de
montrer que le postulat selon lequel les sources majoritaires n’obtiennent pas
d’influence latente est faux. La critique s’appuyait sur un paradigme qui
étudiait les processus de changement d’attitude sur la base du traitement de
l’information persuasive d’un message.
C’est là qu’émerge l’Objective Consensus Approach, comme critique de
Moscovici et en intégrant les travaux disant qu’on peut étudier les influences
majoritaires et minoritaires en fonction du degré de traitement de
l’information. Le postulat de base est donc que le consensus est une validité et
sur cette base, les gens s’attendent à être en accord avec la majorité et en
désaccord avec les minorités. Les conflits viennent donc d’un désaccord avec la
majorité et un accord avec la minorité. En termes de traitement de
l’information, l’idée principale est que c’est la violation de l’attente de
consensus qui va pousser la personne à traiter l’information de manière plus
profonde. C’est donc l’opposition à la majorité qui pousse au traitement
profond.

Une étude réalisée dans le cadre de cette approche est celle de Mackie où les
participants sont amenés dans un laboratoire pour participer à une étude sur
le pouvoir militaire des U.S.A. Ils écoutaient une conversation enregistrée
entre une personne pour le pouvoir militaire dans le monde et une autre
personne contre. On manipulait ensuite la vision majoritaire en disant à un
groupe qu’il y a une majorité qui est pour et à un autre groupe que la majorité
était contre. Les résultats confirment la théorie de OCA avec la majorité qui a
obtenu plus d’influence et de traitement que l’information minoritaire.

On prenait différentes mesures sur des items directs, d’autres sur des items
indirects et aussi des mesures qu’on a fait en différé. Les résultats principaux
montrent que les participants qui sont initialement en désaccord avec la
majorité changent plus d’attitude dans la direction de la majorité que ceux qui
étaient en désaccord avec la minorité.

Pour montrer que ce changement est associé à un vrai traitement de


l’information, on montre que les gens qui sont initialement opposé à la
majorité mais qui ont changé d’opinion se rappellent mieux des arguments
majoritaires que ceux des minoritaires. En plus, le changement est aussi
associé à des pensées qui ont été produites lors de l’écoute et qui vont dans le
sens de la majorité.

Néanmoins, ces études faites en intégrant les travaux sur l’influence


minoritaire et majoritaire et le traitement de l’information ne montraient pas
uniquement des résultats qui allaient à l’encontre de la conversion. Certains
allaient clairement dans le sens du postulat de Moscovici. Un exemple est une
étude où, lors d’un prétest, on prend la position des participants sur la
fluorisation de l’eau. On les a ensuite exposés à un message qui va dans le sens
de la fluorisation et qui bénéficiait soir d’un support majoritaire, soit
minoritaire. En plus de cela, une autre variable était la force du message : soit
les arguments étaient faibles, soit ils étaient faibles. Si les gens manifestent
une attitude majoritaire indépendamment de la qualité arguments, cela veut
dire que cette attitude n’est pas basée sur l’information présentée mais sur
d’autres caractéristiques.
Les résultats confirment plutôt le point de vue de Moscovici surtout pour ceux
opposé au point de vue de la source.

Des auteurs ont donc essayé d’accepter que le traitement de l’information


profond n’est pas exclusif à un groupe mais qu’il faut trouver comment les 2
visions peuvent s’intégrer.

2. Rôle modérateur de l’intérêt personnel

Martin et Hewstone se sont dit que les travaux qui confirmaient le point de vue
de Mackie proposaient une problématique qui allait à l’encontre des intérêts
personnels des participants. Par exemple, l’étude de la puissance militaire de
l’Amérique avait des implications personnelles pour les sujets puisqu’ils étaient
américains. Alors que la théorie de la conversion de Moscovici utilisait plutôt
des paradigmes où la thématique n’était pas contraire à l’intérêt des
participants.

Pour tester cette idée, les chercheurs ont fait une étude où on a testé 2
problématiques : le suicide assisté (faible implication personnelle) et la
problématique de l’euro en Grande Bretagne (forte implication personnelle).
On présente alors un message qui va soit contre l’euthanasie ou qui est pour
l’euro (les positions opposées à celles des participants) et on leur dit que ce
message est appuyé par une majorité ou une minorité. Les messages
contiennent soit des bons arguments soit des arguments faibles.
On mesure l’attitude et le thought listing.
Les résultats confirment l’hypothèse des auteurs. Quand l’implication
personnelle est faible et que la source est décrite comme une minorité, on voit
une différence d’attitude selon si les arguments sont bons ou mauvais. Face à
une majorité, peu importe les arguments, l’attitude est la même. Mais quand
la problématique a une forte implication personnelle et que les sujets sont face
à une majorité, ces derniers différencient les bons et mauvais arguments alors
que face à une minorité, les différents arguments ne sont pas distingués.
Le niveau de traitement dépend donc de la source mais avec l’intérêt
personnel comme modérateur.

3. Heuristic and systematic processing model

D’autres travaux qui ont essayé d’intégrer les 2 points de vue opposés de
Moscovici et Mackie sont De Vries et Schuurman. Leur modèle postule que, en
accord avec OCA, le consensus est une preuve sociale de validité et, en tant
que telle, les gens doivent être motivés à traiter l’information qu’on leur
présente comme vraie, et moins celle présentée comme fausse. En accord avec
cette idée, les auteurs disent qu’il y a un traitement systématique de
l’information lorsque la source est majoritaire. Mais le traitement, en accord
avec Nemeth, va être convergent et focalisé sur la problématique majoritaire.
Mais en accord avec Moscovici, là où une minorité créé un conflit de manière
constante et rigide, l’individu peut manquer de confiance dans son point de
vue et va donc en explorer d’autres. Il va avoir des pensées divergentes.

Une étude de ces auteurs présente le problème de l’augmentation des charges


d’étude à des étudiants avec des arguments en faveur du changement
(problématique principale). On présente aussi un texte sur l’importance de
prendre des cours extra-universitaires (problématique secondaire).
En plus de manipuler si le message vient d’une majorité ou minorité, les
auteurs manipulent aussi le type de pensée que les participants doivent faire
lors de la lecture du message. Dans un cas on leur demande de penser à
d’autre arguments qui vont dans le sens du message, dans un autre on leur
demande le contraire et dans un autre cas, on ne leur donne pas
d’instructions. Les sujets doivent le faire soit pour la problématique principale,
soit pour celle périphérique. On voit, dans la condition contrôle de la
problématique principale, qu’il y a une plus grande influence de la majorité. On
retrouve le même résultat quand on demande aux sujets de trouver des
arguments pour le message majoritaire de la problématique principale. Mais
on voit que quand on demande d’avoir une pensée divergente avec la
problématique périphérique, la minorité a plus d’influence que la majorité. En
conclusion, la majorité est traitée dans les problématiques importantes et la
minorité dans celles secondaires, comme le modèle précédent disait.

4. Source-contexte elaboration model

Une autre intégration revient à Martin et Hewstone et à leur source-contexte


elaboration model. On intègre aussi les modèle du traitement de l’information
mais plus que les modèles précédents. Ils partent de l’idée que tout dépend du
niveau de traitement de l’information. Ils considèrent que lorsque les
participants ont une faible motivation ou capacité à traiter l’information, ils le
feront peu mais s’ils ont une grande motivation et capacité, ils traiteront
sûrement le sujet. Dans des situations intermédiaires, les gens seront dans un
entre 2 et là, c’est le contexte qui les amènera ou non à traiter l’information.
Les auteurs considèrent que lorsque les gens ont une faible probabilité de
traiter l’information, ils fonctionnent surtout sur la base d’heuristiques de
décisions et en accord avec ces heuristiques, ils vont plutôt suivre la majorité,
en accord avec Moscovici.
Quand la probabilité de traiter l’information est forte, en accord avec le
modèle duel de l’information, le traitement va se faire indépendamment de la
source (min ou maj). C’est une nouvelle vision.
Dans le dernier cas, quand la capacité et motivation sont intermédiaires, des
aspects contextuels comme la source peuvent décanter l’information ou non.
Les auteurs, ici, se rallient à Moscovici et disent que si l’individu est dans une
position intermédiaire, en accord avec la théorie de la conversion, ça va être la
minorité qui va produire un traitement plus profond parce que la majorité est
déjà connue et ce qu’on sait nous suffit. Mais la minorité pose un conflit qui
doit être résolu.

Dans une étude, on présente aussi le sujet l’euthanasie, un sujet auquel les
étudiants sont favorables. On leur fait lire un texte contre l’euthanasie avec
des bons ou mauvais arguments. On manipule la probabilité de l’élaboration
des informations avec différentes instructions. Dans la condition faible
probabilité de traitement, on leur demande vérifier si le texte est écrit dans la
même taille et police que sa copie. Dans la condition de traitement profond, on
leur de réécrire le texte en écrivant leurs mots. Dans la condition
intermédiaire, on demande de vérifier l’orthographe du texte.

Les résultats montrent que l’hypothèse est confirmée. Dans la condition de


traitement faible, la majorité obtient plus d’influence que la minorité,
indépendamment de la qualité des arguments. Dans la condition de traitement
élevé, on voit que l’influence est plus forte quand les arguments sont bons
indépendamment de la source. Finalement, dans la condition intermédiaire, les
participants se font influencer par la source minoritaire quand les arguments
sont bons et quand la source est majoritaire, il n’y a pas de de différence
d’influence selon a qualité des arguments.

Les auteurs ont fait d’autres études qui confirment que dans les situations
intermédiaires, les plus générales, la conversion de l’influence minoritaire est
généralement associée à des attitudes fortes, dans le sens qu’elles ont été
construites suite à une réflexion. Les caractéristiques de ces attitudes sont
qu’elles sont résistantes à la contre-persuasion, persistance à travers le temps
et plus grande prédiction du comportement.

5. Perspective métacognitive : illégitimité perçue

La perspective métacognitive se base sur ce que les gens pensent non pas de la
position de la source mais de ceux qu’eux-mêmes pensent de la position de la
source. Ce sont des métaréflexions sur la réponse cognitive produite. Les gens
sont exposés à un message, ce dernier a un impact (réponse cognitive) et
ensuite, une réflexion se fait vis-à-vis de ces pensées. ‘’est-ce que je suis
confiant de ces pensées ? est-ce qu’elles sont valides ? etc…’’.
Il y a 2 types de travaux ont émergé dans cette perspective. Le premier part du
constat que face aux minorités, les gens résistent. Les gens résistent parce que
la source est une minorité, la résistance est basée sur une heuristique
minoritaire. Les gens ont alors un sentiment négatif d’illégitimité vis-à-vis de
leur résistance. La métacognition leur donne alors l’impression d’avoir une
attitude peu fiable. Ce sentiment est d’autant plus fort quand on reconnaît que
la position de la minorité est convaincante.

Le 2ème se base sur l’auto-validation. Les processus d’auto validation sont que
quand on est exposé à un message persuasif, il y a une réponse cognitive et
une série de facteurs vont nous amener à penser que cette réponse est valide
ou non. Les auteurs proposent que l’ordre de présentation de la source et du
message pourrait avoir un impact sur la confiance qu’on a dans nos attitudes et
pensées.
La condition standard (ce que la littérature a fait jusqu’ici) est qu’on présente
un message avec la source (majorité ou minorité). Cette dernière vient
généralement avant. Mais si la source est présentée après le message, le
traitement de l’information a eu lieu et il y a donc déjà eu une réponse
cognitive avant la présentation de la source. À ce moment, la source
apporterait une validité à la réponse cognitive en renforçant (auto-validation)
le statut si la source est majoritaire.

Une étude qui n’a utilisé que des arguments forts confirme le postulat de la
2ème perspective en montrant que l’attitude des participants est en accord avec
le message lorsque la source est présentée avant le message et qu’elle est
minoritaire, ce qui est en accord avec Moscovici. Mais on prédit l’inverse
quand on présente la source après le message et c’est ce qu’on trouve.

6. Cryptomnésie sociale (perspective minoritaire)

La cryptomnésie sociale a été un outil de Moscovici pour prouver sa théorie de


la conversion et de comment les sources minoritaires pouvaient avoir une
influence tout en étant rejetée, dans les sens que les gens prenaient en
considération le point de vue de la source mais rejetait la source en elle-même.
C’est l’idée de conservation de l’information mais rejet de la source, une
dissociation de la source et du contenu.
On va voir comment les minorités réagissent quand elles se rendent compte
que leur point de vue a été repris par a majorité. On a amené les participants 2
par 2 dans un laboratoire où il y avait 4 compères. On leur demandait de
débattre sur le suicide assisté. Au cours du débat, les compères agissaient
différemment selon la condition. Dans la première, les compères opposaient
fermement les sujets. Dans la 2ème, les compères devaient graduellement
changer de position et suite à cela, l’expérimentateur félicitait la minorité
d’avoir convaincu la maj. Dans la dernière condition, celle de cryptomnésie, la
majorité changeait aussi graduellement d’opinion mais cette fois
l’expérimentateur félicitait la majorité. On observait le degré d’activisme de la
minorité après ces interactions en mesurant le degré d’homogénéité
attitudinale (degré auquel ils ont la même attitude) et la consistance de leur
opinion en mesurant leur attitude envers le sujet avant, pendant et après la
discussion.
On voit que, dans la condition de cryptomnésie, il y a plus d’homogénéité et de
consistance attitudinale. Quand la condition de minorité créditée, il y a une
diminution d’homogénéité et de consistance. Le fait d’avoir été reconnu
démobilise la minorité dans la mesure où elle n’a plus l’impression de devoir
être active pour défendre don point de vue. On trouve les mêmes résultats
dans le cas de stabilité de la majorité, comme si la minorité était démotivée.

7. Minorités actives vs victimaires


Des chercheurs ont constaté que les groupes manifestant pour une justice
sociale et qui ont inspiré la théorie de Moscovici étaient des groupes qui se
battaient pour faire entendre leurs idées, c’était des minorité actives. Mais
aujourd’hui, il n’y aurait plus de position à défendre mais plutôt des minorités
se présentant comme victimes de la société qui chercheraient à trouver des
compensations mais ne cherchent pas à changer la société.
Cette distinction les a amenés à considérer que les minorités actives sont celles
qui pourraient avoir une influence alors que celle victimaires crée des conflits
basés sur la culpabilisation de la majorité, ce qui ne peut pas amener à un vrai
changement social mais simplement à des compensations.
Dans une étude, on présente des textes sur la persécution des gitans. Dans un
texte les gitans sont présentés comme des minorités victimaires et dans un
autre comme une minorité active. On mesurait l’influence manifeste et
latente.

Les résultats confirment l’hypothèse comme quoi les minorités victimaires ont
plus d’impact manifeste, ont plus de compensation, mais ce sont celles actives
qui apportent un changement latent.

Un modèle intégratif des influences sociales  : l’élaboration du


conflit

L’élaboration du conflit a initialement été présentée comme la théorie de


l’élaboration du conflit. Il s’agît en vrai d’un modèle, dans le sens qu’elle dit
articuler des théories distinctes sous un même chapeau conceptuel, qui serait
constitué de 2 notions : le conflit et l’élaboration socio-cognitive du conflit.

La première source de diversité est la diversité des situations. Elle reflète la


diversité des tâches utilisées dans les expériences. Selon les études ce qui est
en jeu sont des opinions, des attitudes, des stéréotypes, émotions, préférences
esthétiques, etc… ce qu’il faut retenir est que l’impression donnée est que les
tâches utilisées n’ont pas d’importance, ce ne sont que des supports de
démonstration. Il n’y aurait donc pas de spécificité de la tâche dans le
processus d’influence, ce qui montrerait l’universalité des mécanismes
invoqués. Cela est faux.

Dans les études, il y avait aussi une grande diversité des sources d’influence
comme pouvoir vs carence d’autorité, expertise vs manque de crédibilité, force
vs faiblesse numérique, amplitude de la divergence du jugement, style de
comportement (consistant, rigide, …), etc… on a de nouveau l’impression de
pouvoir utilise n’importe quelles sources tant que les 2 diffèrent en statut
social, car la différence dépend de l’ampleur de la dépendance ou du conflit
qu’elles introduisent. Il n’y aurait donc pas de spécificité de la source en dehors
du fait qu’elle doit introduire une dépendance ou conflit. Quand on veut
exprimer un statut social dominant, on met une majorité, un intragroupe ou un
expert et d’après les théories, les 3 sont égaux. Il y a de nouveau une
implication de l’universalité des mécanismes.

Pour ce qui est de la diversité des mesures d’influence, on a distingué


l’influence latente et manifeste. Différents types d’influence de ces 2 types
d’influence ont été étudiée comme publique vs privé, immédiat vs différé,
direct vs indirect, etc…

En résumé, il y a une grande diversité des situations d’influence sociale selon


laquelle les tâches n’ont pas d’importance particulière, la diversité des sources
d’influence se traduit aussi par un manque de spécificité des dimensions, en
dehors de conflit vs dépendance. La diversité des mesures elle est une richesse
qui a montré 2 grandes tendances : le source de haut statut psychosocial qui
ont tendance à induire une complaisance (manifeste mais pas latent) et celles
de bas statut psychosocial induiraient une conversion (pas manifeste mais
latente). Le cumul de la recherche montre qu’en fait tout est possible avec
toutes les sources, situations et mesures. Il y a certes des tendances, mais tout
est possible et il y a donc des choses imprévisibles.
La quatrième source de diversité est la diversité des explications de l’influence,
qui est aussi une richesse. Mais, liée aux autres diversités, abouti au besoin de
se questionner sur la prétention de chacune des théories à être une théorie
universelle.

Mais avec toute cette diversité, il semble impossible de croire que toutes les
théories sont vraies, car puisque tout est possible, on peut toujours réfuter
une théorie. On ne peut pas non plus dire que toutes les théories sont fausses
mais aucune ne peut prétendre à l’universalité. Chacune a sûrement une
validité dans un certain contexte. Il faut identifier les contextes dans lesquels
une théorie fonctionne et ceux où elle ne fonctionne pas, ses limites de
validité.
Il faut ensuite intégrer ces théories locales dans un modèle générale capable
de les coordonner sans changer leurs particularités. Cela suppose la prise en
compte de point de vue adverses. Cette intégration est ce que vise le modèle
de l’élaboration du conflit.
Pour comprendre l’orientation du modèle de l’élaboration du conflit il faut
partir de l’influence minoritaire car elle a donné lieu à différente situations de
recherches qui ont différentes propriétés. Les différentes traditions sont les 3
principale : Moscovici & Personnaz, Nemeth et les travaux sur la dissociation.
Il y a plusieurs théories car chacun dit quelque chose de différent. Moscovici &
Personnaz disent que la majorité induit un effet de complaisance basée sur un
processus de comparaison sociale alors que la minorité induit un processus de
pensée qui peut amener à la validation. Nemeth dit que la différence entre la
minorité et la majorité est la manière dont on pense face à eux. La théorie de
la dissociation dit qu’il y a toujours une comparaison sociale, entre autres.

Il faut regarder différents critères et les tâches en premier et on se rend


compte que selon les théories, on n’a pas utilisé les mêmes tâches. Moscovici
& Personnaz utilisent le paradigme bleu-vert, des études où les sujets
connaissent la réponse et sont confronté à une source qui répond faussement.
Ce sont des tâches objectives (car la réponse est sous les yeux) non ambiguës
(TONA). Nemeth utilise la résolution de problèmes comme découvrir une
figure cachée dans une figure complexe, etc… elles renvoient à des capacités
de raisonnement, prise de décisions, résolution. On appelle donc ces tâches
des tâches d’aptitudes (TAP). La théorie de la dissociation travaille sur des
problématiques sociétales, sur des valeurs, attitudes et opinion. On appelle ce
type de tâche des tâches d’opinion (TOP). Les théories du traitement de
l’information ont majoritairement porté sur des avis et préférence sur des
thèmes qui ne touchent pas les sujets. Ce sont des tâches non impliquantes
(TANI).

Les tâches ne sont pas les mêmes et les caractéristiques pertinentes des
sources aussi. Chez Moscovici et Personnaz la caractéristique est le nombre, il
définit la source.
Chez Nemeth, ce qui est important est que les gens pensent que la majorité a
raison et que la minorité a tort. La caractéristique est la compétence à donner
des jugement valides ou invalides.
Dans la théorie de la dissociation, la caractéristique pertinente est l’identité de
la source et sa représentativité. Est-ce une majorité de mon intra-groupe, une
minorité d’un hors-groupe, etc… ?

La question du modèle est ‘’qu’est-ce que ces théories ont en commun ?’’.


D’après lui il s’agît de la présence d’un conflit car on étudie toujours des
situations de divergence de jugement. La grande question d’élaboration
sociocognitives du conflit est quel sens est donné à la divergence. Les
différences entre ces théories nous donnent l’idée d’où il faut aller.
L’élaboration est différente et on en rend compte par des théories différentes.

L’hypothèse fondamentale du modèle est que les dynamiques d’influence


sociale se basent sur l’élaboration spécifique du conflit. Il faut prédire les
patrons d’influence manifeste et latent avec l’idée que c’est la manière dont
on élabore le conflit qui va les déterminer. Les 3 éléments qui déterminent les
patrons sont :
- La divergence
- La tâche particulière
- La représentation de la tâche
La divergence : le conflit est introduit par une situation de divergence, la
plupart du temps. La divergence viendrait d’une source particulière et la
divergence repose sur l’image qu’on a de cette source. Il faut aussi considérer
qu’il y a une divergence dans une tâche particulière, dont on a une
représentation et des attentes particulières, ce qui introduit des spécificités
dans l’élaboration du conflit. Ce dernier va donc dépendre de la représentation
de la source et de la tâche.

Quels sont les sont les présupposés des tâches les plus fondamentaux de
chaque type de tâche. On a réussi à distinguer 2 axes : l’importance de l’erreur
et l’ancrage social. Ça revient à poser 3 questions :
- Est-ce qu’il y a une réponse juste ? y a-t-il une haute pertinence de
l’erreur ?
- Quelles ont les attentes qu’on a quant au consensus social ?
- Quels sont les enjeux identitaires qui sont susceptibles d’exister ?
Pour le premier axe, on considère que l’importance est plus grande d’autant
plus qu’une réponse correcte existe.
Dans le paradigme bleu – vert, les sujets savent qu’il y a une réponse correcte
et l’attente de consensus sont élevées, on attend l’unanimité. Du point de vue
identitaire, on ne s’attend pas à des différenciations sociales puisque on
s’attend au consensus.
Dans les tâches d’aptitudes, les sujets savent qu’une ou plusieurs réponses
sont correctes mais les sujets ne savent pas lesquelles. L’attente de consensus
est donc faible puisque la réponse n’est pas évidente. Pour ce qui est l’ancrage
social (détermine ce que nos jugements disent sur nous) est très élevé car la
réponse peut être correcte ou incorrecte et détermine donc nos compétences.
Dans les tâches d’opinion, il n’y a pas de réponses correctes. On n’attend donc
pas que tout le monde soit d’accord mais on s’attend à des consensus locaux et
que les gens de notre groupe aient une opinion similaire. L’ancrage social est
donc fort mais n’est pas déterminé par le degré de compétence mais par notre
réponse.
Pour les TANI, il n’y a pas de réponses correctes et on ne s’attend pas à un
consensus. En termes d’ancrage, les jugements sont peu engageants.

On est dans une situation où les individus dans une tâche déterminée sont
confrontés à une source qui donne des jugements différents. Quelles sont les
implications de l’existence d’une divergence selon les attentes ?
Dans les TONA, les questions qu’on va se poser à l’apparition d’une divergence
sont pourquoi l’unanimité n’est-elle pas atteinte ? pourquoi la source est-elle
erronée ?
Dans les TAP, il y a une faible attente de consensus mais c’est une tâche qui
détermine l’aptitude, si on est compétent ou non. Les 2 motivations qui vont
orienter l’élaboration du conflit sont comment augmenter la correction des
jugements et donne la meilleure image de soi.
Dans les TOP, les attentes sont différentes face à la divergence. On s’attend à
un consensus partiel et la logique qui va dominer est donc celle de la
différenciation catégorielle (accord intra-groupe et désaccord hors-groupe). Un
élément important lié à l’ancrage social est d’éviter l’auto-attribution
d’attributs négatifs.
Dans les TANI, il n’y a ni norme, ni paramètre préalable qui donnent sens à la
divergence.

Un autre point important est l’idée qu’il existe une correspondance entre les
propriétés des tâches et la pertinence de certaines dimensions des sources.
Dans une tâche ou une autre, ce n’est pas la même dimension de source qui
sera importante.
Dans les TONA, la question est quelle est le nombre de personnes qui
introduisent la divergence ?
Dans les TAP, la question est si la source donne des garanties d’être compétent
ou incompétent dans cette tâche ? la dimension est la compétence de la
source.
Pour les TOP, l’essentiel est est-ce que c’est un intra ou hors-groupe. La
question qu’on se pose est est-ce que c’est une minorité ou majorité dans
l’intra-groupe ?

Pour chaque tâche on a différencié des conflits de base et de conflit


spécifiques. Le conflit de base est la conséquence de la divergence
globalement. Dans les TONA le conflit est qualifié de socio-épistémique. Dans
les TAP, le conflit de base est un conflit d’incertitude. Dans les TOP, c’est un
conflit identitaire et l’enjeu est de se définir par rapport à un intra-groupe et
un hors groupe.
Les caractéristiques des sources qui sont ne correspondent pas avec le
préconstruits des tâches sont, pour les TONA, le nombre de membres de la
source. Ce conflit socio-épistémique de base va prendre une tournure
différente selon s’il s’agît d’une minorité ou majorité. Pour la majorité le conflit
est de nature relationnelle et pour la minorité de nature épistémique.
Pour les TAP, le conflit de base est lié à l’incertitude. L’idée initiale est que
quand on est confronté à une source de haute compétence, on est dans la
certitude et on juge donc que cette source pourrait donner la réponse correcte
et qu’on peut s’y rallier. Le conflit serait presque inexistant. À l’opposé quand
la source est de basse compétence, on assisterait à un conflit de 2
incompétences, celle du sujet et celle de la source.
Pour les TOP, si, dans l’intra-groupe, si je m’oppose à une majorité, on parle de
conflit normatif. Si je m’oppose à la minorité, c’est un conflit d’identification.
Quand on est confronté à une source hors-groupe majoritaire, le conflit est
intergroupe et si l’hors-groupe est minoritaire, on parle de conflit cognitif-
culturel.

L’élaboration du conflit dans les TONA, les notions de conflit relationnel et


épistémique rendent compte des effets de complaisance et conversion sans
apporter quelque chose de nouveau au modèle de Moscovici.

Il y a 4 grands cas de figure qui se distinguent dans l’élaboration du conflit dans


les TOP. Le conflit normatif est la divergence qui apparait entre l’individu et la
majorité de son groupe/la norme. 2 dynamiques contrastées apparaissent
quand on est confronté à une minorité intra ou hors-groupe. Face à la minorité
intergroupe il y a un conflit d’identification et face à la minorité hors-groupe, il
y a un effet de dissociation. C’est la théorie de la dissociation.

Pour ce qui est de l’élaboration du conflit dans les TAP, la théorie part du
principe que les sujets sont peu compétents aux tâches d’aptitudes. Les
dynamiques face à une source de haute compétence est un conflit inexistant.

Une étude de Allen et Levine, on utilise différent stimuli dont des visuels de
type TONA (Asch) et dans une autre condition, des opinions. Il y avait 9
réponses possibles. L’étude se faisait par groupe de 5 dont le sujet et 4
compères. Tout se faisait par ordinateur. Dans la condition de majorité
unanime, tous les compères choisissent la même réponse (pas la bonne). Il y a
aussi plusieurs conditions de rupture de l’unanimité : rupture avec support
social où 3 membres de la majorité donnent la même réponse mais un
membre donne la même que le sujet (d’où le support social) et rupture de
l’unanimité simple où 3 membres donnent la même réponse et le 4 ème une
autre différente de celle su sujet.
On voit que, dans les tâches de type Asch, comparée à la condition d’unanimité
(contrôle), il y a une diminution significative de la conformité dans la condition
de support social mais aussi dans la condition de la rupture de l’unanimité
simple. Dans les tâches d’opinion, on observe une diminution de la conformité
seulement quand les sujets reçoivent un support social.

Il y aurait donc une correspondance entre les préconstruits épistémiques de la


tâche et la nature de la source. L’effet de Asch est spécifique à une majorité
unanime et l’hypothèse de la théorie de l’élaboration du conflit était que c’est
à cause de la représentation de la tâche objective non-ambiguë, où une seule
réponse est attendue car c’est la seule qui est possible, seule une majorité
serait capable de casser une attente de consensus alors qu’une minorité
apparemment pas. L’idée est que la conjonction entre l’attente d’une seule
réponse correcte et l’existence d’une source pertinente amènerait à la
représentation de l’unicité, où la majorité donne les moyens de réaliser
l’attente épistémique. À l’inverse, dans les tâches d’opinions, quand plusieurs
réponses sont attendues, la majorité ne représente pas une solution et ici, ce
serait l’existence d’un point de vue minoritaire ou plusieurs points de vue
minoritaires qui devraient contribuer à résoudre la tâche. Ici, la conjonction de
l’attente de multiples réponses et de l’existence d’un point de vue minoritaire
renvoie à la représentation de la pluricité, dans laquelle une source minoritaire
est légitime à contribuer à la découverte de cette multiplicité de réponses.

On pourrait donc s’attendre à ce que seule la majorité apporte une influence et


pas la minorité. C’est le cas au niveau manifeste là où la majorité induit plus
d’influence que la minorité. Mais ce n’est pas le cas au niveau de l’influence
latente, là où la majorité n’induit pas d’influence selon les études majoritaires
vs minoritaire. Compte tenu des attentes épistémiques, du fait que la majorité
créé le consensus, pourquoi n’y a-t-il pas d’influence latente ? L’hypothèse est
qu’il y a une variable confondue avec l’attente épistémique de consensus : la
dépendance normative. La majorité induit un stress qui découlerait qu’elle
représente une menace sur le plan relationnel.

La dépendance normative joue contre le conflit socio-épistémique : on


distingue conflit de base et conflit spécifique. Celui de base, dans le TONA, est
socio-épistémique, remise en évidence d’une connaissance évidente par une
réponse fausse et le conflit spécifique, face à la majorité, par défaut, serait une
dynamique de dépendance normative. L’hypothèse spécifique de la théorie de
l’élaboration de conflit est que si on parvient à supprimer la dépendance
normative et donc l’influence manifeste, on devrait trouver une influence
latente avec la majorité aussi, puisque seule elle réalise la représentation de
l’unicité. Pour montrer cet effet de conversion majoritaire, il faut donc
diminuer au maximum la dépendance normative et informationnelle. Pour ce
qui est de celle normative, des études vont travailler en anonymat (face à face
l’influence manifeste et la dépendance normative sont plus marquées) en
donnant des pourcentages de réponses incorrectes données par une groupe
de référence. Il s’agît de convaincre que la majorité a tort mais on s’attend à
trouver un effet de conversion grâce au conflit socio-épistémique.

Une première étude du Mugny reprend le paradigme de Asch avec une barre
épaisse et 3 barres fines. Durant la phase expérimentale, les sujets reçoivent
des informations sur les réponses de soit 88% des gens interrogés, soit de 12%.
La source (majoritaire ou minoritaire) choisissait toujours une barre plus
longue que la barre de référence (étalon). La source sous-estime toujours les
barres variables. On mesure l’influence manifeste par la fréquence de réponses
où la barre désignée comme étant égale est plus longue que l’étalon, qu’on
compare à une condition contrôle sans source d’influence sociale. On a aussi
mesuré l‘influence latente en utilisant un pré-test et post-test individuel et
sans informations sur les réponses de la source. Il y avait une trentaine d’items
où les sujets devaient mesurer si une barre fine était plus petite ou plus grande
(pas égale) que l’étalon. Le changement entre le pré et post-test est l’influence
latente.

Les résultats montrent que, avec le paradigme de Asch, on a réussi à répliquer


les résultats de Moscovici. La majorité, par rapport à la condition de contrôle,
induit plus d’influence manifeste. La minorité ne diffère pas de la condition
contrôle. Pour ce qui est de l’influence latente, on retrouve Moscovici avec la
minorité qui a des résultats significatifs et positifs alors que celle majoritaire ne
diffère pas de la condition de contrôle.
Avec la majorité, on observe une corrélation positive, plus les gens ont été
influencé sur le plan manifeste, plus le changement va dans le même sens que
cette influence. La minorité, elle a une corrélation négative.

Ce qu’apporte cette étude l’introduction de conditions dans lesquelles on a


montré aux sujets qu’on était intéressé par des illusions perceptives. On
montrait un T inversé aux sujets et, à l’aide d’une règle, que les 2 barres
formant la figure sont égales alors que la barre verticale à l’aire plus grande.

On essaye de convaincre les sujets qu’il existe des illusions perceptives avant
de procéder à la tâche.

Quand on introduit l’illusions, on voit que la majorité obtient de l‘influence


manifeste et latente positive alors que la minorité n’induit aucune influence.
Mais on ne sait pas si l’influence latente positive est simplement due à
l’influence directe positive.
La condition illusion montre donc la légitimité de la majorité à réaliser le
consensus (et pas la minorité). La minorité n’aurait pas d’influence car on
imagine qu’elle est constituée des gens qui se sont fait avoir par les illusions et
dès lors, ils n’obtiennent pas d’influence.
Donc, pour montrer l’effet de la gestion du conflit, il faudrait supprimer toute
pression informationnelle et normative, dans le but que l’influence manifeste
soit égale à 0 et si celle latente reste positive, ça indique que les sujets
réalisent le consensus sur un plan symbolique.

Dans les paradigmes TONA, la source est non-déniée et on trouve un effet de


complaisance du sujet déviant face à la majorité. C’est un conflit social. Face à
la minorité, il y a un conflit épistémique avec le sujet étant majoritaire et donc
en confort psychologique. La source est incorrecte.
Mais si on introduit un déni de la source, on devrait trouver, un conflit
épistémique et donc une conversion majoritaire et, pour la minorité, étant
décrédibilisée, une absence de conflit et donc d’influence.

La première étude a été faite par Brandstaetter. La phase expérimentale


commence, dans toutes les conditions, par une procédure de déni en
expliquant aux sujets qu’on a interrogé une majorité/minorité en présentant 2
barres et que la source dit que les 2 étaient de la même taille. C’est aussi une
manière de dire aux sujets qu’ils sont compétents.

La phase de déni est complétée par une explication basée sur des illusions
visuelles. On dit aux sujets qu’on a cherché à comprendre les résultats et on a
trouvé dans la littérature l’existence des illusions perceptives et on procédait à
en montrer plusieurs.

Durant la phase d’influence, il y avait 2 conditions. Dans la première, les sujets


voyaient 6x un angle de 90 degrés. Dans l’autre condition l’angle mesurait 85
degrés. On sait qu’il n’est pas droit mais on ne sait pas combien il mesure.
L’angle droit est donc une TONA, avec une attente d’unanimité et celui de 85
degrés ne l’est pas.
À chaque essai, les sujets sont informés de la réponse de la source qui est soit
une majorité ou minorité numérique et cette dernière répondait toujours 50
degrés, ce qu’on sait qui n’est pas la bonne réponse (paradigme de type Asch).

Pour ce qui est de l’influence manifeste, il y avait 6 items (angles) et l’influence


manifeste est calculée par la fréquence d’angles jugés plus petits que 85 ou 90.
Pour l’influence latente, durant un pré et post-test, les sujets voyaient une
série d’angles et devaient imaginer que c’était une part de fromage et imaginer
le poids du fromage en gramme. L’hypothèse est qu’entre le pré et post-test,
les sujets changent leur représentation, le poids du fromage devrait
indirectement baisser.

Dans les résultats, on observe une interaction entre les variables. On observe
que la minorité obtient peu d’influence mais là où il y en a le plus est dans la
condition 85 degrés, face à une majorité. Ce n’est pas le cas quand les angles
mesurent 90 degrés. On peut donc dire que l’étude réussi à diminuer
l’influence manifeste de la majorité.

Concernant les différences pré et post-test, on voit aussi une interaction avec
les majorités obtenant plus d’influence avec les angles de 90 degrés que de 85.
Les angles de 90 degrés ont donc eu peu d’influence manifeste mais plus
d’influence latente que les autres conditions. Pour la minorité, les angles de 85
degrés sont là où il y a eu le plus d’influence. La minorité peut donc avoir de
l’influence là où il y a plusieurs réponses possibles (représentation de la
pluricité) alors que la majorité peut avoir de l‘influence latente quand il y a une
attente d’unicité dans les réponses. Le déni aurait diminué la dépendance
normative et permis de rendre visible des attentes épistémiques.

Une autre étude de Pérez va régler le problème de la différence des angles de


90 et 85 degrés en montrant que des angles de 90 degrés. C’est donc une
TONA. À chaque fois, la source dira que l’angle mesure 50 degrés.
Il y a 4 conditions. La première variable manipule la dépendance normative sur
la base de la catégorisation. Comme avant, on convainc que la source se
trompe sur l’estimation de 3 barres inégales. Les gens seraient d’avantage
motivés à se conformer à une majorité intragroupe et, motivé à ne pas se
conformer à une majorité hors-groupe. Tous les sujets étaient blancs et on leur
donnait les réponses de la grande majorité des blancs vs noirs. Comme tous les
angles sont de 90 degrés, on a manipulé la pluricité attendue dans la tâche en
manipulant les croyances en l’universalité ou pluricité de la perception.

Dans la condition universalité, où on s’attend à 1 seule réponse correcte,


l’expérimentateur explique aux sujets qu’il est clair qu’il n’y a pas de différence
perceptive entre les ethnies et que le système visuel est le même chez tous les
humains. Dans la condition de pluricité, où on essaye d’introduire une attente
de plusieurs réponses différentes, les chercheurs disent que la perception est
sujette à des différence ethniques.

Pour ce qui est de l’influence manifeste, on mesure la moyenne des


estimations sur les 6 items. On voit qu’une y a 1 seule condition qui induit de
l’influence, celle d’universalité avec une majorité intragroupe. Lorsqu’on
s’attend à des réponses différentes, il n’y a pas de différence et quand la
source fait partie d’un hors-groupe non plus.

Concernant l’influence latente, les sujets doivent estimer le poids de part de


fromages. On mesure la moyenne du changement au pré et post-test. La
condition où il y a le plus de diminution du poids et donc une influence latente
est face à la majorité noire, pour qui on a bloqué l’influence manifeste.
L’influence ne peut donc qu’apparaître sur un plan latent. Donc, pour que la
majorité induise de l’influence latente, il faut bloquer celle manifeste.

Vous aimerez peut-être aussi