Regardez la ligne bleue clair sur le graphique ci-dessus. Elle représente l'engagement généré sur facebook par les 20 fake news les plus populaires juste avant l'élection présidentielle de 2016 aux Etats-Unis. Il s’agit donc du nombre de fois qu'on a cliqué dessus ou qu'on les a partagées. Ce sont des fake news qui peuvent sembler fantaisistes comme: "Hillary Clinton a vendu des armes à l'état islamique". La ligne bleue foncé représente le nombre de fois qu'on a cliqué, liké ou ouvert des billets provenant de l'ensemble des médias américains les plus importants dont le Washington Post, le New York Times et NBC news. On voit que près de l'élection, les gens se sont plus engagés vis-à-vis des 20 fake news que vis-à-vis de l'ensemble des médias traditionnels, ce qui laisse songeur.
- L'idée que la terre est plate
- Que l’Homme n’a jamais marché sur la lune
- Que les avions diffusent en secret des gaz visant à influencer la population
- Que le ministère de la santé est de mèche avec l'industrie pharmaceutique. Etc.
Si les fake news et le complotisme nous dérangent, c’est surtout en raison des comportements politiques qu’ils induiraient:
- Ils votent mal - mal informés qu'ils sont
- Ils se distancient de la politique, délaissant leurs responsabilités citoyennes.
On va donc apprendre aux gens à mieux penser pour être de meilleurs citoyens. De la sorte, on espère échapper à la Bérézina d’un régime populiste ou autoritaire.
Lutter contre les fake news devient donc une entreprise morale et citoyenne. Mais comment faire?
En 1995, un braqueur de banques du nom de McArthur Wheeler avait eu la brillante idée suivante. Il avait appris que le jus de citron était une encre invisible. Il s'était donc dit qu'en mettant du jus de citron sur son visage, il ne serait pas reconnu par les caméras de surveillance. Il s'était évidemment fait attraper.
Quand vous vous trompez d'intervention faute d'avoir identifié les mécanismes sous-jacents au phénomène contre lequel vous voulez lutter, vous risquez d'avoir des mauvaises surprises. Toute intervention dans le domaine des médias est fondée sur des hypothèses psychologiques. Or, la psychologie sociale, notre discipline, a depuis longtemps étudié la crédulité par l’entremise d’expériences contrôlées et rigoureuses. Intervenir dans le domaine des médias sans savoir ce qui a été fait dans ce domaine, c'est un peu comme administrer un médicament sans avoir aucune connaissance des causes d'une maladie ou en se basant uniquement sur son intuition. On risque de se barbouiller de jus de citron et de faire piéger.
L'écluse et l'intestin
Sur quel modèle psychologique peuvent se fonder les interventions dans le domaine de l'éducation aux médias?
Il me semble qu’elles se fondent souvent sur un postulat inspiré des Lumières: en adhérant à une croyance, l'individu fait un choix - le choix de croire. Comme l’électeur éclairé, le crédule serait engagé dans sa croyance.
C'est en fait une conception qui remonte à Descartes. Imaginons que je vous présente une affirmation non vérifiée: « Théo Francken emploie une femme de ménage somalienne sans papiers ». Pour Descartes, notre esprit est capable de scepticisme. Il peut évaluer cette croyance et décider ou non d'y croire. De son point de vue, notre esprit fonctionne un peu comme une écluse. Le modèle par défaut est de ne pas croire et donc, nous ne croirons pas que Théo Francken se comporte de la sorte sans aucun élément supplémentaire. Nous n'ouvrirons l'écluse que si nous avons de bonnes raisons d'adhérer à cette croyance.
Spinoza, autre philosophe du XVIIème siècle, n’était pas d’accord avec Descartes. Pour lui, lorsque nous sommes confrontés à une information, nous ne pouvons pas nous empêcher d'y croire initialement. C'est uniquement dans un second temps que nous pouvons éventuellement la rejeter.
On croira donc tout d'abord que Theo Francken a une femme de ménage sans papiers avant d'éventuellement se départir de cette croyance si on a de bonnes raisons de ne pas y adhérer.
Donc, ici, on croit par défaut. Et on rejette ensuite. L'esprit humain fonctionne un peu comme l'intestin: il absorbe pleins de choses et choisit ultérieurement d'en rejeter certaines. Mais dans toutes les crasses qu'il absorbe, il y en a quand même qui se retrouvent dans le sang.
Tout ceci n'est pas uniquement l'objet d'un débat entre philosophes. Plusieurs chercheurs en cognition sociale on cherché à confronter ces deux modèles (voir en particulier Gilbert et al., 1993).
C'est le cas d'une série d'expérience que nous avons effectuée à l’ULB.Dans ces expériences, on décrivait à des étudiants un délit mineur effectué par un nommé Etienne. On signalait toutefois aux personnes participantes que certaines informations qu’elles recevraient concernant Etienne étaient fausses. Ces informations étaient clairement présentées comme telles. On faisait varier la nature des informations fausses: soit il s'agissait de circonstances aggravantes, soit il s'agissait de circonstances atténuantes.
On demandait ensuite aux participants d'attribuer une peine au suspect. Que constate-t-on? Les gens attribuent une peine plus lourde lorsque l'information fausse qu’ils avaient entendue était aggravante qu'atténuante.
Plus intéressant encore: lorsqu’on présentait ultérieurement les informations et qu’on demandait aux répondants si elles étaient fausses ou vraies, les gens avaient beaucoup plus tendance à se souvenir d’une information fausse comme vraie que l’inverse.
Ces résultats mettent donc en cause le modèle de l'écluse. Ils suggèrent qu'on fonctionne plutôt comme un intestin. Par défaut, on intègre l'information fausse à notre jugement quand bien même nous savons qu’elle est fausse quand nous la recevons. Ceci montre que nous sommes très peu lucides quant au fonctionnement de notre propre psychologie. Nous entretenons des convictions, mais les véritables raisons qui nous ont amenés à y adhérer nous sont souvent obscures.
Et si vous pensez que cet effet s'observe uniquement chez des étudiants, détrompez-vous! Nous avons reproduit l'expérience chez des juges au tribunal de Bruxelles et force fut de constater qu’ils sont également victimes de ce biais.
Récapitulons:
Si nous croyons, comme Descartes, que nous fonctionnons comme des écluses, et qu'on arrive donc à filtrer l'informations, on ne se rendra pas compte qu'on a été influencé par l'information fausse et que celle-ci colore nos jugements.
On peut du reste formuler l'hypothèse suivante: plus on se croit cartésien - à tort - plus on est vulnérable aux fake news.
Ceci correspond à un phénomène dont la découverte a été inspirée par l’histoire du braqueur au jus de citron. C'est l'effet "Dunning Kruger". Sur ce graphique, l'abscisse, c'est le degré d’expertise qu'on a dans un domaine. L'ordonnée c'est le fait d'avoir confiance en nos jugements dans ce domaine. L'effet DK, c'est le fait que cette ligne soit en pente descendante: moins on est expert, plus on a confiance en nos jugements.
Par exemple, une étude récente (Motta et al, 2018) montre que ce sont les gens qui s'y connaissent le moins dans le domaine l'autisme qui ont le plus confiance que leurs jugements sont plus fiables que ceux des experts. Ce sont aussi eux qui croient donc que les vaccins causent l'autisme.
L'idée plus fondamentale: surestimer notre propre rationalité est un obstacle à la connaissance. De façon générale, reconnaître sa faillibilité est une bonne chose. Vive le doute (et là-dessus, Descartes aurait été d’accord).
Fake News et engagement politique
Un deuxième problème qui taraude l'intervention, c'est de croire qu'il faut agir sur le traitement du message. En gros, si on arrive à rendre les gens rationnels, si on leur apprend à évaluer l'information de façon "critique", cela les immunisera contre les fake news et en fera de meilleurs citoyens. Ce raisonnement fait face à d'autres écueils. Dans son analyse de l’opinion publique à l’époque nazie, Hanna Arendt disait:
"Dans un monde en plein changement, incompréhensible, les masses avaient atteint le point auquel elles croyaient simultanément à tout et à rien, elles croyaient que tout était possible et que rien n'était vrai (…) »
C’est cette attitude, selon Arendt, qui nourrit une forme de cynisme par rapport à la politique. Le problème n'est pas l’irrationalité ou la crédulité. L’incrédulité peut être tout aussi dangereuse. Ce qui « amollit » les gens, c’est le fait de ne plus avoir confiance dans le discours des institutions, qu’elles soient politiques ou médiatiques. Le fait de faire confiance aux "fake news" ou de croire à des complots ne reflète pas ici une défaillance de la raison mais de la confiance face au institutions.
Une étude récente sur le complotisme illustre cela de façon fort élégante. Les théories du complot sont parfois contradictoires. Selon une théorie du complot, par exemple, Ben Laden était déjà mort quand les "navy seals" d'Obama ont pénétré dans sa demeure en mai 2011. Mais selon une autre théorie, il n'a pas été tué ce jour-là et est toujours bien vivant. Des collègues anglais ont cherché à explorer l'adhésion à ce type de croyances. Que constatent-ils? Le fait de croire à l'une des théories du complot est positivement corrélé avec le fait de croire à l'autre. En d'autres termes, les gens sont en mesure d'entretenir des croyances contradictoires: Ben laden est en même temps mort et vivant! De quoi donner envie au squelette de Descartes de faire un peu de gymnastique dans sa tombe. Comment expliquer cette apparente contradiction? La réponse est simple: la corrélation est complètement annulée si on prend en compte la variable suivante - le fait de croire que les autorités ont caché la vérité.
Bref, tout peut être vrai ou rien ne peut être vrai. La question n'est pas d'être rationnel ou pas. Tout dépend de la confiance vis-à-vis des autorités. Et bien sûr, les médias « traditionnels » sont souvent assimilés aux autorités. De fait, l’adhésion aux Fake News reflète autant une défiance vis-à-vis des médias traditionnels, vus comme à la solde du pouvoir, qu’une forme de crédulité irrationnelle.
« Conspiracy theories are for losers »
Plus fondamentalement, on sait que le complotisme est beaucoup plus répandu chez des personnes de statut social plus défavorisé, qui appartiennent à des groupes minoritaires ou stigmatisés, ou qui se sentent dévalorisés. Le politologue Joe Ucinski écrit
"Les théories du complot, c'est pour les perdants".
Le complotisme, c’est une idéologie de dominés - et une idéologie de contestation du pouvoir. Il permet de créer du lien social dès lors que nous sommes nombreux à adhérer à ce complot. En faisant obstacle au discours dominant, il offre en fait la voie à une forme d’implication politique.
Prenons un exemple. Lors de l’ouragan Katrina, qui a touché principalement des populations pauvres et afro-américaines du sud des Etats-Unis en 2005, le gouvernement Bush s’est montré particulièrement inefficace. De nombreuses théories du complot ont émergé, par exemple que les digues ont été sabotées par les autorités pour protéger les quartiers blancs. De telles croyances ont souvent été raillées par les blancs come irrationnelles. Mais, en l’occurrence, elles étaient parfaitement compréhensibles quand on considère l’histoire des Noirs dans cette région et notamment la grande crue du Mississipi en 1927.. Nelson et ses collègues (2010) ont pu montrer que l’adhésion à ces théories du complot est corrélé non pas avec l’ignorance mais avec la connaissance de l’histoire afro-américaine. C’est parce qu’ils connaissent mieux l’histoire que les Afro-Américains trouvent une Théorie du Complot plus crédible. Il y a donc ici un remarquable retournement de l’effet Dunning Kruger: les complotistes sont les moins ignorants.
Ces croyances constituaient une « arme idéologique » permettant de résister à la domination. Dire que ce sont des « théories du complot », ou des « fake news », cela revient à délégitimer l’expérience des Afro-Américains. En l’occurrence, en critiquant le complotiste, on ne peut pas échapper au soupçon d'être à la solde du pouvoir qui les opprime.
Implications au niveau de l'intervention
Au vu de notre analyse, des approches purement cartésiennes pour lutter contre les fake news sont vouées à l’échec. Par exemple, une approche commune pour contrer l'effet des fake news consiste à les réfuter après coup. Montrer au gens que c'était faux. De nombreux travaux ont montré que, souvent, cette technique n'est pas efficace.
Par exemple Nyhan et Riefler (2015) ont mené une expérience sur les croyances concernant l'efficacité des vaccins contre la grippe. Cette expérience répondait à un problème sociétal: il y a plein de gens qui croient qu'on peut attraper une maladie en se faisant vacciner et Nyhan et Riefler cherchaient des interventions pour lutter contre cette croyance néfaste en termes de santé publique. Ils ont donc constitué trois groupes: un groupe de gens à qui on ne disait rien de spécial, un groupe de gens à qui on soulignait le danger posé par la grippe et un groupe chez qui on essayait de corriger les croyances fausses à propos du vaccin contre la grippe. On évaluait ensuite les croyances des sujets et on constate qu'effectivement, les interventions fonctionnent dans la condition « correction »: les gens croient moins que la grippe se transmet par le vaccin. En revanche, si on leur demande s'ils comptent se faire vacciner, on observe un effet étonnant: parmi les gens qui avaient le plus d'inquiétude par rapport au vaccin, le fait de corriger leurs fausses croyances, diminue la probabilité qu'ils se fassent vacciner. Pourquoi? Parce que cette croyance s’inscrivait dans une méfiance plus fondamentale vis-à-vis de la médecine. Cette croyance, elle, restait inchangée! Donc, la correction n'est pas une solution aussi simple: si on ne résout pas le problème de confiance, on n’agit pas sur ce qui nous intéresse vraiment: le comportement.
En revanche, des stratégies qui travaillent sur la fonction psychologique de la croyance aux fausses informations peuvent avoir un effet. Par exemple, dans une étude très récente, Carnahan et ses collègues demandaient à leurs sujets d'écrire quelques lignes exprimant leur valeurs les plus importantes. Suite à cela, ils étaient confrontés à des informations qui contredisaient des croyances fermement ancrées sur les OGM. Et là, effectivement, la correction s'avérait efficace. Pourquoi? Parce que la croyance répondait à une nécessité plus fondamentale: affirmer ses valeurs.
Conclusion
Lorsqu'on met en oeuvre des stratégies de lutte contre les fake news, il importe d'une part d'adopter une approche "evidenced based" -
Et en pratique
- Prendre en compte le fait que notre esprit fonctionne plutôt sur le modèle de l'intestin que sur celui de l'écluse.
- Prendre en compte le fait qu’accepter des faits comme tels peut être en contradiction avec des besoins souvent plus fondamentaux: Trouver sa place dans un monde complexe et imprévisible, pouvoir affirmer sa vision du monde, résister à une domination vécue comme illégitime
Note: ceci est le texte de mon intervention lors du colloque "Education aux médias: Etats d'urgence" qui s'est tenu à Bruxelles les 29 et 30 octobre 2018.
Références
Fondation Jean-Jaurès & Conspiracy Watch (2017). Enquête sur le complotisme. https://jean-jaures.org/sites/default/files/redac/commun/productions/2018/0108/115158_-_rapport_02.01.2017.pdf
Gilbert, D. T., Tafarodi, R. W., & Malone, P. S. (1993). You can't not believe everything you read. Journal of personality and social psychology, 65(2), 221-233.
Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it: how difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of personality and social psychology, 77(6), 1121‑1134.
Gilbert, D. T., Tafarodi, R. W., & Malone, P. S. (1993). You can't not believe everything you read. Journal of personality and social psychology, 65(2), 221-233.
Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it: how difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of personality and social psychology, 77(6), 1121‑1134.
Motta, M., Callaghan, T., & Sylvester, S. (2018). Knowing less but presuming more: Dunning-Kruger effects and the endorsement of anti-vaccine policy attitudes. Social Science & Medicine, 211, 274-281.
Nelson, J. C., Adams, G., Branscombe, N. R., & Schmitt, M. T. (2010). The role of historical knowledge in perception of race-based conspiracies. Race and Social Problems, 2(2), 69-80.
Nyhan, B., & Reifler, J. (2015). Does correcting myths about the flu vaccine work? An experimental evaluation of the effects of corrective information. Vaccine, 33(3), 459-464.
Pantazi, M., Kissine, M., & Klein, O. (2018). The power of the truth bias: False information affects memory and judgment even in the absence of distraction. Social cognition, 36(2), 167-198.
Uscinski, J. E., & Parent, J. M. (2014). American Conspiracy Theories. Oxford ; New York: Oxford University Press.
Wood, M. J., Douglas, K. M., & Sutton, R. M. (2012). Dead and alive: Beliefs in contradictory conspiracy theories. Social Psychological and Personality Science, 3(6), 767-773.
Aucun commentaire:
Enregistrer un commentaire