mercredi 16 décembre 2020

Etes-vous "algorithm aware"?


Avez-vous un compte Twitter ou Facebook? Si oui,  vous voyez apparaître sur votre "mur" une série de billets postés par vos "amis" ou "followees". Quels sont ces billets? Correspondent-ils à tous les billets que vos ami·es ont postés, dans un ordre chronologique? Ou pensez-vous au contraire que, parmi les innombrables billets postés par vos ami·es, le réseau social a sélectionné certains, guidé par exemple par le souhait de maximiser les chances que vous cliquiez sur un lien vous invitant à effectuer un achat? Si vous avez choisi la première réponse, vous souffrez d'un niveau "de conscience des algorithmes" (algorithm awareness) très faible alors que si vous avez choisi la seconde, il est plus élevé. Une enquête récente menée sur un échantillon d'internautes  norvègiens montre que 40% des gens rapportent n'avoir aucune conscience de l'influence de l'existence des algorithmes sur les publicités et informations qu'ils reçoivent sur internet. Sans surprise, le niveau de "conscience des algorithmes" est étroitement lié à l'âge. Plus on est âgé, plus il est bas. A l'autre extrême, les adolescents sont moins conscients des algorithmes que les jeunes adultes mais largement plus que les personnes âgées (31% d'absence totale de conscience entre 15 et 19 ans vs. 61% chez les 60+ et 74% chez les 70+). 

Ces derniers mois, une des questions qui revenait le plus fréquemment parmi les sollicitations des médias était la suivante: comment discuter avec un ami ou un membre de sa famille qui vous fait part de son enthousiasme pour une théorie du complot? On sait que le complotisme est fortement diffusé par les réseaux sociaux en ligne.  Peut-être la méconnaissance des algorithmes joue-t-elle un rôle dans ce phénomène? Si un usager voit défiler des messages complotistes sur son profit Facebook, il susceptible de considèrer ces informations comme représentatives des opinions de ses "amis" (et donc des personnes en qui il a le plus confiance). Il serait alors bienvenu d'éduquer cette personne en lui montrant que chaque fois qu'il ou elle clique sur une vidéo complotiste, de nouvelles vont apparaître (ceci est par exemple suggéré ici mais je n'ai pas de données quant à son efficacité). 

Dans le domaine du complotisme, on a pu constater que ces discours bénéficiaient plus des algorithmes que la version "officielle". C'est particulièrement vrai en ce qui concerne la vaccination. Par exemple, les librairies en ligne Amazon ou FNAC donnent en priorité des contenus "anti-vax" lorsqu'on recherche le termes vaccination. Le même reproche a été fait au moteur de recherche de Google, même si cela semble avoir été résorbé depuis. Ceci s'explique sans doute par le fait que les informations anti-vax suscitent beaucoup plus d'intérêt et d'engagement de la part des utilisateurs que les discours scientifiques. 

Les algorithmes sont souvent rendus responsables de la prolifération d'infox ("fake news") sur internet. En effet, si les contenus informationnels qui nous sont proposés sont déterminés non pas leur qualité mais par leur propension à susciter des clics et des revenus publicitaires, ceux-ci peuvent contribuer à façonner des représentations totalement faussées de la réalité. 

Les informations auxquelles nous sommes confrontés dans notre environnement social sont nécessairement limitées. Elles ne peuvent nullement être représentatives de l'ensemble des informations disponibles sur un sujet donné. Par exemple, en tant qu'universitaire bruxellois, je suis confronté quasi-exclusivement à des personnes qui lisent sans problème ou qui ont accès à l'eau courante. Quand je lis que le taux d'analphabétisme en Belgique est de 10% ou que de nombreux Bruxellois n'ont pas aisément accès à l'eau courante, je suis fort surpris. Je peux toutefois assez aisément expliquer cela par mon milieu social relativement privilégié. En fait, je peux assez facilement "décoder" le mécanisme par lequel j'en viens à sous-estimer ces phénomènes. 

La difficulté, évidemment, avec les algorithmes, c'est qu'ils sont totalement obscurs. Quand bien même on serait vaguement conscient de l'existence de ces algorithmes, on ne sait pas comment est produite l'information qui nous est transmise. 

Si l'on a bien raison de s'inquiéter des algorithmes, et de leur obscurité, il importe de souligner que leur effet reflète une réalité bien plus fondamentale, ce qu'on appelle la "myopie métacognitive". De quoi s'agit-il? Nous sommes beaucoup plus préoccupés par la façon dont nous utilisons les informations dont nous disposons pour prendre des décisions ou faire des jugements que par l'origine de ces informations. 

Prenons le cas d'un comité de sélection: ses membres seront souvent très sensibles à faire en sorte que les décisions qu'ils opèrent sur base des candidatures soient aussi équilibrées et justes que possible. En revanche, ils seront sans doute moins sensibles à l'origine de ces informations. Par exemple, au fait que l'information sur laquelle ils se basent a fait l'objet d'une synthèse par l'un des rapporteurs et que celui-ci peut avoir filtré certaines informations présentent dans le dossier de candidature. Ou le fait que les lettres de recommandation, ne soient pas représentative de l'ensemble des avis des personnes qui connaissent le candidat. Ou encore du fait que les notes obtenues lors du parcours scolaire ou universitaire des candidats dépendent du niveau de difficulté de celui-ci. Tous ces éléments sont susceptibles de biaiser la décision finale même si celle-ci est prise sur une base parfaitement rationnelle à partir des informations disponibles. 

Un collègue que j'admire beaucoup, Klaus Fiedler, a montré combien cette myopie métacognitive pouvait influencer toute une série de jugements. Les informations dont on dispose pour prendre une décision dépendent non seulement de notre exposition à ces informations mais de la mémoire que l'on a conservé de celles-ci. Et bien sûr, aussi bien l'exposition que la mémoire sont sélectives. Dans le domaine de l'exposition, je vois par exemple très rarement des personnes qui ont des difficultés d'accès à l'eau courante. Dans le domaine de la mémoire,  on se souvient (par exemple) plus aisément d'événements surprenants et ceux-ci sont plus à même de colorer notre jugement que des événements habituels mais moins frappants. Exposition et mémoire contraignent donc les informations sur base desquelles nous pouvons prendre des décisions ou effectuer des jugements. 

Pour prendre un exemple d'actualité, les cas de personnes vaccinées anti-Covid qui ont ensuite des problèmes de santé (fussent-ils sans rapport avec la vaccination) seront beaucoup plus médiatisés, et attireront beaucoup plus l'attention, que les cas dans lesquels tout se passe bien. 

Dans un autre registre, nous avons pu montrer que lorsqu'on est exposé à des informations que l'on sait fausses à propos d'un criminel potentiel (on informe le sujet que le témoin en question ment), celles-ci colorent malgré tout notre jugement ultérieur du prévenu. C'est même vrai chez des juges professionnels. Pourquoi? Parce qu'au moment de juger de sa culpabilité, ou de la peine qu'il faudrait lui infliger, nous ne prenons pas suffisamment en compte le fait que parmi les nombreuses informations que nous avons reçues, certaines étaient fausses. En d'autres termes, nous utilisons les informations que nous avons en mémoire mais en négligeant leur origine, somme amenés à juger le prévenu de façon injuste. Même quand on sait que des "fake news" sont fausses, elles peuvent donc influencer nos jugements ultérieurs. 

Cette myopie méta-cognitive nous rend donc particulièrement vulnérables aux algorithmes: même si on sait qu'ils existent (ce qui, comme nous l'avons vu, n'est pas le cas de tout le monde), on ignore commet ils façonnent notre "écoystème informationnel" et, plutôt que de se demander d'où viennent les informations auxquelles nous sommes exposés, nous nous demandons comment les utiliser pour prendre des bonnes décisions ou former des opinions valides (dans le meilleur des cas). Malgré toute notre bonne volonté, ces décisions seront inévitablement biaisées par le caractère éminemment sélectif des informations que Google, Facebook ou autres auront bien voulu nous donner. 



3 commentaires:

Nuages a dit…

Merci pour vos articles, toujours éclairants et pertinents.

A mon modeste niveau, j'ai envoyé des liens de "debunking" à propos du film complotiste "Hold-Up" à de nombreux amis et connaissances, en particulier ceux qui sont perméables à ces thèses : des liens de Factuel-AFP (site remarquable), du Monde, de Libération, et de l'excellente chaîne "zététique" "La tronche en biais", de Thomas Durand. La chaîne "Meta de choc" d'Elisabeth Feytit est aussi remarquable.

Olivier Klein a dit…

Un grand merci pour votre retour. Je ne connais pas Méta de Choc. Je serai heureux la découvrir. Et j'espère que vos efforts de debunking ont été couronnés de succès (au moins en partie).

Larouche a dit…

Merci pour le partage de votre réflexion. Et Joyeux Noël