Comment surmonter les 3 sources de la pensée antiscientifique

Gros titre: 56 personnes meurent moins d’un jour après avoir reçu le vaccin COVID!

Gros titre: L’enfant se fait vacciner contre la rougeole, les oreillons et la rubéole, diagnostiqués plus tard avec l’autisme!

En moins de temps qu’il ne m’a fallu pour inventer les deux titres imaginaires ci-dessus, vous pouvez aller en ligne et trouver des gens vantant sincèrement des «preuves» qui vont à l’encontre du consensus scientifique: doutes sur l’évolution par sélection naturelle, inquiétudes sur les vaccins infantiles causant l’autisme , s’inquiète qu’Anthony Fauci et Bill Gates utilisent des vaccins COVID pour contrôler la surpopulation (ou pire encore, pour implanter des micropuces programmées dans notre cerveau), affirme que la pollution humaine n’a absolument aucun lien avec le réchauffement climatique. La plupart des personnes qui font ces affirmations ne sont pas cliniquement paranoïaques, et la plupart ne sont pas des agents russes qui promeuvent délibérément la discorde publique, ce sont simplement des personnes normales confrontées à tous les obstacles habituels au traitement rationnel des informations scientifiques: il y a trop de telles informations, et elles est terriblement compliqué, même pour ceux qui sont en fait des experts.

Les deux titres ci-dessus sont parfaitement plausibles, mais aussi dénués de sens. Sur la base du nombre de personnes qui se font vacciner aux États-Unis et du taux de mortalité quotidien normal, on s’attendrait à ce qu’environ 56 personnes meurent dans la journée après avoir été vaccinées (mais elles seraient mortes de toute façon, avec des milliers d’autres. qui est mort et ne s’est pas fait vacciner, simplement parce que beaucoup d’Américains meurent chaque jour – certains de cancer, ce qui est difficile à attribuer à un vaccin reçu ce matin). De même, de nombreux enfants reçoivent les vaccins standard pour enfants et reçoivent plus tard un diagnostic d’autisme, mais le même nombre d’enfants qui ne se font pas vacciner plus tard reçoivent également un diagnostic d’autisme. Pour être significatif, vous devez considérer basère – à quelle fréquence un événement donné se produit-il de toute façon, indépendamment de la prétendue «cause». Mais les gens ont beaucoup de mal à traiter des cas basiques, de sorte que les exemples de cas prennent souvent une signification injustifiée.

A lire aussi  Je pense que mon ami est un briquet à gaz

Cette semaine, on m’a demandé de parler de la «pensée antiscientifique» lors d’une conférence de pédiatres basée en grande partie dans les facultés de médecine de l’État du Michigan, de l’État de Wayne et de l’Ontario voisin. L’un des organisateurs de la conférence, Brad Upham, de l’État du Michigan, avait lu un article qu’Adam Cohen, Steve Neuberg, Bob Cialdini et moi avions publié dans Américain scientifique sur «La science de la pensée antiscience». Étant donné que les pédiatres voient un certain nombre de parents réticents à faire vacciner leurs enfants après avoir entendu des rumeurs alarmantes (mais non fondées) sur des liens entre l’autisme et les vaccins, le thème de la conférence de cette année était la réflexion antiscientifique.

Bien que notre article original parlait un peu plus d’autres préjugés, tels que les malentendus sur la théorie de l’évolution, j’ai bien accueilli l’opportunité de réfléchir à la manière dont la psychologie sociale pourrait être appliquée pour lutter contre la désinformation sur la médecine. Vous pouvez voir mon discours ici; Il traite de 3 ensembles d’obstacles au traitement des preuves scientifiques sur des sujets complexes tels que la transmission virale de maladies, l’efficacité des vaccins ou les liens entre la pollution de l’air et les maladies pulmonaires. (excuses pour la première minute d’éclaircissement de la gorge, mais, euh, j’espère que tu trouveras que ça va mieux au fur et à mesure que ça roule).

Douglas T.Kenrick, figure originale, utilisée avec permission

3 obstacles à la pensée scientifique

Source: Douglas T.Kenrick, figure originale, utilisée avec permission

Dans l’exposé, je discute de 3 grands ensembles d’obstacles au traitement rationnel de l’information scientifique:

1) Les informations scientifiques sont généralement incroyablement complexes, nous misons donc sur la simplification heuristique (tel que «Faire confiance à une autorité», ou “Fais confiance au consensus des personnes que je connais”). Des problèmes surviennent lorsque les autorités dans un domaine se voient accorder de la crédibilité dans des domaines où elles ne sont pas expertes (comme Scott Atlas, qui était un expert en imagerie par résonance magnétique, mais dont les opinions sur la transmission virale avaient la confiance des dirigeants politiques parce qu’ils n’aimaient pas ce qu’ils entendaient Anthony Fauci, un expert de la transmission virale des maladies). Et se fier au consensus peut être problématique lorsque la plupart des membres de votre groupe de référence ne savent pas de quoi ils parlent (si vous vivez aux États-Unis et que vous ne traînez pas avec des personnes qui ont réellement étudié biologie, à peu près autant de vos amis et voisins conviendront que la théorie évolutionniste est fausse que juste).

A lire aussi  Pourquoi les narcissiques et les agresseurs ne lâcheront pas et ce que vous pouvez faire

2) Même si nous sommes suffisamment motivés pour aller au-delà de la pensée heuristique, nous sommes toujours sélectif dans notre attention aux preuves, et très biaisé dans la façon dont nous interprétons les preuves qui est d’accord ou en désaccord avec nos croyances initiales (cela s’applique aux libéraux et aux conservateurs, selon les recherches de Washburn et Skitka).

3) Même si vous avez le temps de réfléchir attentivement et que vous êtes prêt à considérer les deux côtés d’un argument, il y a des motifs sociaux puissants qui peuvent interférer avec l’objectivité. Si un message suscite la peur, par exemple, nous sommes plus susceptibles de rechercher un accord et un consensus avec les membres de notre groupe (ce qui est bien s’ils sont d’accord avec le consensus scientifique, mais pas s’ils sont eux-mêmes mal informés)

Penser de manière critique aux preuves scientifiques n’est pas seulement académique. Un coup d’œil en ligne la semaine dernière indique qu’environ 24% des Américains prévoient de ne pas se faire vacciner contre le COVID, ce qui se traduit par près de 80 millions de lieux de reproduction ambulants pour les variantes les plus dangereuses. Pire encore, 18% des personnes travaillant dans les professions de la santé déclarent ne pas se faire vacciner.

Dans la vidéo, je parle de certaines interventions que les experts peuvent utiliser pour aider à surmonter la désinformation. Au niveau le plus simple, les autorités réelles (comme les médecins traitant des adolescents qui commencent à fumer) peuvent utiliser efficacement l’heuristique d’autorité. Et quand il y a consensus, cela aide à le souligner. Plutôt que de sonner l’alarme sur les 24% de personnes qui ne vont pas se faire vacciner (et que cela ressemble à une tendance populaire), il vaut mieux signaler à votre voisin hésitant à la vaccination COVID que la majorité des Américains ont été soit déjà vaccinés ou prévoient de le faire bientôt, et que la tendance est que de moins en moins de personnes soient sceptiques. En ce qui concerne le biais de confirmation, Charles Lord et ses collègues ont constaté que cela ne sert à rien de dire aux gens d ‘«être objectifs», mais que cela aide à les faire jouer leur propre avocat du diable (demandez: «comment penseriez-vous si le les preuves sont sorties différemment? “). Et quand il s’agit d’éveiller des motifs de peur, cette approche fonctionnera si les autres membres du groupe d’un public cible sont bien informés, mais devrait être évitée si le membre du public appartient à un groupe mal informé (car la peur nous amène à chercher le réconfort de consensus du groupe).

A lire aussi  Le métaverse ne vous sauvera pas

En matière de santé publique, où une partie du problème est la désinformation des personnes qui aggravent les problèmes, de bonnes preuves scientifiques sur la manière dont les gens traitent les preuves scientifiques pourraient être aussi utiles que de nouvelles découvertes sur les causes sous-jacentes de la maladie.