Une analyse de différents moteurs de recherche basés sur l’IA révèle leur incapacité à refuser de répondre lorsqu’ils ne sont pas certain·e·s de la véracité d’une information, menant ainsi à la production de contenu faux ou ambigu. Les liens et les sources cités sont souvent erronés, inexacts ou non fonctionnels.
Catégorie : L'ABC de la désinformation
-
L’intelligence artificielle a un problème avec les sources et les citations
-
Il n’est pas toujours nécessaire de démentir une fausse affirmation pour faire la différence.
Lorsque quelqu’un croit quelque chose d’inexact, notre premier réflexe est souvent de faire une correction par des faits. Mais cela ne fonctionne pas toujours comme on le voudrait.
La plupart des gens n’aiment pas être contredits, surtout si le sujet leur tient à cœur. De plus, il n’est pas toujours facile de trouver les bons mots sur le coup. Tu sais peut-être que quelque chose cloche, mais tu n’as peut-être pas les faits ou les chiffres pour expliquer pourquoi. Même les expert·e·s ont parfois besoin de temps pour vérifier les faits et répondre clairement (1,2,3).
C’est là que le contournement peut s’avérer utile.
Au lieu d’argumenter sur ce qui est faux, le contournement place l’attention sur une nouvelle plus positive plutôt que sur la fausse information. (1,2,4).
Par exemple, au lieu de dire « Non, les vaccins ne causent pas X », tu pourrais dire: « Les vaccins ont sauvé des millions de vies et réduit la mortalité infantile dans le monde entier » (5).
En contournant la désinformation, tu évites la confrontation et tu orientes la conversation vers quelque chose sur le même sujet qui est à la fois exact et positif (2,3,4).
Mais il faut garder à l’esprit que le contournement ne vise pas à corriger des idées fausses ou des croyances profondément ancrées. Et dans certains cas, comme les urgences de santé publique, une correction directe peut être ton meilleur allié. Avant de te lancer, pose-toi donc la question: Quel est mon objectif? S’il s’agit de prouver que « les vaccins ne sont pas nocifs », tu devrais corriger! Mais, s’il s’agit de renforcer l’idée que « les vaccins sauvent des vies », tu peux tenter le contournement (2,4).
Le contournement (1,4):
- Évite que les gens se sentent attaqués.
- Réoriente la conversation vers des valeurs ou des buts communs.
- Permet à plusieurs idées de coexister – on peut avoir des inquiétudes tout en reconnaissant les avantages d’une chose.
En contournant la désinformation, tu n’effaces pas une fausse croyance, mais tu aides à en construire une autre, et ce changement d’orientation peut faire une grande différence (1,2,4).
Sources- Bypassing Versus Correcting Misinformation: Efficacy and Fundamental Processes | Journal of Experimental Psychology: General | November 2024
- Instead of Refuting Misinformation Head-On, Try “Bypassing” It | Annenberg | April 2023
- Is ‘Bypassing’ a Better Way to Battle Misinformation? | Annenberg | November 2024
- Don’t waste time correcting misinformation. Instead, try the « bypassing technique » | Big Think | January 2025
- Les actions mondiales en faveur de la vaccination ont permis de sauver au moins 154 millions de vies au cours des 50 dernières années | Organisation mondiale de la Santé | Avril 2024
Partagez notre post original de Bluesky !
Au lieu d'argumenter sur ce qui est faux, le contournement place l'attention sur une nouvelle plus positive plutôt que sur la fausse information. On te donne quelques exemples et on t’explique pourquoi le contournement peut s’avérer utile 👉 scienceupfirst.com/labc-de-la-d… #LaSciencedAbord
— LaSciencedAbord (@lasciencedabord.bsky.social) June 3, 2025 at 12:39 PM
[image or embed]Voir notre post Instagram original !
-
La méthode SIFT
Connais-tu la différence entre la lecture verticale et latérale? Les personnes qui vérifient les faits utilisent la lecture latérale parce qu’elle est plus rapide, plus efficace et moins biaisée que la lecture verticale.
La méthode SIFT consiste à s’arrêter, à investiguer la source, à fouiller pour comparer les sources et à trouver le contexte d’origine pour en évaluer la validité.
On te résume point par point comment t’y prendre.
Connaissiez-vous cette méthode de vérification des faits ? Tenez-nous au courant et n’hésitez pas à partager cette vidéo avec vos proches !
Nous avons également publié un article sur SIFT qui va un peu plus loin dans le processus.
Partagez notre post original de Bluesky !
Les personnes qui vérifient les faits utilisent la lecture latérale parce qu'elle est plus rapide, plus efficace et moins biaisée que la lecture verticale. 👉 scienceupfirst.com/labc-de-la-d… As-tu des questions sur la méthode SIFT? Dis-nous dans les commentaires! #LaSciencedAbord
— LaSciencedAbord (@lasciencedabord.bsky.social) May 27, 2025 at 2:01 PM
[image or embed]Voir notre post Instagram original !
-
Tactique de désinformation : Le trop-plein d’informations
Ce n’est pas parce qu’une information est répétée par plusieurs, qu’elle est vraie. 📣📣📣
Le trop plein d’informations est une technique de propagande qui vise à confondre et à submerger le public en diffusant un message en continu, rapidement et de manière répétitive sur plusieurs plateformes. Ces messages sont souvent faux ou composés de demi-vérités et manquent de cohérence et d’objectivité (1).
Cette tactique est notamment utilisée par le président russe Vladimir Poutine (1), le président américain Donald Trump (2), mais aussi par les groupes anti-vaccins pour propager de la désinformation sur les vaccins (3).
Cette technique fonctionne, car :
- Elle utilise plusieurs sources variées pour diffuser ses mensonges (4,5)
- Elle exploite notre besoin de conformité (6)
- Lorsque tu vois quelque chose être partagé par plusieurs sources, tu es plus susceptible de penser que c’est vrai (1). Les mensonges n’ont même pas besoin d’être crédibles. Le but n’étant pas de persuader, mais de bombarder les gens de façon à ce qu’ils se sentent trop dépassés par la quantité d’informations pour vérifier les faits (3).
Pour contrer le trop plein d’informations, tu dois d’abord être conscient de cette tactique, mais tu peux aussi (1,3):
- Signaler le contenu erroné pour perturber le flux de désinformation
- Partager de l’information fondée sur des preuves, sans toutefois te lancer dans des guerres de commentaires pour réfuter la désinformation
Un grand merci à Jordan Collver pour sa collaboration sur ce projet ! Découvre son travail sur son site internet (jordancollver.myportfolio.com) et sur Twitter (@JordanCollver)
Sources- The Russian « Firehose of Falsehood » Propaganda Model
- ‘Firehose of falsehood:’ How Trump is trying to confuse the public about the election outcome
- Firehosing: the systemic strategy that anti-vaxxers are using to spread misinformation
- Information utility and the multiple source effect
- Trusting expert- versus user-generated ratings online: The role of information volume, valence, and consumer characteristics
- Discrediting in a Message Board Forum: The Effects of Social Support and Attacks on Expertise and Trustworthiness
Partagez notre post original de Bluesky !
Les mêmes informations répétées encore et encore ? C’est la technique du trop plein d'informations. Apprends pourquoi cette technique de propagande fonctionne si bien ici 👇 www.scienceupfirst.com/project/tact… #LaSciencedAbord
— LaSciencedAbord (@lasciencedabord.bsky.social) May 27, 2025 at 5:16 PM
[image or embed]Voir notre post Instagram original !
-
« Il faut utiliser un langage que tout le monde peut comprendre » : accessibilité de l’information sur les vaccins contre la COVID-19 pour les adultes canadiens ayant une déficience intellectuelle ou développementale
Une enquête révèle que les Canadien·ne·s ayant une déficience intellectuelle ou développementale rencontrent des difficultés pour trouver et comprendre l’information sur les vaccins. Ces personnes rencontrent aussi des obstacles dans l’accès aux vaccins, comme la prise de rendez-vous. La surcharge d’information et les messages contradictoires posent problème. Des efforts peuvent être faits pour renforcer la clarté, la confiance envers les sources, et l’engagement communautaire (par exemple, avec de l’information hautement accessible).
-
« Starter Pack » de la démystification
On est peut-être un peu en retard sur la trend, mais elle est trop bonne pour passer à côté ! 😅
Voici : La trousse du·de la démystificateur·trice de mythes de LaSciencedAbord! 🎉
Voici 4 essentiels pour toute personne qui aspire à devenir un·e pro de la lutte contre la désinformation :
Un·e bon·ne démystificateur·trice sait comment écouter attentivement, engager un dialogue respectueux, et faire preuve d’empathie, même quand les opinions divergent. 💬🩵👂
Il·elle sait aussi que l’une des façons les plus simples de freiner la désinformation, c’est de prendre une pause et de se demander : « Est-ce que c’est vrai ? » avant de partager quoi que ce soit en ligne. 🛑
Il·elle développe un œil aiguisé pour repérer les tactiques douteuses et les raisonnements trompeurs utilisés pour propager la désinformation. 🔍🚩
Et surtout, il·elle lit au-delà des grands titres, vérifie la crédibilité des sources et croise l’information pour avoir une vue d’ensemble. 📚
Tu te reconnais? Bienvenue dans l’équipe! 🫶
Partagez notre post original de Bluesky !
On est peut-être en retard sur la trend, mais c’était trop tentant 😅 Voici la trousse du·de la démystificateur·trice de mythes! Tu te reconnais? Bienvenue dans l’équipe! 💪 scienceupfirst.com/labc-de-la-d… #LaSciencedAbord
— LaSciencedAbord (@lasciencedabord.bsky.social) May 5, 2025 at 12:09 PM
[image or embed]Voir notre post Instagram original !
-
La capacité à discerner la vérité médiatique et à détecter les fausses nouvelles est lié au développement du raisonnement pendant l’adolescence
Le développement des capacités logiques et du raisonnement chez les jeunes renforce leur aptitude à repérer les fausses nouvelles et les contenus inexacts tout au long de leur vie.
Cette recherche, centrée sur les adolescent·e·s, explore l’effet de vérité illusoire — un phénomène selon lequel une exposition répétée à de la désinformation augmente l’impression de véracité.
Les résultats montrent que de meilleures compétences en raisonnement améliorent la capacité à discerner la vérité dans les médias.
-
Sophisme du juste milieu
Voici pourquoi un compromis n’est pas toujours la meilleure solution à un conflit.
Exemple : 2 personnes se disputent au sujet de manger du poulet cru. L’une dit qu’il peut contenir des bactéries nocives et qu’il doit être entièrement cuit. L’autre dit qu’il n’y a aucun problème à le manger cru. Elles font un compromis en ne cuisant le poulet que partiellement, de sorte qu’il soit encore un peu rosé à l’intérieur.
C’est le sophisme du juste milieu… et une intoxication alimentaire qui n’attend que de se produire (1,2). Ouch!
Appelé argument de modération, faux compromis ou sophisme du gris, ce raisonnement suggère que le point médian entre 2 opinions opposées est automatiquement le plus exact (3-6). Mais la vérité ne se décide pas en faisant la moyenne des opinions. Si l’un de ces extrêmes est clairement faux, le compromis n’est pas une solution équitable – c’est une distorsion de la vérité (3,7).
Ce raisonnement est sournois parce qu’il « semble » juste, mais est trompeur (2,4,5,7,8):
- Il donne le même poids aux deux arguments, même si un seul est étayé par la science (biais du faux équilibre – 9). Le poulet cru peut contenir des bactéries qui ne s’éliminent qu’avec une cuisson complète.
- Il part du principe que le juste milieu est toujours la meilleure solution, mais un « peu rosé » est toujours dangereux.
Il ignore la possibilité que d’autres solutions puissent exister.- Il peut encourager les gens à présenter des affirmations radicales ou fausses, en espérant que les autres se contenteront d’un juste milieu « raisonnable », mais qui serait encore erroné.
Lorsqu’il s’agit de faits, le « juste milieu » n’est pas la meilleure solution, ni la plus exacte (2,4,5,7,8).
Pour éviter de tomber dans le panneau (6) :
- Existe-t-il des preuves pour les deux parties?
- Évalue chaque affirmation, sans te limiter à la position qu’elle occupe sur un spectre.
- N’oublie pas : les demi-vérités peuvent tout autant être nuisibles.
La vérité ne se trouve pas toujours à mi-chemin entre deux opinions. Parfois, elle se trouve fermement d’un côté.
Sources- Edzard Ernst: The « middle ground » fallacy | The BMJ | July 2012
- Conseils sur la salubrité de la volaille | Gouvernement du Canada | Février 2019
- Middle ground | Your logical fallacy is
- Middle Ground – Definition & Examples | Logical Fallacies
- Argument to Moderation | Logically Fallacious
- What is The Middle Ground Fallacy? | Critical Thinking Basics – Psychology Corner
- The Problem with the Middle Ground | by Diana Van Dyke | Medium | March 2023
- Middle Ground – Bad Arguments | Wiley Online Library | May 2018
- Biais de faux équilibre | LaSciencedAbord | Septembre 2023
Share our original Bluesky post!
La vérité ne se trouve pas toujours à mi-chemin entre deux opinions. Parfois, elle se trouve fermement d'un côté. Apprends-en plus sur le sophisme du juste milieu 👉 scienceupfirst.com/labc-de-la-d… #LaSciencedAbord
— LaSciencedAbord (@lasciencedabord.bsky.social) April 21, 2025 at 4:08 PM
[image or embed]Voir notre post Instagram original !
-
Étude de suivi annuelle sur la santé et les médias 2025 de l’Association médicale canadienne. 2ème édition
Une enquête auprès de la population canadienne révèle une forte présence de la désinformation en ligne et une grande exposition à celle-ci. Plus du tiers des Canadien·ne·s déclarent avoir évité un traitement médical efficace à cause d’informations inexactes. Environ 1 Canadien·ne sur 4 croit à la théorie du complot des chemtrails, pense que le thimérosal (un agent de conservation à base de mercure dans les vaccins) pourrait causer l’autisme, ou que la 5G cause le cancer.
-
Le petit guide pour repérer les bots
Les bots sur les médias sociaux peuvent être conçus à des fins différentes (2,11,19) :
- Ferme à clics et à j’aime: Les bots augmentent la popularité d’un compte en générant de faux j’aime ou reposts.
- Détournement de hashtags : Les bots utilisent des hashtags populaires pour diffuser du spam ou du contenu malveillant.
- Tempête de reposts : Un bot principal partage quelque chose, ce qui déclenche une attaque coordonnée de repost de la part d’un réseau de bots.
- Manipulation des tendances : Les bots exploitent les sujets à la mode pour diffuser leur message ou cibler un public.
- Contrefaçon d’opinion : Les bots peuvent se rallier à différentes questions pour gonfler artificiellement la perception de soutien.
Il existe des outils de détection en ligne qui peuvent t’aider à identifier les comptes de bots X (par exemple Bot-o-Meter, Twitter Audit, Bot Sentinel) (18).
Si tu penses avoir trouvé un bot, signale-le et bloque-le (20). En signalant les comptes de bots et en les supprimant de ta liste d’abonné·e·s, tu peux limiter la propagation de la désinformation, mais aussi mettre ton compte de l’avant car l’engagement sur tes publications sera plus authentique (16).
As-tu déjà repéré des bots? Comment as-tu su qu’il s’agissait de faux comptes? Dis-nous!
Sources- BotSpot: Twelve Ways to Spot a Bot | Digital Forensic Research Lab | August 2017
- Social Media Bots Overview | Homeland Security | May 2018
- Twitter Bots & Climate Disinformation | Scientific American | January 2021
- Social media, fake news, and polarization | Science Direct
- New Strategy to Detect Social Bots | Stonybrook University | November 2021
- Inside a Facebook Bot Farm | Comparitech | March 2022
- Nearly 48 million Twitter accounts could be bots | CNBC | March 2017
- Huge networks of fake accounts found on Twitter | BBC News | January 2017
- Battle of the Botnets | Digital Forensic Research Lab | July 2017
- Bots and Computational Propaganda | Cambridge University | August 2020
- Social Media Bots Infographic Set |The Cybersecurity and Infrastructure Security Agency (CISA)
- Bots tried to influence the U.S. election | science.org | September 2017
- ‘Bots’ boost Russian backlash against Olympic ban | Reuters | December 2017
- Spotting Bots | TRADOC
- What Is ‘Coordinated Inauthentic Behavior’? | snopes.com | September 2021
- Snopes Tips: How to Spot Social Media Bots | snopes.com | July 2022
- How to spot fake social media accounts, bots and trolls dw.com |July 2022
- Media Literacy & Misinformation | Monmouth University
- Instagram Spam Bots | FraudBlocker.com
- The Ultimate Guide to Spotting and Fighting Bots on Social Media | BitDefender.com | July 2023
Partagez notre post Bluesky original !
Les bots sont partout. Si certains sont utiles, d'autres manipulent les tendances, diffusent des informations erronées et faussent l'opinion publique. Comment les repérer ? Que faire ? Pour en savoir plus 👉 scienceupfirst.com/labc-de-la-d… #LaSciencedAbord
— LaSciencedAbord (@lasciencedabord.bsky.social) April 7, 2025 at 12:18 PM
[image or embed]Voir notre post Instagram original !
-
Êtes-vous atteint de dépression ? Une analyse sommative du contenu lié à la santé mentale sur TikTok
Selon une analyse des 1000 vidéos TikTok les plus populaires avec le hashtag #mentalhealth, 33,0 % des vidéos contenant des conseils ou des informations sont trompeuses. Les vidéos au contenu trompeur ont été vues, aimées, commentées et partagées plus souvent, en moyenne, que celles ne contenant pas de contenu trompeur.
-
Bienvenue à votre séance de bien-être
Nous sommes tellement excité·e·s par la fin de la saison de Severance (Dissociation) que nous avons voulu voir à quoi cela ressemblerait si nos « moi internes » passaient par une séance de bien-être.
Vous regardez Severance (Dissociation) ? Ou est-ce que cette vidéo vous a fait dire, « huh ?! » Tenez-nous au courant !
Partagez notre article original de Bluesky !
Nous sommes tellement excité·e·s par la fin de la saison de Severance (Dissociation) que nous avons voulu voir à quoi cela ressemblerait si nos « moi internes » passaient par une séance de bien-être. #ScienceUpFirst #LaSciencedAbord #EnsembleContreLaDésinformation
— LaSciencedAbord (@lasciencedabord.bsky.social) March 21, 2025 at 12:58 PM
[image or embed]Voir notre post Instagram original !
-
Le fossé des connaissances algorithmiques au sein et entre les pays : Implications pour la lutte contre la désinformation
Les connaissances algorithmiques varient d’un pays à l’autre, les Américains étant les mieux informés, suivis par les répondants du Royaume-Uni, du Mexique et de la Corée du Sud. Une meilleure connaissance des algorithmes peut entraîner une augmentation des activités de lutte contre la désinformation sur les médias sociaux.
-
Utiliser l’intelligence artificielle (IA) pour évaluer la prévalence des affirmations fausses ou trompeuses liées à la santé
Les outils d’analyse de texte basés sur l’intelligence artificielle (IA) ont pu évaluer de manière exhaustive et précise les affirmations trompeuses en matière de santé sur les sites web de santé complémentaire et naturelle au Royaume-Uni. Ces outils ont donc le potentiel de contribuer aux efforts de régulation visant à encadrer la commercialisation des thérapies pseudoscientifiques.
-
Qui les adultes américains suivent-ils sur TikTok
46 % des Américains sur TikTok suivent des influenceurs et créateurs de contenu de niveau moyen, et seulement 0,4 % suivent des journalistes, des commentateurs et des médias. Près de 60 % suivent des comptes publiant sur la culture pop et le divertissement, et 36 % suivent des comptes partageant des histoires, des vlogs et des mises à jour personnelles. Seuls 10 % suivent des comptes publiant sur la politique, et 5 % sur les actualités.