Accueil > Pour en savoir plus > Sciences formelles > Intelligence artificielle > "Un appel pour la mise en pause du développement de l’IA générative face aux (…)
"Un appel pour la mise en pause du développement de l’IA générative face aux risques de désinformation, diffamation, infox ou ‘fake news’, et aux cyberharcèlements et faux sites d’information et d’actualités" par Jacques Hallard
dimanche 22 février 2026, par
ISIAS IA générative Risques
Un appel pour la mise en pause du développement de l’IA générative face aux risques de désinformation, diffamation, infox ou ‘fake news’, et aux cyberharcèlements et faux sites d’information et d’actualités
Jacques Hallard , Ingénieur CNAM, site ISIAS – 21/02/2026
Plan du document : Préambule Introduction Sommaire Auteur
Préambule
Quelques informations préliminaires pour ce dossier réalisé avec une visée didactique
IA Générative - L’intelligence artificielle générative ou IA générative (IAg ou GenAI pour l’anglais generative artificial intelligence) est un type de système d’intelligence artificielle (IA) capable de générer du texte, des images, des vidéos ou d’autres médias en réponse à des requêtes (aussi appelées invites, ou en anglais prompts) [1],[2]. Elle semble avoir des applications possibles dans presque tous les domaines, avec une balance des risques et des opportunités encore discutée : l’IA générative est en effet aussi source d’inquiétudes et de défis éthiques, techniques et socioéconomiques à la hauteur des espoirs qu’elle suscite. Elle peut contribuer à des usages abusifs, accidentels ou détournés (militaires notamment), à une suppression massive d’emplois, à une manipulation de la population via la création de fausses nouvelles, de deepfakes [3] ou de nudges numériques [4]. L’IA générative questionne aussi philosophiquement la nature de la conscience, de la créativité, de la paternité [5], et crée de nouvelles interactions homme-machine. Elle est encore (en 2024) peu régulée et la difficulté d’évaluer la qualité et la fiabilité des contenus générés ou l’impact sur la créativité et la propriété intellectuelle humaines est croissante. Certains experts craignent que des IA génératives à venir soient capables de manipuler les humains, d’accéder à des systèmes d’armes, d’exploiter des failles de cybersécurité, voire peut-être bientôt d’acquérir une forme de conscience ou de devenir incontrôlable au point de menacer l’existence de l’humanité[ 6]->https://fr.wikipedia.org/wiki/Intelligence_artificielle_g%C3%A9n%C3%A9rative#cite_note-ExistentialRisk2023-6]. Un premier sommet mondial en sûreté de l’IA a été organisé en novembre 2023 à Bletchey Park au Royaume-Uni, où la création d’un équivalent du GIEC pour informer sur les risques liés à l’IA a notamment été discutée [7].// - Source
La désinformation est un ensemble de pratiques et techniques de communication visant à influencer l’opinion publique en diffusant volontairement des informations fausses, faussées ou biaisées [1],[2]. Le terme est à distinguer de la mésinformation, qui consiste à diffuser une information fausse de manière involontaire. La désinformation est proche de diverses notions comme la propagande, le complotisme, la rumeur, ou l’infox (fake news)… - Source : https://fr.wikipedia.org/wiki/D%C3%A9sinformation
La diffamation est un concept juridique désignant le fait de tenir des propos portant atteinte à l’honneur d’une personne physique ou morale. Dans certains pays [2], il ne peut y avoir de diffamation que si l’accusation s’appuie sur des contrevérités (ce n’est pas le cas en France, bien que l’exception de vérité puisse être utilisée comme un moyen de défense). Ce type d’infraction existe depuis le droit romain. Le délit de diffamation peut être rapproché du droit à la vie privée, qui est équilibré avec le respect du droit à la liberté d’expression. Les gouvernements qui abusent des procédures de diffamation sont accusés de manier celle-ci comme moyen de censure… - Source : Wikipédia
Infox - Les infox, fausses nouvelles, fausses informations, informations fallacieuses, canards — en anglais : fake news —, sont des nouvelles mensongères diffusées dans le but de manipuler ou de tromper le public. Elles contribuent parfois à alimenter et entretenir le harcèlement et la haine en ligne… - Source : Wikipédia
Rétrospective - Comment traduire fake news en français ? - On pourra également recourir aux termes : « nouvelle fausse », « fausse nouvelle », « information fausse » ou « fausse information » en fonction du contexte. Ils figurent déjà dans la loi de 1881 sur la liberté de la presse ainsi que dans le code électoral, le code pénal et le code monétaire et financier. 16 avril 2019
Comment dit-on « fake news » en français ? - 16/04/2019
[Illustration 1] {{}}© Crédits : © Ministère de la Culture
La Commission d’enrichissement de la langue française nous invite à utiliser dorénavant le néologisme « infox » pour remplacer l’expression anglo-saxonne fake news. Désignant une information mensongère ou délibérément biaisée, répandue par exemple pour favoriser un parti politique au détriment d’un autre, pour entacher la réputation d’une personnalité ou d’une entreprise, ou encore pour contredire une vérité scientifique établie, et contribuant ainsi à la désinformation du public, l’expression anglo-saxonne fake news est entrée dans le langage courant français. Pour la remplacer, la Commission d’enrichissement de la langue française recommande désormais de recourir au terme « information fallacieuse » ou au néologisme « infox » forgé à partir des mots « information » et « intoxication ». On pourra également recourir aux termes : « nouvelle fausse », « fausse nouvelle », « information fausse » ou « fausse information » en fonction du contexte. Ils figurent déjà dans la loi de 1881 sur la liberté de la presse ainsi que dans le code électoral, le code pénal et le code monétaire et financier. Ces mots ne sont d’usage obligatoire que dans les administrations et les établissements de l’État mais ils peuvent servir de référence, en particulier pour les traducteurs et les rédacteurs techniques. À savoir : « Infox » avait été suggéré dans la boîte à idées de FranceTerme . Il a été préféré aux traductions alternatives comme : « craque », « fallace », « infaux », « infausse », « intox ». Texte de référence – Source : https://www.pyrenees-atlantiques.gouv.fr/Actualites/Comment-dit-on-fake-news-en-francais
Wikipédia est-il fiable ? - Les chercheurs et les universitaires affirment que, même si Wikipédia ne peut être utilisée comme source 100 % fiable pour les travaux finaux , elle constitue un point de départ précieux pour la recherche, pouvant mener à de nombreuses possibilités si elle est abordée de manière critique.
Ecoute suggérée durée 19:34 : Comment Wikipédia résiste aux ‘fake news ?’ - YouTube · Cyrus North
Avril 2025 #ecosia #plantTrees #climateaction
Merci à Ecosia de sponsoriser cette vidéo ! Pour télécharger Ecosia sur votre ordinateur ou smartphone c’est ici : https://ecosia.co/cyrusnorth J’espère sincèrement que la vidéo vous plaira #ecosia #plantTrees #climateaction - Chargé de production : Gwen Chareyron Co-Auteur : Berat Dincer Montage : Thomas Bernillon Miniatures : NosaJPSD - Sources : à consulter par ici : https://www.youtube.com/watch?app=desktop&v=K53BoEfUJuU
Cyberharcèlement (harcèlement sur internet) - Vérifié le 31 octobre 2025 - Service Public / Direction de l’information légale et administrative (Premier ministre)
Le cyberharcèlement s’effectue par internet (sur un réseau social, un forum, un jeu vidéo multijoueurs, un blog, etc.). Par exemple, il y a cyberharcèlement si un élève transmet des images obscènes sur la messagerie privée de l’un de ses camarades de classe. La victime ou le témoin de tels agissements peuvent signaler les faits à la police ou à la gendarmerie et demander la suppression des contenus illicites. La victime a également la possibilité de déposer plainte contre l’auteur du cyberharcèlement et/ou contre l’hébergeur internet. Voici les étapes à suivre. La démarche par étapes : lire à la source ci-après - Qui peut m’aider ?
Que faire en cas de harcèlement ?
Comment alerter la police ou la gendarmerie en cas d’urgence ?
Source : https://www.service-public.gouv.fr/particuliers/vosdroits/F32239
Lectures possibles :
Face au piège des fausses infos, notre kit de survie en sept conseils - Par Richard Sénéjoux- Réservé aux abonnés - Publié le 10 février 2026 à 12h00 – Document ‘telerama.fr’
ChatGPT, Gemini, Grok (l’IA de X), Mistral et autres Perplexity propageraient de plus en plus de fake news : 35 % en août 2025, contre moitié moins en 2024. Prudence de mise… encore et toujours.
Dur de s’y retrouver quand les IA et les réseaux sociaux colportent de plus en plus de fake news. Quelques conseils et rappels des réflexes à adopter pour cultiver son esprit critique et préserver son libre arbitre.
Un Français qui, dans une vidéo TikTok, dit être convoqué pour aller combattre en Ukraine. La rumeur de camionnettes blanches qui enlèveraient des enfants un peu partout dans le pays. Manipulation d’images, utilisation de faux comptes, déclarations tronquées, faux sites Web… Les fausses informations pullulent, notamment sur les réseaux sociaux. Leur but ? Tromper ou influencer l’opinion publique, discréditer une personne ou une organisation, stigmatiser une population… Avec, parfois, des conséquences dramatiques, à l’image de l’assassinat de Samuel Paty, parti d’un mensonge d’une jeune fille relayé par son père sur les réseaux sociaux. On vous donne quelques conseils… - Source : https://www.telerama.fr/debats-reportages/face-au-piege-des-fausses-infos-notre-kit-de-survie-en-sept-conseils-7029654.php
Livre - Survivre à la désinformation : Entretiens avec Nicolas Gauthier Broché – Grand livre, 4 juin 2021 - De Alain de Benoist (Auteur), Gabrielle Cluzel (Préface)
Trop d’information tue l’information. C’est la règle des systèmes saturés : ils deviennent de plus en plus illisibles. Ainsi de l’inflation d’« informations ». Celles-ci ne reposent plus alors que sur la vitesse et l’oubli, l’une étant la condition de l’autre. Comment faire le tri, comment démêler le vrai du faux, comment isoler le pertinent de l’insignifiant ? En un mot, comment s’informer ? C’est la gageure d’Alain de Benoist dans ces pages : voir en quoi et de quelle manière l’actualité fait sens, au-delà de son obsolescence programmée. Soutenue par une analyse fine et solidement argumentée, ce recueil d’entretiens passe au crible les événements majeurs ou mineurs, mais toujours significatifs, de notre temps. Un guide à l’usage de ceux qui souhaitent entreprendre une cure de ‘réinformation’ – et d’intelligence…. – Source : https://www.amazon.fr/Survivre-d%C3%A9sinformation-Entretiens-Nicolas-Gauthier/dp/2491446529
Suivre les actualités de Radio France > Toute l’actualité sur ‘Fake news’ – Infox – Désinformation sur Radio France. Podcasts à écouter gratuitement en ligne et depuis ce site : https://www.radiofrance.fr/sujets/fake-news-infox
Ce dossier relate quelques constatations et mesures à prendre vis-à-vis des risques liés aux mésusages de l’IA générative. Les articles sélectionnés pour ce dossier sont mentionnés avec leurs accès dans le sommaire ci-après
Retour au début de l’introduction
- [Récap] - Nous avons découvert des milliers de désinformation : tous nos articles - « Mais tu écris n’importe quoi, en fait » ... - Jean-Marc Manach - Le 08 mars 2025 à 08h29 - Modifié le 08/03/2025 à 10h43 – Publication ‘next.ink’
- En France, des milliers de sites générés par IA parasitent l’information - Samedi 8 février 2025 – Document ‘radiofrance.fr/franceculture’
- Diffamation, fake news : quand la rumeur s’invite sur le chemin des urnes - Sophie Hélouard - Publié le 04/12/2025 – Publication ‘courrierdesmaires.fr’
- Municipales 2026 : ‘Reporters sans frontières’ identifie 85 faux sites francophones qui imitent la presse locale pour détourner l’actualité française - Lundi 24 novembre 2025 – De ‘radiofrance.fr/franceinfo’ - Provenant du podcast Le vrai ou faux
- Réseaux sociaux : qui diffuse les ‘fake news ?’ - Jeudi 22 janvier 2026 - radiofrance.fr/franceculture - Provenant du podcast Les Chantiers de la recherche
- Tribune - Sommet de l’IA : face aux risques, remettre la sécurité en haut de l’agenda international - Publié le 16 février 2026 à 10h00, mis à jour le 16 février 2026 à 15h16 - Document ‘nouvelobs.com/opinions’
- Pourquoi croyons-nous aux ‘fake news’ ?☆ Catherine Beauvais 1 - Article scientifique : Rev Rhum Ed Fr - . 2022 Sep 21 ;89(6):555–561. [Article in French] doi : 10.1016/j.rhum.2022.09.013
- Décryptage - Fake news, post-vérité, surveillance généralisée, détestation de l’étranger… George Orwell avait raison, Big Brother est parmi nous - Publié le 20 février 2026 - Publication ‘humanite.fr’
Retour au début du sommaire
Retour au début de l’introduction
§§§
[Récap] - Nous avons découvert des milliers de désinformation : tous nos articles - « Mais tu écris n’importe quoi, en fait » ... - Jean-Marc Manach- Le 08 mars 2025 à 08h29 - Modifié le 08/03/2025 à 10h43 – Publication ‘next.ink’
Entamée début 2024, notre enquête sur les « sites d’information » générés par IA (mais qui ne le précisent pas), nous avait permis d’en identifier 250 en octobre 2024, 500 à Noël, 1 000 fin janvier 2025, près de 3 000 début mars, 6 000 en août, 9 000 en décembre…
Next a découvert que des milliers de soi-disant sites d’information polluent le moteur de recherche Google, ainsi que Google Actualités/News et son algorithme de recommandation Discover, alors que leurs soi-disant « articles » :
- sont (en tout ou partie) générés par IA (mais sans le préciser),
- prétendent (à tort) émaner de « journalistes », de « médias » et/ou d’experts/professionnels/passionnés,
- ne sont pas vérifiés ni relus avant publication (contrairement au b.a.-ba de n’importe quel métier),
- relaient donc potentiellement des « hallucinations/confabulations »,
- ne respectent pas les chartes d’éthique professionnelle des journalistes,
- volent des revenus publicitaires qui auraient dû aller à des médias/journalistes/professionnels censés respecter lesdites chartes déontologiques,
- contribuent au confusionnisme informationnel voire à la désinformation,
- relèvent donc d’une « pollution » numérique et médiatique.
Ces articles et sites GenAI contribuent en outre à l’objectif politique de l’ex-conseiller de Donald Trump Steve Bannon, pour qui « La véritable opposition, ce sont les médias », ce pourquoi il proposa que « la façon de les traiter est d’inonder la zone avec de la merde », comme l’avait souligné Alexandre Laurent dans l’édito qu’il avait consacré à cette « arme de désinformation massive ».
- [Édito] GenAI, arme de désinformation massive
De plus en plus de médias et rédactions recourent eux aussi à la GenAI{{}}
Nous avons d’ailleurs pu constater que plusieurs des professionnels du référencement – SEO – et du marketing numérique ayant lancé de tels sites générés par IA semblent être fans de Javier Milei, Elon Musk & Donald Trump, entre autres promoteurs politiques de la désinformation, du complotisme et du confusionnisme, et ennemis déclarés du « journalisme ».
Au-delà de ces soi-disant sites d’informations n’émanant pas de journalistes, nous avons également découvert (et documenté) que de plus en plus de véritables sites d’information, émanant de passionnés, experts, professionnels et même de rédactions employant des rédacteurs SEO et/ou journalistes, ont eux aussi recours à la GenAI afin de « doper » leurs rédacteurs, et leur permettre de publier un grand nombre d’articles qu’ils ne sauraient pouvoir publier sans recourir à l’IA générative, mais là encore sans le mentionner.
À l’instar du dopage, cette hyperproductivité nuit à la crédibilité du journalisme, non seulement parce qu’elle fausse les statistiques, en surreprésentant les médias dopés par rapport à ceux qui ne le sont pas, mais également parce qu’ils privent les médias qui ne trichent pas des visiteurs uniques et pages vues leur permettant d’une part d’engranger des revenus publicitaires, d’autre part d’être proprement référencés dans les moteurs de recherche.
Nos constats montrent en outre que si les médias dopant leurs rédacteurs et journalistes grâce à la GenAI avancent que leurs contenus sont vérifiés et validés avant d’être publiés, tel n’est souvent pas le cas, au point, pour certains, de publier des articles relayant de fausses informations « hallucinées » (ou « confabulées ») par les IA, et donc de nuire, là encore, à la crédibilité du journalisme et des médias en général, et des journalistes qui ne trichent pas en particulier.
Nous avons donc développé une extension web (gratuite) pour les navigateurs basés sur Chromium (Chrome, Brave, Edge, Vivaldi, etc.) et Firefox (y compris Android) afin d’alerter leurs utilisateurs lorsqu’ils visitent un site dont nous avons identifié que les articles « semblent avoir été (en tout ou partie) générés par IA (GenAI) », qu’ils soient « full GenAI » ou bien « dopés à l’IA », mais sans le préciser, contrairement à ce que prévoit l’AI Act, qui obligera à labelliser les contenus GenAI comme tels à partir d’août 2026.
https://next.ink/wp-content/uploads/2025/10/Extension_GenAI.png
Au commencement était la GenAI (la liste de nos enquêtes){{}}
Notre enquête avait débuté suite au lancement de ChatGPT, fin novembre 2022, et de ses avatars, après avoir publié deux modes d’emploi expliquant comment tenter d’identifier les textes et images émanant d’intelligences artificielles génératives. Ce qui nous avait permis de commencer à identifier ces sites d’infos et articles GenAI.
- Comment tenter d’identifier les textes émanant d’intelligences artificielles génératives ?
- Comment tenter d’identifier les images générées par des intelligences artificielles ?
Mais vu l’ampleur du problème, à mesure que nous en avions identifié plusieurs dizaines au printemps 2024, puis plusieurs centaines fin 2024, nous avions donc proposé au service de fact-checking CheckNews de Libération, à Arrêt sur images ainsi qu’à des fact-checkeurs de Wikipédia, de nous aider à enquêter sur cette « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés, afin de capitaliser sur leur réputation (ranking) dans l’algorithme de Google, et autres moteurs de recherche.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui éditent et administrent ces sites, certains en gèrent plusieurs dizaines, centaines et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
- [Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google)
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
- Comment reconnaître les sites (d’infos) générés par des IA ?
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
- Arnaques et GenAI : notre extension intègre les listes Red Flag Domains et AMF
- Extension Next : des alertes sur 8 500 sites GenAI et contre les attaques par homographes
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à.... plagier deux des articles mentionnant la plainte le concernant.
- 40 médias demandent le blocage de News.dayFR, le site GenAI qui plagie 6 000 articles/jour
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
- Même connectées aux articles de la BBC, les IA se trompent plus de la moitié du temps
Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.
- Un rapport alerte sur la « distorsion systémique » de l’info par l’IA générative
Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.
- Pourquoi les chatbots d’IA générative répètent deux fois plus d’infox que l’an passé
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
- Google Actualités est truffé d’articles plagiés par des IA
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
- Le directeur pédagogique d’une école de journalisme génère ses articles par IA
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »... qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
- Cette « rumeur » relayée par de nombreux médias émanait de sites générés par IA
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
- La presse régionale est, elle aussi, cannibalisée par des sites d’infos générés par IA
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
- Plus de 50 % des longs billets publiés sur LinkedIn en anglais seraient générés par des IA
Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.
- LIDD : un podcast sur notre enquête-fleuve GenAI et le modèle éco de Next.ink
Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle » qui sanctionnera les contenus ne précisant pas qu’ils sont générés par IA. Il s’agit des adaptations au droit espagnol du règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024
- Deepfakes : l’Espagne sanctionnera les contenus ne précisant pas qu’ils sont générés par IA
Quatre agences chinoises ont annoncé une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA via des identifiants explicites et implicites (méta-données et/ou filigranes).
- La Chine va obliger les fournisseurs de contenus générés par IA à les étiqueter comme tels
Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI.
- Faux positifs : comment reconnaître les contenus identifiés, à tort, comme générés par IA
Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.
- Sites d’info générés par IA : Google ne respecte pas ses propres règles
Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.
- Le nombre de titres générés par IA proposé à Deezer a doublé en trois mois
L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.
- Google pénalise les publicités générées par IA (mais pas les médias générés par IA)
Saisie par une quarantaine de médias, qui se plaignaient du fait que ce site plagiait jusqu’à 6 000 de leurs articles… par jour, la Justice ordonne aux quatre principaux FAI le blocage du plagieur en série, d’ici 15 jours, pendant 18 mois.
- La Justice ordonne le blocage de News.dayFR.com, le plagieur de médias généré par IA
Google représente 61% des sources de trafic des sites de presse. Pour la deuxième année consécutive, le trafic en provenance de son algorithme de recommandation de contenus Discover explose de + 50%, représentant 68% du trafic émanant des services de Google. Un renversement de tendance qui attire de plus en plus de professionnels du marketing numérique cherchant à profiter de cette « pompe à fric » : 14 % du Top 50 des sites mis en avant sur Discover sont désormais générés par IA.
- Google Discover est devenu la principale source de trafic pour la presse française
7 des 50 principaux sites d’information en français mis en avant par l’algorithme Discover de recommandation de contenus de Google sont générés par IA. Plus de 75 sites « générés par IA » (au moins) ont été « recommandés » par Discover ces derniers mois, et 15 y ont même figuré dans son Top50, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite). Plusieurs éditeurs de sites GenAI comparent Discover à TikTok et le qualifient de « réseau social de Google », voire à « une drogue » susceptible de « générer une dépendance », au vu des milliers d’euros de chiffre d’affaires engrangés, par jour. Deux d’entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement.
- Sites d’infos générés par IA : « Notre job, c’est gruger Google » pour faire du fric
Des dizaines de médias britanniques ont publié des articles reposant sur des témoignages d’ « experts » qui n’existent pas. Créés pour améliorer le référencement naturel des sites web dont ils se réclament par des pros du SEO et/ou du marketing numérique, leurs « expertises », promues par des agences de mises en relation avec des journalistes, ont été grandement facilitées par les intelligences artificielles génératives.
- Des journalistes, manipulés par de « faux experts » boostés à l’IA, pour tromper Google
À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.
- Éditeur de sites générés par IA, il spamme tellement Google que ses confrères se plaignent
L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.
- 18% des médias et 33% des sites tech les plus recommandés par Google sont générés par IA
Cet été, un éditeur de sites d’infos générées par IA a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de javel ou recongelés. Ses articles n’en ont pas moins été recommandés par l’algorithme Discover de Google.
- Pain cancérigène, poissons recongelés : Google recommande aussi des infox GenAI diffamantes
Confrontée à une déferlante de fausses informations cet été, la retraite complémentaire a publié à la rentrée un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Et sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.
- Retraites Agirc-Arrco : 88 % des articles recommandés par Google sont générés par IA
Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.
- Des articles générés par IA sont hébergés chez Ouest-France et 20Minutes
Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.
- Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA
En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».
- Reworld Media hallucine et publie n’importe quoi, mais ce n’est pas à cause de l’IA (1/2)
Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures.
- Ada d’Universcience : l’IA pour enseignants avec des images GenAI absurdes sur l’évolution
Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à... faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des... bras cassés coupés.
- Reworld Media hallucine et publie n’importe quoi, mais ce n’est pas à cause de l’IA (2/2)
Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.
- Les IA de Politico ont violé les règles d’éthique éditoriale journalistique de Politico
14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.
- Un quart des Français visitent les sites d’infos générées par IA recommandés par Google
Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité.
- Plus de 20 % des contenus recommandés par YouTube sont générés par IA
Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.
- Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA
Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.
- Le ministère de la Culture relaie une « hallucination » générée par IA
Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes pour... induire les préfectures en erreur.
- Paris Normandie publie des articles générés par IA pour induire les préfectures en erreur
L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.
- Du porno à sa « crèche » pour bébés reborn : Thérèse joue avec les médias depuis 25 ans
[à suivre...]
Cet article est en accès libre, mais il est le fruit du travail d’une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant. Accédez en illimité aux articles - Profitez d’un média expert et unique - Intégrez la communauté et prenez part aux débats - Partagez des articles premium à vos contacts - Abonnez-vous
votre avatargg40Premium
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés par des professionnels du référencement..
Extrait de cette source : https://next.ink/173214/recap-nous-avons-decouvert-des-milliers-de-sites-dinfo-generes-par-ia-tous-nos-articles/
En France, des milliers de sites générés par IA parasitent l’information - Samedi 8 février 2025 – Document ‘radiofrance.fr/franceculture’
Récits d’enquête
Provenant du podcast Récits d’enquête
Une enquête cosignée par le journal Libération avec le média en ligne NEXT, révèle qu’il y a en France, au moins 1.000 sites web d’informations générés par IA. Depuis, Libération et une quarantaine de titres de presse engagent des poursuites contre un site d’information généré par l’IA. {{}}
1000 sites web d’information en Français identifiés comme étant générés par Intelligence Artificielle
On savait qu’avec la banalisation des générateurs de langage comme ‘Chat Gpt’, l’un des risques était de voir apparaître des sites d’informations sans rédacteurs. Mais l’enquête de ce matin dépasse les estimations les plus pessimistes en la matière. 1000 sites web d’information en Français identifiés comme étant générés par Intelligence Artificielle. Le chiffre donne le tournis et les proportions sont telles que Next, média spécialisé dans le numérique, a dû demander au service des fact-checkeurs de Libé de l’épauler.
C’est le journaliste d’investigation Jean-Marc Manach de Next, qui a été le moteur de cette enquête, c’est lui qui nous raconte comment il s’est progressivement rendu compte que l’internet que nous utilisons tous les jours baignait déjà au milieu d’une myriade de vrai-faux sites d’informations… Les dessous de l’enquête à écouter !
Les liens de l’enquête de NEXT :
Plus de 1000 médias français générés par IA, polluent le web (et Google)
Une extension Chrome et Firefox pour être alerté sur des sites GenAI
Société Tech – Web IA — Intelligence artificielle
L’équipe
Portrait de Mattéo Caranta
Mattéo Caranta Journaliste, producteur
Voir aussi > Intelligence artificielle : Emmanuel Macron est en Inde pour le sommet sur l’IA et pour promouvoir les acteurs français - Les documents franceinfo
Diffamation, fake news : quand la rumeur s’invite sur le chemin des urnes - Sophie Hélouard - Publié le 04/12/2025 – Publication ‘courrierdesmaires.fr’
Municipales 2026 : l’art de mener campagne 27 / 41
Diffamation, fake news : quand la rumeur s’invite sur le chemin des urnes
Trois jours avant le second tour des municipales 2020, un article du « Parisien » révèle que la maire de Bondy, Sylvine Thomassin-Bonheur, fait l’objet d’une enquête pour prise illégale d’intérêts. Le texte, tronqué, est photocopié puis diffusé à des milliers d’exemplaires. © Adobe stock/ Montage E. Clément / Le Courrier
Fausses informations, montages mensongers, tracts diffamatoires : Internet a transformé les campagnes électorales en champs de bataille. La réputation des candidats, voire leur élection, se joue parfois à quelques clics.
Insultes, fake news, diffamation : à l’approche des élections municipales, les candidats au fauteuil de maire doivent affronter toutes sortes de ragots. Dans les années 2010, « la rumeur du 9-3 » prétendait que certaines communes toucheraient des subventions du conseil général de Seine-Saint-Denis pour accueillir des populations immigrées.
En juillet 2013, Alain Claeys, maire de Poitiers (Vienne), dépose plainte contre X pour diffamation, bientôt suivi par Geneviève Gaillard, maire de Niort (Deux-Sèvres) et Benoist Apparu, maire adjoint de Châlons-en-Champagne. Malgré les démentis, le bruit persiste et alimente les fantasmes. « Ce genre de ragots préélectoraux n’est pas une nouveauté, cela a toujours existé », constate l’universitaire Philippe Aldrin, auteur de « Sociologie politique des rumeurs ». Et d’ajouter : « Il existe une phase conservatoire de la rumeur : même lorsqu’elle disparaît de l’actualité, elle reste présente et continue …
Pour lire l’intégralité de cet article, abonnez-vous au Courrier des Maires - édition Abonné*
Municipales 2026 : ‘Reporters sans frontières’ identifie 85 faux sites francophones qui imitent la presse locale pour détourner l’actualité française - Lundi 24 novembre 2025 – De ‘radiofrance.fr/franceinfo’ - Provenant du podcast Le vrai ou faux
Le vrai ou faux
De faux sites francophones imitent la presse locale pour détourner l’actualité française. Photo d’illustration. - CAPTURE D’ECRAN
De faux sites francophones imitent la presse locale pour détourner l’actualité française. Photo d’illustration. - CAPTURE D’ECRAN
Leur production explose à l’approche des municipales françaises avec plus de 5 000 faux articles publiés ces quatre dernières semaines.{{}}
Reporters sans frontières a publié le 12 novembre un rapport sur une campagne de désinformation visant l’Internet francophone. Les équipes de RSF sont parties du travail initial de l’entreprise américaine de cybersécurité Recorded Future, dont le rapport de septembre 2025 révélait une galaxie de 141 faux sites liés au réseau d’influence russe CopyCop.
**À partir de cette base, RSF a trié, isolé et analysé les sites encore en activité. Verdict : 85 faux sites francophones actifs, 13 900 articles fabriqués depuis février 2025, dont 5 138 publiés au cours des quatre dernières semaines, soit presque 40% de leur production totale.
’Nous avons vérifié un à un les sites encore actifs, analysé leur production et leurs sources. Beaucoup s’appuient sur de vrais articles régionaux qu’ils détournent entièrement grâce à l’IA.’
RSF a utilisé ses propres outils de suivi des campagnes de désinformation, complétés par des techniques de comparaison textuelle, d’analyse d’images et de vérification d’historique de nom de domaine.
Des sites qui imitent la presse locale française pour mieux tromper{{}}
La majorité de ces faux sites reprennent l’apparence des médias régionaux : logos, rubriques, codes couleur, titres factices comme Sud-Ouest Direct, Actu Directe, LyonMag Info, ou encore de faux sites inspirés de La Dépêche, Le Progrès ou Ouest-France.
Selon RSF, le procédé repose sur un même schéma. Partir d’un fait divers réel, le plus souvent repéré dans la presse locale, réécrire le texte avec de l’IA, en l’exagérant ou en le transformant et souvent ils ajoutent une photo hors contexte, récupérée ailleurs, pour brouiller les repères.
Capture écran de faux sites qui imitent la presse locale française
Capture écran de faux sites qui imitent la presse locale française - CAPTURE ECRAN
Un exemple cité par RSF concerne la cyberattaque contre l’hôpital de Pontarlier, révélée par L’Est Républicain. Le faux site transforme cet incident en un récit plus anxiogène parlant d’’une maladie numérique qui s’abat sur un centre hospitalier’ dans la région.
’Ces sites brouillent volontairement les cartes : ils mélangent une info vraie et une interprétation mensongère, dans un style qui ressemble à celui d’un média local.’
Narratifs pro-Kremlin : Macron dénigré, Poutine glorifié{{}}
RSF observe aussi des schémas récurrents dans les contenus publiés par ces sites : critiques répétées envers Emmanuel Macron, description d’un Occident “en ruine”, articles valorisant la stratégie politique de Vladimir Poutine, et une multiplication de faits divers impliquant des étrangers, souvent exagérés ou inventés.
Vincent Berthier observe que ’le discours est cohérent et vise à déstabiliser l’image des institutions françaises et présenter la Russie comme un modèle d’ordre et d’efficacité’. Ces récits, combinés à un habillage visuel crédible, peuvent induire en erreur des internautes peu familiers des codes médiatiques, surtout lorsque l’apparence du site renvoie à un média local reconnu.
RSF note que les sites ont fortement augmenté leur cadence de publication depuis la mi-octobre. ’On observe une accélération claire. La production explose, et le ciblage de la France devient plus explicite à l’approche des municipales’ , confirme Vincent Berthier. La presse locale française est une cible stratégique. Selon le baromètre Kantar Media 2024, 67% des Français déclarent lui faire confiance, un niveau plus élevé que pour la presse nationale.
Un risque réel pour l’accès à une information fiable{{}}
Pour RSF, ces opérations comportent un risque démocratique majeur. ’Si ces contenus remontent dans les moteurs de recherche, sur les réseaux sociaux ou même dans des chatbots, ils peuvent brouiller le débat public et désorienter les électeurs’, alerte Vincent Berthier.
RSF appelle les grandes entreprises technologiques, Google, Meta, mais aussi OpenAI, à intégrer la norme Journalism Trust Initiative (JTI) dans leurs outils, afin de mettre en avant les sources journalistiques fiables. ’Tant qu’on ne valorise pas les sources crédibles, les outils numériques resteront impuissants face à ces manipulations’, estime RSF.
L’équipe
Armêl BalogogArmêl Balogog La cellule Vrai ou faux
Réseaux sociaux : qui diffuse les ‘fake news ?’ - Jeudi 22 janvier 2026 - radiofrance.fr/franceculture - Provenant du podcast Les Chantiers de la recherche
Les Chantiers de la recherche
Une proposition de loi arrive la semaine prochaine au Parlement et prévoit l’interdiction des réseaux sociaux au moins de 15 ans. Souvent pointés du doigt pour participer à la désinformation, notamment des plus jeunes, que dit la recherche à ce sujet ? {{}}
Avec Manon Berriche, chercheuse postdoctorale en sociologie au ‘médialab’ de Sciences Po
Qui sont ceux qui diffusent les fake news et qui sont les victimes de ce phénomène ? C’est l’objet des recherches de Marion Berriche, chercheuse postdoctorale en sociologie au ‘médialab’ de Sciences Po. Sa thèse vient d’être récompensée du prix de l’INA.
Les “fake news” comme problème public et objet scientifique{{}}
Pour Marion Berriche, travailler sur les fake news suppose d’abord de prendre de la distance avec les discours alarmistes qui saturent l’espace public. Elle explique que son point de départ a été méthodologique et réflexif : « la difficulté de travailler sur ce sujet, c’est que ce n’est pas seulement un objet de recherche mais aussi un sujet de préoccupation centrale dans le débat public ». Il s’agissait donc, avant toute enquête empirique, d’analyser la manière dont les fake news ont été construites comme un problème public, afin d’éviter de reprendre sans recul des catégories issues du champ politique.
Cette prudence est d’autant plus nécessaire que la notion même de fake news est instable. Marion Berriche rappelle que le terme a été fortement critiqué depuis son irruption dans le débat public en 2016, notamment parce qu’« il a été instrumentalisé par des personnalités politiques ». Les chercheurs lui préfèrent souvent des catégories plus précises : mésinformation, désinformation, malinformation, mais celles-ci posent un problème pratique : « quand on est chercheur, c’est assez compliqué de savoir quelle est l’intention du producteur derrière un contenu ». Dans sa thèse, elle s’appuie donc sur les contenus qualifiés de faux par les journalistes via le fact-checking, tout en intégrant aussi « les signalements des utilisateurs pour élargir un petit peu la palette ».
À écouter
La croyance aux fake news est-elle héréditaire ? L’Humeur du matin par Guillaume Erner 2 minutes
Qui diffuse les fausses informations et pourquoi ?{{}}
Les résultats empiriques de Marion Berriche viennent nuancer l’idée d’une diffusion massive et indistincte des fake news. À partir d’une enquête menée sur Twitter portant sur près de trois millions d’utilisateurs, elle montre que les diffuseurs réguliers de fausses informations sont très minoritaires : « on en a retrouvé 30 000, ce qui fait un peu moins de 1 % ». Ces utilisateurs se caractérisent néanmoins par des traits communs forts, notamment un positionnement politique situé aux extrêmes et une défiance marquée envers les institutions et les médias traditionnels.
Cette corrélation s’explique par la nature même des contenus diffusés. Selon la chercheuse, « les fake news qui sont identifiées sont plutôt de nature politique » et permettent à ces utilisateurs de mettre en circulation des thèmes qu’ils estiment absents ou marginalisés dans l’espace public. Les sujets récurrents évoluent selon les périodes : Covid, vaccins, immigration, rumeurs sur les dirigeants politiques, mais s’inscrivent dans une même logique de contestation. Au-delà de la politisation, Marion Berriche souligne un autre facteur décisif : « plus on a de responsabilités sociales, moins on va partager de fake news parce qu’il y a plus de coûts pour sa réputation ». En conclusion, elle évoque des pistes de lutte complémentaires au fact-checking, notamment les formes d’auto-régulation entre utilisateurs, même si celles-ci débouchent souvent sur « des dialogues de sourds ».
À écouter
Du faux médiéval aux fake news Esprit de justice 58 minutes
Sciences et Savoirs Sciences sociales Sciences Recherche — Découvertes scientifiques Actualités Idées
L’équipe :
Guillaume ErnerGuillaume Erner Docteur en sociologie et producteur des Matins de France Culture - Juliette Devaux Collaboration
Accueil France Culture Podcasts Les Chantiers de la recherche
Tribune - Sommet de l’IA : face aux risques, remettre la sécurité en haut de l’agenda international - Publié le 16 février 2026 à 10h00, mis à jour le 16 février 2026 à 15h16 - Document ‘nouvelobs.com/opinions’ Pause AI
Dans cette tribune, l’association Pause AI appelle à accentuer la réglementation du développement des intelligences artificielles. Un texte soutenu par de nombreuses personnalités académiques et politiques.
Ce lundi 16 février, et jusqu’au vendredi 20, l’Inde accueille à New Delhi le sommet international sur l’intelligence artificielle (IA). Le premier s’est tenu en 2023 à Bletchley, en Angleterre. Son objectif principal était de traiter les risques de sécurité posés par les systèmes d’IA les plus avancés et de convenir d’actions internationales coordonnées pour gérer ces risques. La déclaration de Bletchley (en anglais), signée par 28 pays, affirmait ainsi « la nécessité urgente de comprendre et de gérer collectivement les risques potentiels » posés par les systèmes d’IA avancés.
Deux ans plus tard, le Sommet pour l’action sur l’IA à Paris a marqué un recul notable. La sécurité a été reléguée au second plan par les intérêts économiques. Le professeur Max Tegmark du MIT [Massachusetts Institute of Technology] a déclaré qu’« on avait presque l’impression qu’ils essayaient de défaire Bletchley », qualifiant l’omission de la sécurité dans la déclaration de « porte ouverte au désastre ». La déclaration finale ne contenait aucun engagement substantiel sur la sécurité malgré la publication du rapport international sur la sécurité de l’IA 2025, une évaluation scientifique de référence – comparable au Giec pour le climat – rédigée par plus de 100 experts internationaux documentant les risques posés par l’IA.
Le Sommet de l’impact de l’IA en Inde ne semble pas prendre la sécurité suffisamment au sérieux. De « sécurité » à « action » puis à « impact », la trajectoire est claire et préoccupante. L’axe « IA sûre et de confiance » se concentre sur l’« accès » à des « capacités » de gouvernance, alors même que le programme reconnaît que les mécanismes existants sont déjà trop fragmentés. Plutôt que de proposer une coordination robuste et systématique, il critique les instruments de réglementation comme étant des « freins » à l’innovation. De plus, il met l’accent sur la disponibilité d’outils sans reconnaître que leur adoption est rendue extrêmement difficile par les dynamiques économiques liées à la course effrénée vers des systèmes toujours plus puissants.
Le temps pour agir est compté{{}}
Alors qu’il y a quelques années, l’intelligence artificielle générale (IAG), un système d’IA capable d’accomplir l’ensemble des tâches cognitives d’un humain adulte, semblait encore une perspective lointaine, les débats portent désormais sur le nombre d’années voire de mois qui nous séparent de ce seuil. Les IA devancent déjà les performances humaines dans de nombreux tests de capacité intellectuelle. En 2025, une IA a par exemple remporté la médaille d’or aux Olympiades internationales de mathématiques. De plus, là où l’intelligence humaine est limitée par la biologie, l’IA peut traiter l’information à une vitesse considérablement supérieure et se dupliquer, créant potentiellement des millions de copies à travers le monde.
Lire aussi :
Que l’IA surpasse toutes les capacités cognitives humaines d’ici trois, cinq ou dix ans, il reste que ce délai est terriblement court et que l’humanité n’y est absolument pas préparée. L’IAG menace ainsi l’humanité de dangers sans précédent : la course aux armements autonomes, la transformation radicale du travail, la dépendance psychique et cognitive et la possibilité d’une perte de contrôle irréversible sur notre propre destinée.
Les prévisions sur l’IAG ne doivent toutefois pas conduire à négliger que les IA actuelles ont déjà un potentiel de nuisance alarmant. Dès aujourd’hui, l’IA abaisse drastiquement le seuil de compétence nécessaire pour mener des cyberattaques sophistiquées ou concevoir de nouvelles armes biologiques.
Mettre en pause le développement de l’IA{{}}
Alors que le nucléaire, l’aéronautique, la pharmacie et d’une manière générale toutes les activités économiques sont strictement encadrées, l’IA se développe dans un vide juridique presque total. Face aux risques considérables que représente l’intelligence artificielle, la faiblesse de sa réglementation constitue une anomalie inadmissible.
L’IA doit être réglementée à la hauteur de ses enjeux et cela ne peut se faire qu’à l’échelle internationale. Nous, cosignataires de cette tribune, appelons les gouvernements réunis à New Delhi, et en particulier la France, à changer de cap avec la signature d’un moratoire visant la mise en pause des modèles d’IA les plus avancés tant que les garde-fous nécessaires ne seront pas mis en place.
Par garde-fous, nous entendons :
- un régime de responsabilité clair et contraignant,
- des audits indépendants et standardisés,
- des protocoles d’interventions d’urgence,
- une obligation d’enregistrement et de classification des risques,
- une obligation de financement de la recherche en sécurité,
- l’établissement de lignes rouges sur les usages de l’IA posant des risques inacceptables,
- l’instauration d’une agence internationale de sécurité de l’lA similaire à l’AIEA (l’Agence internationale de l’Energie atomique),
- ainsi que des mécanismes de contrôle démocratique.
Il s’agit également de permettre une véritable consultation démocratique sur l’IA. Les décisions sur les IA avancées ne sauraient être prises par une poignée de dirigeants d’entreprises et d’actionnaires. Ce sont des questions de sécurité publique, dont nous sommes tous parties prenantes. C’est pourquoi nous appelons également la société civile à se mobiliser, à interpeller ses représentants et à soutenir activement les organisations dédiées à la maîtrise des risques liés à l’IA.
Le sommet de New Delhi est un moment critique. Nous pouvons encore inverser la tendance et faire remonter la sécurité au premier rang de l’agenda international.
Tribune à l’initiative de l’association Pause AI – Signataires :{{}}
Colin De la Higuera, professeur et chaire Unesco Relia à l’université de Nantes ; Corentin Jorel, enseignant chercheur, Laboratoire Greyc, université de Caen ; Marius Bertolucci, enseignant-chercheur à l’université d’Aix-Marseille, auteur de « l’Homme diminué par l’IA » (Hermann, 2023) ; Peter Slattery, chercheur en sécurité de l’IA au laboratoire du MIT aux Etats-Unis ; Olle Häggström, professeur de statistiques mathématiques, université de technologie Chalmers, Suède ; Michael Noetel, docteur, professeur en psychologie à l’université de Queensland, Australie ; Dr. Véronique Donard, professeure et chercheuse en psychologie des machines intelligentes, université catholique de Pernambuco (Unicap), Brésil ; Patrick Albert, pionnier de l’intelligence artificielle, membre du bureau de Technologos ; Martin Gibert, philosophe, Centre de Recherche en Ethique ; Dr. Jérémy Perret, chercheur en sécurité de l’IA et conférencier ; Clément Dumas, chargé de recherche, normalien, MATS, ENS Paris-Saclay ; Eloïse Bénito, chercheuse indépendante en sécurité de l’IA ; Thomas Dossus, sénateur du Rhône, vice-président de la commission des Finances, groupe Ecologiste-Solidarité et Territoires ; Ghislaine Senée, sénatrice des Yvelines, groupe Ecologiste-Solidarité et Territoires ; René Pilato, député de Charente, groupe La France insoumise-NFP ; Max Andersson, ancien député européen de Suède et membre du groupe de travail sur la robotique et l’intelligence artificielle, Les Verts ; Daniel Kokotajlo, directeur exécutif de AI Futures Project ; Gaétan Marceau Caron, directeur principal, Mila, Institut québécois d’Intelligence artificielle ; Diego Hidalgo, essayiste et fondateur de Mouvement OFF ; Cédric Sauviat, président de l’Afcia (Association française contre l’Intelligence artificielle) ; Dr. Maxime Derian, cofondateur du think thank Technoréalisme, dirigeant de Heruka ; Paul Klotz, expert associé à la Fondation Jean-Jaurès ; Otto Barten, directeur de ERO (Existential Risk Observatory) ; Arnaud Megret, président d’Elokence ; Yanni Kyriacos, fondateur de Tara (Technical Alignment Research Accelerator) et Aisanz (AI Safety Australia & New Zealand) ; James Norris, fondateur et directeur exécutif au Center for Existential Safety ; Maxime Fournes, PDG de Pause AI Global ; Michael Kerrison, directeur exécutif de Aisanz ; Clémence Peyrot, directrice exécutive de Pause IA France ; Baptiste Detombe, essayiste et éthicien des nouvelles technologies ; Julien Gobin, philosophe et essayiste, enseignant à HEC Paris ; Sabine Van Haecke-Lepic, docteure en droit, avocate à la cour ; Theodore Brossollet, rédacteur en chef du média Penser c’est chouette ; Victor Fersing, journaliste, créateur du média La Fabrique sociale ; Vinz Kanté, fondateur du média LIMIT ; Shaïman Thürler, vulgarisateur scientifique sur les enjeux de l’IA et fondateur du média Le Futurologue ; Gaëtan Selle, réalisateur et cocréateur du média The Flares ; Gabriel Alfour ; Karl Glazebrook, professeur émérite d’astrophysique et membre lauréat, université de technologie de Swinburne (Melbourne, Australie), Académie des Sciences australienne ; Scott Alexander, blogueur sur la sécurité de l’IA ; tribune soutenue par les responsables des associations nationales de Pause AI dans 21 pays.
Cet article est une tribune, rédigée par un auteur extérieur au journal et dont le point de vue n’engage pas la rédaction. Par Pause AI
Dans la rubrique Intelligence artificielle
Le magazine numérique - S’abonner / se désabonner … Newsletters … Aide / Contact
© Le Nouvel Obs - 2024 Les marques ou contenus du site nouvelobs.com sont soumis à la protection de la propriété intellectuelle.
Pourquoi croyons-nous aux ‘fake news’ ?☆ Catherine Beauvais 1 - Article scientifique : Rev Rhum Ed Fr - . 2022 Sep 21 ;89(6):555–561. [Article in French] doi : 10.1016/j.rhum.2022.09.013
PMCID : PMC9558089 PMID : 36267475 – Document ‘pmc.ncbi.nlm.nih.gov’
See ’Fake news : Why do we believe it ?’ in Joint Bone Spine on page 105371.
Sommaire :
•Abstract Résumé
•1. Introduction
•2. Écosystème des médias et des plateformes de réseaux sociaux
•3. Facteurs cognitifs
•4. Littérature
•5. Déterminants psychologiques
•6. Différence entre partage et croyance aux fake news
•7. Facteurs sociologiques
•8. Implications pour la prévention
•9. Les fake news en rhumatologie
Déclaration de liens d’intérêts Footnotes •Références
Abstract - Résumé{{}}
Ces dernières années, les fake news ont connu une propagation exponentielle, en particulier depuis l’élection américaine de Donald Trump et la pandémie de la COVID-19. La recherche s’est intéressée à la création, à l’utilisation, au partage et à l’identification des fake news et cherche à mettre en œuvre des moyens visant à enrayer le flux de fausses informations et empêcher que l’on y croie. Cette mise à jour aborde une partie seulement de la problématique des fake news et met l’accent sur les déterminants qui favorisent la croyance aux fausses nouvelles ; à noter que la rhumatologie est peu représentée.
Certains facteurs sont directement liés à l’écosystème des médias et des réseaux sociaux comme la disponibilité et la propagation rapide des fake news, la non-sélection des informations relayées sur ces plateformes et le fait que les individus peuvent être à la fois consommateurs et créateurs de fake news. Les facteurs cognitifs occupent une place importante comme le biais de confirmation, l’appartenance politique, l’exposition répétée aux fausses nouvelles et le raisonnement intuitif. L’absence de connaissances scientifiques et un faible niveau d’études contribuent également à croire aux fake news.
Les facteurs psychologiques regroupent l’attrait de la nouveauté, l’état émotionnel des individus et le contenu émotionnel des fake news. Un niveau élevé de littéracie numérique réduit la vulnérabilité aux fake news. Des facteurs sociologiques, tels que les communautés en ligne (ou chambres d’écho) et le rôle des groupes de pression, ont été identifiés. Des implications pratiques peuvent être déduites pour limiter les fake news : l’éducation aux médias et l’utilisation de mises en garde contre les fake news, le journalisme fondé sur des données probantes et la vérification des faits, la régulation des réseaux sociaux, la collaboration des plateformes médiatiques avec des organismes de fact-checking, les messages d’alerte sur les réseaux et les solutions de détection digitale. Les professionnels de santé doivent mieux comprendre les facteurs qui alimentent la croyance aux fake news. L’identification de ces déterminants pourrait ainsi faciliter leur rôle de conseil auprès des patients concernant le phénomène de désinformation.
Mots clés : Fake news, Mésinformation, Réseaux sociaux, Biais cognitif
1. Introduction{{}}
Le phénomène des « fake news » n’est pas nouveau, mais connaît, depuis ces dernières années, une propagation exponentielle, en particulier dans le domaine politique avec un pic durant les élections présidentielles américaines [1]. Plus récemment, la diffusion massive de fake news, liée à la pandémie de la COVID-19, a été qualifiée « d’infodémie » par l’Organisation mondiale de la santé [2] qui a encouragé le développement d’organismes internationaux dédiés au fact-checking (vérification des faits) [3]. C’est dans ce contexte qu’a émergé l’« infodémiologie », terme qui désigne la science de la gestion des « infodémies ».
La recherche sur les fake news a connu une forte progression au cours de ces 5 dernières années (Encadré 1 ) [4], [5], [6], [7]. Cette mise à jour n’aborde qu’une partie de la problématique des fake news et met l’accent sur les raisons qui motivent la croyance aux fake news ; à noter que la rhumatologie est peu représentée.
Encadré 1. Principaux domaines de recherche sur les fake news[4–7].{{}}
Création des fake news.
Consommation et partage des fake news.
Détection.
Blocage et prévention.
Cette mise à jour aborde successivement les déterminants externes liés à l’écosystème médiatique et aux plateformes de médias sociaux (Encadré 2 ), puis les déterminants internes cognitifs et psychologiques et les facteurs sociologiques mixtes (Tableau 1 ). Ces facteurs à leur tour nourrissent l’écosystème des fake news, les individus pouvant passer du statut de consommateurs à celui de créateurs de fake news et réciproquement [4].
Encadré 2. Facteurs externes : écosystème médiatique et plateformes des réseaux sociaux.{{}}
Disponibilité des fausses informations qui suivent l’actualité.
- •
Rôle des plateformes de réseaux sociaux.
- •
Vulnérabilité des médias traditionnels et déclin des gatekeepers conventionnels.
- •
Information non sélectionnée.
- •
Individus créateurs et consommateurs de fake news.
- •
Propagation rapide des fausses informations.
- •
Concurrence entre vraies et fausses informations.
- •
Incertitude.
- •
Persistance des fausses informations sur les réseaux.
- •
Création des fausses informations.
Tableau 1.{{}}
Facteurs internes et mixtes de croyances aux fake news : cognitifs, psychologiques et sociologiques.
Caractéristiques individuelles |
Faible niveau d’études |
| Facteurs cognitifs | Biais de confirmation
Appartenance partisane, convictions politiques Exposition répétée et effet de la vérité illusoire Répétition et familiarité Type de raisonnement : pensée intuitive vs pensée analytique Manque d’esprit critique Peu de temps consacré aux nouvelles Manque d’intelligence cristallisée Être « au courant » Faible niveau d’études Faibles connaissances scientifiques Confiance dans les messages des « élites » |
| Littéracie | Faible littéracie numérique
Faible littéracie en santé |
| Facteurs psychologiques et de personnalité | Nouveauté
Contenu émotionnel Grande émotivité Forte stimulation émotionnelle Faible intelligence émotionnelle Impulsivité Attitude anti-science |
| Facteurs sociologiques interne et externes mixtes | Exposition sélective
Chambres d’écho Fabrication de fausses informations et groupes de pression Environnement stressant |
La définition des fake news évolue avec le temps [4] ; ce terme désigne notamment « une information fabriquée qui ressemble dans sa forme à celle diffusée par les médias traditionnels mais n’en respecte ni la précision ni la véracité » [8] dans le but de tromper le lecteur. La mésinformation est une information dont l’inexactitude n’est pas intentionnelle tandis que la désinformation recouvre les informations erronées créées et diffusées dans l’intention délibérée de tromper le public [9]. Certains individus qualifient également de « fake news » des informations qu’ils contestent, car ne s’accordant pas avec leurs idées [1]. Plusieurs termes sont associés aux fake news : hoax (canular), théories conspirationnistes, mythes, rumeurs ou propagande. Une rumeur est un phénomène social qui consiste à colporter une nouvelle par le « bouche à oreille » ou via les médias ou réseaux sociaux [1]. Il peut s’agir d’une information en circulation dont la véracité n’a pas été vérifié au moment de la publication, mais d’apparence crédible et qui produit suffisamment de scepticisme et/ou d’anxiété pour motiver la recherche de la vérité [10]. Sur les réseaux sociaux, une cascade de rumeur est définie par la propagation par des retweets ou nouveaux partages d’une information diffusée par un seul utilisateur [1].
2. Écosystème des médias et des plateformes de réseaux sociaux{{}}
2.1. La disponibilité des fake news suit l’actualité
Sur internet et les plateformes de réseaux sociaux, les utilisateurs sont exposés à une surabondance d’informations. Si les utilisateurs exposés aux fake news sont peu nombreux sur les principaux sites web (selon une enquête française [11], seuls 5 % des individus ont visité des sites non fiables), la mésinformation est majoritairement présente sur les réseaux sociaux [12], [13] et suit l’actualité [1]. Une analyse de l’évolution des fake news sur la COVID-19, vérifiée par le réseau international de fact-checking et les outils de fact-checking de Google [13], a révélé une augmentation de 900 % entre janvier et mars 2020. Les fake news ont été principalement identifiées sur les plateformes de médias sociaux (88 %), les autres sources étant moins impactées : 9 % à la télévision, 8 % dans la presse et 7 % sur les sites web.
Dans le contexte de la pandémie, l’intérêt des internautes pour les sources non fiables ou dites « complotistes » a eu tendance à augmenter par rapport à la période pré-COVID-19 [14]. Les chaînes d’information et les journaux de presse ont fortement influencé les utilisateurs en se faisant l’écho de fake news importantes sur la COVID-19, ce qui a engendré des pics d’intérêt de la part des internautes [15].
2.2. Information non sélectionnée{{}}
Sur les réseaux sociaux, les informations ne sont pas sélectionnées et diffusent à partir d’une grande pluralité de sources dont la fiabilité n’a pas de lien avec leur popularité. Les participants à ce « marché public de l’information », via un blog, un compte Facebook ou Instagram, ont modifié les hiérarchies jusque-là établies. Ainsi, certains « YouTubers » et influenceurs disposent d’un nombre important d’abonnés. Cette situation remet en question le rôle des « gatekeepers » traditionnels (individus ayant une expertise reconnue telle que les scientifiques ou les journalistes appartenant à des médias traditionnels et fiables). Les consommateurs affichent un intérêt croissant pour les médias interactifs, réduisant ainsi les frontières entre journalisme professionnel et journalisme amateur et entre consommateurs et créateurs d’information [4].
La surabondance d’informations provoque une exposition généralisée aux fausses rumeurs et augmente la susceptibilité aux rumeurs par un effet de familiarité (voir ci-dessous les facteurs cognitifs). Par ailleurs, une étude empirique menée au tout début de la pandémie de la COVID-19 auprès de 241 utilisateurs des réseaux sociaux en Allemagne a montré que la surcharge d’informations augmentait la diffusion des fake news en accroissant la pression psychologique sur les individus [16].
2.3. Propagation rapide des fausses informations{{}}
Une étude a analysé les informations vraies, fausses ou mixtes (partiellement vraies ou fausses) circulant sur Twitter [1] à partir de 126 000 cascades de rumeurs relayées par plus de 3 millions de personnes. Les assertions vraies ont été définies par le fait d’être confirmées avec un accord de 95 à 98 % par les organismes indépendantes de fact-checking. Les résultats étaient que les fausses nouvelles circulaient plus rapidement et à plus grande échelle que les vraies : les cascades de vraies informations étaient rarement diffusées auprès de plus d’un millier de personnes, tandis que les cascades d’informations erronées (correspondant à 1 % de l’ensemble des retweets) étaient couramment relayées auprès de 1000 à 100 000 personnes. Le pourcentage de « retweets » des informations fausses était supérieur de 70 % à celui des vraies. Une analyse complémentaire évaluant le rôle des algorithmes (bots) a montré que ces derniers participaient de manière équivalente à la propagation des vraies et fausses informations. Dans cette étude, la circulation des fausses nouvelles serait, avant tout, favorisée par l’attrait des utilisateurs pour la nouveauté et pour les informations à fort contenu émotionnel. Cependant, d’autres études ont montré que les algorithmes sur les réseaux sociaux contribuent à la création et la dissémination des fake news. En effet, la recherche d’information en ligne est gérée par des algorithmes qui proposent à l’utilisateur un contenu ciblé et personnalisé en lien avec les choix déjà effectués par l’internaute. Ainsi, ce phénomène peut être utilisé de façon inverse et s’avérer utile pour différencier les informations crédibles de celles qui ne le sont pas en utilisant des algorithmes qui repèrent les signaux émotionnels dans le contenu textuel des publications sur les réseaux sociaux [17].
2.4. Incertitude et persistance des fake news
L’incertitude est l’élément clé des fake news, car leur véracité douteuse génère une anxiété ou suscite un fort intérêt [10], et certaines d’entre elles ne seront jamais élucidées. Le suivi d’un ensemble de 330 rumeurs (4842 tweets) avant et après que la question de leur véracité a été résolue, a montré que les rumeurs dont la véracité était finalement prouvée avaient tendance à se dissiper plus rapidement que celles qui s’avéraient fausses [10]. Les tweets soutenant des rumeurs non vérifiées (qu’elles soient vraies ou fausses) circulaient plus largement que ceux qui les réfutaient. Par ailleurs, une fois la véracité de la rumeur élucidée, le nombre de retweet chutait et les utilisateurs ne faisaient plus le même effort pour diffuser le démenti des fausses rumeurs afin d’en informer les autres internautes.
Outre la persistance de tout type d’information sur internet, la faible visibilité des démentis et l’existence de fortes croyances pourraient expliquer pourquoi les informations fausses ou non vérifiées perdurent dans le temps. Ce phénomène de concurrence entre informations vraies et fausses (par exemple, entre les sites mentionnés sur la première page du moteur de recherche Google) est décrit depuis longtemps [18].
3. Facteurs cognitifs{{}}
3.1. Biais de confirmation et appartenance partisane{{}}
Parmi les facteurs cognitifs, le biais de confirmation est un déterminant majeur conduisant les individus à rechercher ou interpréter des preuves qui s’accordent à leurs croyances, leurs attentes ou leurs hypothèses préexistantes [19]. Dans le domaine politique, ce biais peut expliquer pourquoi les individus montrent moins de discernement vis à vis des fake news issues de leur propre camp politique : l’appartenance politique influence l’opinion des individus quant à quelles sources d’information sont à considérer comme fausses [20]. Une étude expérimentale [21] a évalué les croyances aux fake news après l’élection présidentielle américaine de 2020 : des convictions partisanes plus conservatrices, le soutien au président sortant, l’adhésion à des contenus conspirationnistes et le manque de réflexion cognitive étaient associés à une plus forte vulnérabilité à la désinformation sur la supposée fraude électorale. D’après Pennycook et al. [22], le type de raisonnement, tel que la pensée intuitive, a un effet plus marqué sur la sensibilité aux fausses nouvelles que les convictions politiques, mais le partage des fake news, y compris celles qui n’ont aucun caractère politique, reste largement sous l’influence de la sensibilité politique [23]. Il ressort d’une enquête réalisée en France du 24 au 26 mars 2020 que les sympathisants des partis extrêmes (droite ou gauche) approuvent davantage l’opinion selon laquelle le virus de la COVID-19 a été conçu en laboratoire que ceux des partis centristes [24]. Cette étude confirme l’idée selon laquelle toute information qui fait débat, comme l’origine indéterminée de la COVID-19 [25], favorise l’apparition de fake news. Le biais de confirmation a également motivé la création de communautés en ligne connues sous le nom de chambres d’écho (voir ci-dessous les facteurs sociologiques).
3.2. Exposition répétée et effet de la vérité illusoire{{}}
L’effet de la vérité illusoire est la tendance à croire en la véracité d’une information après une exposition répétée à cette information, et cet effet est plus particulièrement marqué dans le cas de fausses informations [26]. La répétition augmente la fluidité du processus cognitif qui, à son tour, incite à croire en l’exactitude de l’information. Dans une étude expérimentale [26], lorsque les participants étaient exposés à des messages d’avertissement, l’effet de répétition était atténué. De la même manière, au cours d’une autre étude expérimentale, l’effet de répétition était présent chez les individus qui avait initialement manifesté de l’intérêt pour l’élément d’information qui leur était présenté, mais pas chez ceux s’étaient initialement intéressés à la véracité de l’information, constat qui peut offrir des pistes pour aider à réduire l’effet de familiarité [27]. À noter, toutefois, que les messages d’avertissements ne semblaient pas efficaces dans la durée et n’empêchaient pas de croire aux fausses informations après une nouvelle exposition lorsque celle-ci n’était pas précédée d’une mise en garde [28]. Par ailleurs, l’effet de l’exposition répétée semble être augmenté lorsque les individus ont confiance dans des sources qu’ils considèrent fiables telles qu’émanant d’autorités scientifiques [29], [30] ; c’est pourquoi il est primordial que ces dernières garantissent la véracité des données qu’elles partagent.
3.3. Type de raisonnement{{}}
Dans les études expérimentales, les individus, qui font appel à un raisonnement analytique par opposition à ceux qui s’appuient sur la pensée intuitive, sont moins sensibles aux titres ou au contenu d’articles de journaux colportant des fake news [31], [32]. Le développement d’un esprit critique représente un rempart aux fake news [33], tout comme l’intelligence cristallisée qui englobe les connaissances lexicales et les connaissances générales et culturelles [34]. La réflexion réduit la croyance aux fake news [35], mais la pensée analytique est rarement sollicitée en raison du temps relativement court que les personnes consacrent à la lecture des nouvelles [11].
3.4. Être « au courant »{{}}
Une étude expérimentale [36] a recruté 104 participants exposés à six assertions, 3 fausses et 3 vraies, dont deux en lien avec la santé, qui reprenaient le style du format de publication Facebook. L’analyse qualitative a identifié quatre thèmes principaux permettant d’expliquer les réponses apportées par les participants. Deux ont déjà été mentionnés : les fausses informations s’accordent aux expériences personnelles et aux croyances préconçues des participants. Deux autres facteurs ont été détectés : les individus avaient le sentiment d’être au courant d’un « problème caché » (« un problème horrible, content qu’il ait été signalé ») et ont été induits en erreur par la présentation des fausses informations imitant l’aspect visuel, les données/graphiques d’une information authentique (« bon argument, il utilise un graphique et des données tirés d’une source »). La détection des fausses informations était corrélée à un niveau d’éducation plus élevé et à une intelligence émotionnelle plus marquée, définie par la capacité d’un individu à comprendre et à réguler ses réactions émotionnelles et relier correctement ses émotions au contexte [37].
3.5. Croyance aux messages des « élites »{{}}
Les individus ont tendance à croire les personnalités présentes dans les médias. Certaines bénéficient d’une expertise reconnue, mais d’autres personnalités, même si elles possèdent un bagage scientifique, sont de prétendus experts et s’avèrent être des grands propagateurs (« super-spreaders ») de fake news. Une étude a utilisé un outil d’analyse des médias sociaux pour collecter les publications sur Facebook, Pinterest, Reddit et Twitter au début de la pandémie de la COVID-19 en Italie [38]. Les liens contenant des informations fausses ont été partagés 2 352 585 fois et comptaient pour 23,1 % de la totalité des partages. La fake news selon laquelle le coronavirus aurait été fabriqué à partir du virus HIV représentait 11 % des informations et 78 % des partages, malgré toutes les mesures de fact-checking mises en place. Ceci met en évidence la diffusion persistante des fausses informations même si elles ont été démenties et l’influence négative des « super-spreaders », dans le cas de cette étude un prix Nobel de médecine.
D’après l’enquête de Brennen et al. [13], la mésinformation sur la COVID-19 a été diffusée par des politiciens, des célébrités et d’autres personnalités publiques d’importance, comptant pour 20 % des publications et 69 % de la totalité des partages sur les médias sociaux. En France, un virologue exerçant à Marseille, a eu le rôle de « super-spreader » de fausses informations sur l’hydroxychloroquine (HCQ) [39].
4. Littératie{{}}
La littéracie en santé favorise une meilleure utilisation du système de soins et la littéracie numérique requiert des compétences pour accéder à l’information numérique en santé, l’intégrer puis l’appliquer [40]. D’après une étude expérimentale, la littéracie numérique en santé contribue à diminuer la vulnérabilité aux fake news [41]. De plus, une étude menée auprès d’étudiants américains au sujet des publications sur la COVID-19 a montré que des niveaux élevés de littéracie numérique en santé et de littéracie en santé étaient associés de manière indépendante à un meilleur engagement en faveur de la vaccination [40]. Les individus ayant une faible littéracie numérique en santé utilisaient presque deux fois plus le media YouTube comparativement à ceux ayant une littéracie élevée (68 % vs 44 %) et utilisaient de façon plus importante Facebook et Instragram, deux réseaux sociaux pouvant contenir des chambres d’écho [40]. Une intervention visant à développer la littéracie numérique a révélé des effets bénéfiques sur la détection des fake news [42], et les individus formés à la littéracie en santé montraient une plus forte tendance à adopter une approche critique des publications concernant la COVID-19 dans les médias sociaux [30].
5. Déterminants psychologiques{{}}
5.1. Contenu émotionnel et état émotionnel{{}}
Miser sur les émotions pour attirer l’attention des consommateurs est une pratique courante dans le domaine du marketing, mais également dans la presse traditionnelle où l’information se doit d’être totalement vérifiée. Une étude [43] a examiné 7000 articles, parus dans le New York Times, et 2566 d’entre eux ont été codés en fonction des émotions suscitées chez le lecteur. La viralité d’un article, définie comme la probabilité pour cet article d’être le plus partagé par mail parmi les lecteurs, était corrélée à l’anxiété, la colère et la stupeur induites par le contenu de l’article. Une augmentation d’un l’écart-type de la colère induite augmentait la viralité de l’article de 34 %.
Une étude expérimentale a rapporté des résultats similaires au sujet des fake news [44] : 409 individus ont été exposés à 20 déclarations vraies et fausses et leur état émotionnel a été évalué. Leur capacité de discernement a été calculée par la différence entre la détection des vraies et des fausses informations. Un faible discernement a été associé à un état émotionnel global plus élevé chez les participants et à certaines émotions comme l’excitation, la peur, la déception ou la honte, tandis que les autres états émotionnels, comme la détermination ou l’attention, liés à la pensée analytique, n’étaient pas impliqués. De plus, induire chez certains participants une confiance en leurs émotions a favorisé leur vulnérabilité aux fake news (et non aux informations exactes) comparativement aux témoins.
D’autres facteurs interviennent et sont liés les uns aux autres, comme suggéré par Morriseau et al. [39] dans le cas de la mésinformation relative à l’HCQ : la pensée intuitive, les attitudes anti-science, l’impulsivité, un environnement stressant, le manque de contrôle et des facteurs sociologiques, comme les troubles socio-existentiels et l’adhésion aux idées du mouvement populiste des « gilets jaunes », sont des facteurs retrouvés chez les individus qui soutenaient la théorie de l’efficacité de l’HCQ sur la COVID-19.
6. Différence entre partage et croyance aux fake news
Une étude expérimentale américaine sur la désinformation liée à la COVID-19 a été menée auprès de 853 participants qui ont été exposés à 30 assertions vraies et fausses [23]. Les participants ont été interrogés sur leur perception de la véracité des informations et sur leur envie de les partager. Une meilleure capacité à détecter les déclarations exactes comparativement aux fausses a été globalement rapportée mais le partage des fausses informations était plus fréquent (1,32 fois plus). Le raisonnement cognitif et les connaissances scientifiques amélioraient le discernement et réduisaient le risque de partager les fausses informations. Les individus les plus consommateurs de soins médicaux croyaient en un plus grand nombre d’assertions et les partageaient davantage qu’elles soient vraies ou fausses. L’affiliation au parti Républicain était associée à un plus faible partage des vraies et fausses informations sur la COVID-19 d’autant moins partagées qu’elles étaient vraies. Une simple mise en garde proposée en début d’étude de faire attention à apprécier la véracité des informations sur la COVID-19 a permis de tripler le niveau de discernement des participants et de réduire les intentions de partage. Par ailleurs, personne ne semble protégé contre le partage de fausses informations : parmi les abonnés à une newsletter de fact-checking (CoronaCheck, qui appartient au premier organisme australien de fact-checking sur la COVID-19), 24 % avaient partagé des informations probablement fausses et cette attitude était prédite par une plus faible croyance en la science [45]. En revanche, une autre étude menée en Afrique a examiné les raisons motivant la diffusion de fake news et trouvé qu’en plus de la motivation d’utiliser son temps libre et de nouer des liens sociaux (Encadré 3 ), la dissémination des fake news pouvait être motivée par un sentiment d’altruisme visant à prévenir les individus au sujet d’évènements inquiétants [46]. Ceci tend à montrer que les déterminants liés à la propagation de la mésinformation en santé semblent différents de ceux identifiés dans le domaine politique.
Encadré 3. Facteurs individuels contribuant à la diffusion des fausses informations [18,25,47,48].{{}}
- •
Passer le temps.
- •
Socialisation.
- •
Altruisme.
- •
Partage d’informations.
- •
Recherche d’informations.
- •
Pression psychologique.
- •
Appartenance partisane.
- •
Faibles connaissances scientifiques.
- •
Pensée intuitive.
7. Facteurs sociologiques{{}}
7.1. Chambres d’écho{{}}
Une chambre d’écho est un environnement au sein duquel l’opinion, l’apprentissage politique ou les croyances des utilisateurs sont renforcés par leurs interactions répétées avec des pairs ou des sources similaires. Les opinions, apprentissages et croyances résultent d’une exposition sélective à des opinions véhiculés par des individus qui partagent les mêmes intérêts et valeurs [47], [48]. Les interactions de ces individus sont également déterminées par des facteurs déjà cités tels que la vitesse de propagation, le biais de confirmation, l’attirance pour la nouveauté et les nouvelles à haut contenu émotionnel et, dans certains cas, de fortes convictions partisanes. Une étude a combiné ces caractéristiques afin d’analyser les plateformes de médias sociaux en tant que chambres d’écho [47] : YouTube et Gab contribuaient à amplifier les fake news, tandis que d’autres plateformes intégrant une activité de fact-checking, comme Reddit, réduisaient leur impact. Dans l’étude de Brennen et al. [13], le pourcentage de posts actifs véhiculant des fausses informations sur la COVID-19 sans message de mise en garde s’élevait à 59 % sur Twitter, 27 % sur YouTube et 24 % sur Facebook.
Les chambres d’écho peuvent également être infiltrées par des groupes de pression. Une étude française, publiée par le magazine Le Point [49], a analysé un panel de plus de 100 000 comptes Twitter français fournis et anonymisés grâce à un outil d’analyse de l’opinion publique baptisé Lucy. Une sous-population d’utilisateurs de « médias alternatifs » corrélés à 30 comptes « douteux » a été identifiée. Cette sous-population a été exposée à un taux plus élevé de messages contenant des fake news par rapport aux individus utilisant d’autres comptes : 75 % des individus de cette sous-population ont été exposés à au moins un message antivaccins par mois (contre 14 % de la totalité des comptes Twitter de l’étude), 72 % contre 13 % ont été exposés à un contenu anti-5G par mois et 86 % contre 24 % ont été exposés à un message pro-HCQ par mois. Entre le 8 mai et le 8 juin 2020, ceux qui suivaient un « média alternatif » ont reçu 230 messages pro-HCQ par jour en moyenne contre 20 messages par jour dans l’échantillon des autres comptes Twitter. Un des apports de cette étude est de montrer l’intérêt commun pour un même sujet partagé par certaines personnes, mais aussi de mettre en évidence la propagande des groupes de pression tels que ceux anti-5G très actifs en France. Une association avec l’appartenance politique a également été observée, puisque 33 % des individus anti-5G suivaient les comptes des partis d’extrême gauche ou d’extrême droite contre 5 % dans l’échantillon des comptes Twitter, bien que le sujet partagé ne soit pas lié à la politique. Des résultats similaires ont été retrouvés dans une autre cohorte française : ceux qui croyaient aux fake news étaient principalement contre ou septiques au sujet de la vaccination anti-COVID-19 [50].
7.2. Fabrication des fausses informations{{}}
La désinformation désigne la fabrication et/ou la diffusion intentionnelle d’informations. Dans le cas de la COVID-19, 59 % des fake news ont été reconfigurées à partir d’informations existantes et 38 % ont été fabriquées [13]. Selon de nombreuses études, les fake news ont été véhiculées par des célébrités ou des organisations, certaines issues de pays étrangers [9], avec des motivations politiques, des intentions géopolitiques ou des raisons financières. Ce sujet ne fera pas l’objet d’une discussion détaillée. Cependant, on retient que la plupart des fake news ont l’apparence du format classique des plateformes de réseaux sociaux, comme le format Facebook, ce qui conduit à un risque élevé de confusion [36]. Rechercher les motivations financières ou toute autre intention est l’une des clés permettant de protéger contre les fake news [51]. Dans une étude sur les visuels des fake news sur la COVID-19, les trois contenus les plus couramment utilisés étaient la reformulation d’une information émanant des autorités publiques (40 %), la sur- ou la sous-estimation de la propagation du virus allant jusqu’à dire que la maladie n’existe pas (33 %), ou bien l’offre d’informations médicales proposant des traitements ou de moyens de prévention contre le virus (29 %) [52]. Il apparaît donc primordial de savoir identifier comment les fake news sont présentées[53] et de comprendre comment et pourquoi les fausses informations sont créées afin de mieux les détecter. C’est ce qu’ont montré de Beer et al. [6] à partir d’une analyse sémantique et syntaxique et grâce aux algorithmes d’apprentissage automatique (machine learning).
8. Implications pour la prévention{{}}
8.1. Approches permettant de contrer la mésinformation{{}}
En s’appuyant sur les déterminants décrits plus haut, plusieurs types d’interventions peuvent être mis en place afin de limiter la propagation des fake news et empêcher les individus d’y croire. Une récente revue [7] a identifié cinq stratégies permettant de lutter contre la mésinformation (Tableau 2 ). Quelques-unes de ces stratégies ont déjà été mentionnées, comme l’éducation aux médias, la présence de message de mises en garde sur les médias sociaux ou la promotion de la pensée critique. Le fact-checking est l’élément indispensable qui vient compléter l’ensemble de ces mesures. La plupart des pays collaborent avec des organismes de fact-checking au sein du réseau international de fact-checking. Ces partenaires sont affiliés à des journaux de presse ou des chaînes de TV/radio et tentent de réagir rapidement à la désinformation. À titre d’exemple, un journal en ligne a été capable d’alerter rapidement le public au sujet du contenu conspirationniste du documentaire « Hold up » paru à la télévision française [54]. Certains réseaux sociaux publient également des notifications relatives aux informations inexactes ou falsifiées selon le principe du fact-checking. Cependant, la censure de certains sites conspirationnistes demande du temps. À titre d’exemple, le média en ligne France Soir, jugé complotiste, a seulement récemment fait l’objet d’un déréférencement sur le moteur de recherche Google [55]. Par ailleurs, en raison du biais de confirmation, le fact-checking peut ne pas avoir l’efficacité attendue auprès des individus aux convictions ancrées.
Tableau 2.{{}}
Implications dans la pratique [7].
Domaines clés |
Exemples |
| Journalisme | Apprendre à vérifier les sources
Fact-checking |
| Éducation | Promotion de la littéracie médiatique |
| Réponses gouvernementales | Régulation des médias |
| Plateformes numériques | Partenariat avec les organisations de fact-checkers
Message de mise en garde |
| Solutions informatiques | Algorithmes de détection
Jeux en ligne |
8.2. La checklist contre les fake news
Une étude expérimentale [56] a été menée auprès de 2077 personnes : professionnels de santé (dont 128 médecins), autres professionnels et étudiants avec ou sans expérience médicale. Indépendamment de leur niveau d’études et d’expertise, tous les individus ont montré une vulnérabilité à la désinformation. Les professionnels de la santé n’ont pas obtenu de meilleurs résultats que les professionnels d’autres secteurs ou que les étudiants y compris vis-à-vis d’informations directement liées au domaine de la santé. C’est pourquoi la checklist présentée dans le Tableau 3 [51] pourrait être utile à tous.
Tableau 3.{{}}
Huit façons de détecter la mésinformation [53].
S’interroger sur la source |
Source introuvable, vague |
| Langage inapproprié | Erreurs d’orthographe, de grammaire, de ponctuation |
| Contagion émotionnelle | Les personnes malintentionnées savent que les messages qui suscitent de fortes émotions sont les plus partagés |
| Scoop ou bêtise | Si l’information ne provient que d’une seule source, attention, en particulier lorsqu’elle suggère que l’on vous cache des choses |
| Faux compte | Utilisation de faux comptes sur les réseaux sociaux
Prendre garde aux images trompeuses et fausses adresses électroniques |
| Partage à outrance | Si quelqu’un fait pression pour que vous partagiez des nouvelles sensationnelles, il pourrait surtout rechercher une part des revenus publicitaires qui en découlent |
| Suivre l’argent | Se demander à qui profite votre crédulité |
| Fact-check | Ne pas s’arrêter aux titres, mais lire la totalité de l’article. En cas de doute, faire des recherches sur les sites de fact-checking |
9. Les fake news en rhumatologie
Les publications traitant des fake news en rhumatologie sont rares. En pratique quotidienne, les rhumatologues sont confrontés à la mésinformation sur des sujets de santé générale, comme décrit plus haut, mais également des fake news spécifiques aux maladies rhumatologiques et musculo-squelettiques. Une étude espagnole [57] a analysé le contenu d’un échantillon aléatoire de tweets sur Twitter, principalement dédiés à la polyarthrite rhumatoïde et à l’arthrose, 1093 classés comme médicaux et 421 comme non médicaux. Le pourcentage d’informations erronées était faible (4,4 %), ce taux étant un peu plus élevé en ce qui concerne les traitements (5,8 %). Les fausses informations ont été retweetées et « likées » moins fréquemment que les vraies informations, ce résultat étant certainement lié à la régulation des informations par la communauté Twitter. Plusieurs fake news sur les traitements de l’ostéoporose sont toujours relayées [58]. Malheureusement, le faible nombre d’études disponibles ne permet pas de proposer des solutions pertinentes face à ce phénomène important en rhumatologie.
En conclusion, les professionnels de santé doivent mieux comprendre les facteurs qui incitent les individus à croire aux fake news. Aucune intervention n’a pour l’instant été décrite dans la littérature concernant la relation patient-médecin mais l’identification de ces déterminants pourrait aider les médecins dans leur rôle de conseil auprès des patients concernant la mésinformation. Des recherches supplémentaires devront être menées au sujet des fake news en rhumatologie.
Déclaration de liens d’intérêts - L’auteur a reçu des honoraires de recherche de BMS, Fresenius Kabi, Lilly, Mylan ainsi que des honoraires de conférencière de BMS, MSD, Mylan, Pfizer, Roche, Sanofi, UCB, Sandoz, Novartis, Fresenius Kabi, Lilly.- L’auteur déclare ne pas avoir de liens d’intérêts.
Footnotes - Ne pas utiliser, pour citation, la référence française de cet article mais la référence anglaise de Joint Bone Spine avec le DOI ci-dessus.
Références à lire à la source : Articles from Revue du Rhumatisme (Ed. Francaise : 1993) are provided here courtesy of Elsevier PDF (805.5 KB)
Bas du formulaire
Follow NCBI NCBI on X (formerly known as Twitter)NCBI on FacebookNCBI on LinkedInNCBI on GitHubNCBI RSS feed- Connect with NLM NLM on X (formerly known as Twitter)NLM on FacebookNLM on YouTube
National Library of Medicine 8600 Rockville Pike Bethesda, MD 20894 …
Source : https://pmc.ncbi.nlm.nih.gov/articles/PMC9558089/
Décryptage - Fake news, post-vérité, surveillance généralisée, détestation de l’étranger… George Orwell avait raison, Big Brother est parmi nous - Publié le 20 février 2026 - Publication ‘humanite.fr’
Trump et Macron en ont rêvé, les Gafam l‘ont fait. Si nous ne nageons pas encore en pleine dystopie orwellienne, les grandes craintes de l’auteur de « 1984 » se concrétisent de jour en jour : flicage numérique, asservissement du langage et obsession de l’ennemi étranger sont devenus des réalités. Avec parfois l’assentiment des citoyens…Politique - 10min
https://www.humanite.fr/wp-content/uploads/2016/08/Soucheyre.jpg?w=100&h=100&crop=1Aurélien Soucheyre
https://www.humanite.fr/wp-content/uploads/2026/02/ouv-orwell5_HD2Mon.jpg?w=1200
Des agents ICE, à Minneapolis, aux États-Unis, le 15 janvier 2026.
© REUTERS/Tim Evans
En 1949, George Orwell se faisait lanceur d’alerte sur le devenir de l’humanité avec son roman dystopique 1984. Nous avons passé l’année fatidique. Et elle fut bien plus agréable que celle dépeinte dans le livre, loin du régime totalitaire décrit par Orwell. Mais l’avons-nous échappé belle ? Ou bien les grandes craintes d’Orwell sont-elles à venir ? Imaginez un monde dans lequel une élite toute-puissante sait tout de chaque individu, grâce à une vidéosurveillance permanente et généralisée.
Impensable aujourd’hui ? Un monde dans lequel cette caste se maintient en haut de la pyramide grâce au contrôle arbitraire de ce qui est vrai ou faux, en plus de pervertir le langage, détruisant toute possibilité de penser les choses différemment. Ridicule ? La parabole d’Orwell est poussée à l’extrême. Mais, à bien y regarder, comme le montre le nouveau documentaire de Raoul Peck, Big Brother se rapproche de nous, s’insinuant pas à pas dans nos sociétés démocratiques.
La surveillance généralisée… et consentie{{}}
Dans « 1984 », les citoyens sont sans cesse scrutés par le régime : au travail, dans la rue et chez eux, où les télécrans épient faits et gestes. Accepterait-on pareille intrusion, jusque dans nos toilettes ? « C’est pourtant ce que nous faisons vis-à-vis des Gafam, multinationales aussi puissantes que des États, relève Benjamin Patinaud, chroniqueur de la chaîne Bolchegeek. Avec la prolifération du numérique et des réseaux sociaux, nous avons donné volontairement à Apple, Google et Facebook tout ce que l’on aurait refusé de livrer autrement. »
Géolocalisation, situation amoureuse, convictions politiques et religieuses, photos personnelles et centres d’intérêt : peu de chose échappe aux Gafam. « Or, les milliardaires qui les dirigent ne nous considèrent pas seulement en consommateurs à aliéner, ils sont aussi en train de bâtir un techno-féodalisme qui...
Les mots-clés associés à cet article : démocratie dictature george orwell AccueilPolitiquedémocratie
Fake news, post-vérité, surveillance généralisée, détestation de l’étranger… George Orwell avait raison, Big Brother est parmi nous
Contacter l’HumanitéFaire un don (déductible des impôts)S’abonner à l’Humanité
Retour au début de l’introduction
Collecte de documents et agencement, traduction, [compléments] et intégration de liens hypertextes par Jacques HALLARD, Ingénieur CNAM, consultant indépendant
C :\Users\Jacques\Downloads\jh.jpg
– 21/02/2026
Site ISIAS = Introduire les Sciences et les Intégrer dans des Alternatives Sociétales
Site : https://isias.info/
Adresse : 585 Chemin du Malpas 13940 Mollégès France
Courriel : jacques.hallard921@orange.fr
Fichier : ISIAS IA générative Risques.5.docx
Mis en ligne bénévolement par le co-rédacteur par Pascal Paquin https://fr.linkedin.com/in/pascal-paquin-a85690296 - comme toutes les autres contributions publiées sur ISIAS !
[Pascal Paquin – Ses travaux sur https://yonnelautre.fr/ ]
Mis en ligne via Yonnelautre.fr : un site des alternatives, d’éducation populaire, un site inter-associatif, coopératif, gratuit, sans publicité, sans subvention, indépendant de tout parti, un site sans Facebook, Google+ ou autres GAFA, sans mouchard, sans cookie tracker, sans fichage, et à empreinte numérique réduite, un site entièrement géré sous Linux et avec l’électricité d’Énercoop , géré par Yonne Lautre : https://yonnelautre.fr –
Yonnelautre.fr utilise le logiciel libre SPIP et le squelette Koinós. Pour s’inscrire à nos lettres d’info > https://yonnelautre.fr/spip.php?breve103
http://yonnelautre.fr/local/cache-vignettes/L160xH109/arton1769-a3646.jpg?1510324931
— -