Uno studio pubblicato su «Science» nel settembre 2024 ha sottoposto oltre duemila conspiracy believer a tre round di dialogo personalizzato con un modello di linguaggio, ottenendo una riduzione del venti per cento delle credenze cospirative stabile a due mesi e generalizzabile a un’ampia gamma di teorie. La ricerca, premiata l’anno seguente con il Newcomb Cleveland Prize della American Association for the Advancement of Science, ha smentito due convinzioni speculari della divulgazione contemporanea: l’irriducibilità cognitiva dei conspiracy believer, e l’equazione fra intelligenza artificiale generativa e moltiplicazione del falso. La macchina allopoietica del taxis algoritmico, che la pubblicistica tratta in modo monolitico, si presta tanto all’amplificazione del falso quanto alla sua contestazione strutturata, e si rovescia in dispositivo a seconda dell’architettura pedagogica che la contiene.
L’alfabetizzazione AI, nella formulazione divulgativa che ha attraversato i framework istituzionali del biennio 2023-2025, si è rappresentata come dispositivo individuale di igiene cognitiva: il cittadino impara a riconoscere bias, a smontare bufale, a verificare fonti. Operazione necessaria, e tuttavia incompleta. La pedagogia dell’igiene cognitiva pone il problema sul piano del singolo soggetto, mentre la condizione del campo informativo si determina al piano dell’architettura che amplifica o disinnesca la circolazione differenziale del falso. Il pezzo che segue articola la tesi che l’alfabetizzazione algoritmica ecceda l’igiene cognitiva del singolo per nominare la formazione di soggetti capaci di esercitare giudizio critico in una catallassi mediale che il taxis algoritmico erode strutturalmente. Il piano cognitivo, il piano dell’architettura e il piano pedagogico si incrociano nel piano istituzionale: senza l’alfabetizzazione, l’asimmetria epistemica fra esperto e cittadino degrada in equipollenza, e l’equipollenza diventa terreno di estrazione attenzionale.
L’esposizione cognitiva nell’era dei modelli generativi
I sei meccanismi cognitivi della credenza che il blog ha già fondato altrove discutendo la genealogia della taumaturgia regia agiscono nel campo della disinformazione algoritmica con la stessa grammatica che operava nel rito capetingio del toucher. Bias di proporzionalità, rilevamento iperattivo dell’agency, patternicity (erede dell’Apophänie di Conrad), bias di conferma, effetto Dunning-Kruger, riduzione della dissonanza cognitiva: i sei dispositivi compongono un’architettura ridondante in cui la credenza falsa non vive nel singolo meccanismo, vive nell’intreccio reciprocamente compensante di tutti. Anche se il bias di conferma fallisse, la proporzionalità reggerebbe; anche se l’agency detection si quietasse, la patternicity continuerebbe a estrarre figure dal rumore.
Due dispositivi vanno aggiunti specificamente al campo dell’intelligenza artificiale generativa, perché la sua architettura li potenzia in modo qualitativamente nuovo. Il primo è l’euristica della disponibilità formulata da Tversky e Kahneman nel 1973: la frequenza percepita di un evento è funzione della facilità con cui esempi pertinenti vengono alla mente, e l’AI generativa, producendo contenuti virali coerenti con la narrazione cospirativa a costo marginale prossimo a zero, satura il cervello dell’utente di esempi confermativi privi di corrispondente epidemiologico. Il vocale WhatsApp che attribuisce la diffusione del Covid alle antenne 5G, replicato in centinaia di varianti microredazionali generate da modelli di linguaggio, produce nell’esposto la sensazione fenomenologica di una corrispondenza statistica fra antenne e malattia che nessuna evidenza epidemiologica sostiene. Il secondo è l’effetto della verità illusoria, già descritto nel 1977 da Hasher, Goldstein e Toppino: la ripetizione genera fluenza percettiva, e la fluenza è scambiata per verità. Pennycook, Cannon e Rand, in uno studio del 2018, hanno documentato sperimentalmente che una singola esposizione a un titolo di fake news ne aumenta la percezione di accuratezza, e che l’effetto persiste anche quando la notizia è etichettata come contestata dai fact-checker o quando contraddice l’ideologia politica del soggetto. Solo l’implausibilità estrema (la Terra è un cubo perfetto) costituisce limite all’effetto; ogni contenuto minimamente plausibile beneficia della ripetizione.
Il dispositivo cognitivo più robusto della letteratura divulgativa, il backfire effect, è in realtà mito accademico ormai sepolto. La rettifica filologica già articolata in altra sede del corpus ha mostrato che la replica massiva di Wood e Porter del 2019 non ha confermato il fenomeno su oltre diecimila soggetti in cinque esperimenti, e che lo stesso Nyhan, undici anni dopo la propria tesi originaria, ne ha riconosciuto la rarità. La persistenza delle credenze false oggi si spiega con due dispositivi alternativi: il ragionamento motivato di Kunda, per cui l’elaborazione cognitiva è subordinata a obiettivi affettivi e identitari precostituiti, e l’identity-protective cognition di Kahan, per cui le posizioni cognitive vengono difese in quanto componenti dell’identità di gruppo, e la loro confutazione è percepita come minaccia personale. Mason e Iyengar hanno mostrato come la fusione delle identità sociali con l’identità partitica, nei sistemi mediatici frammentati per filtraggio algoritmico, generi in-group bias massimo e demonizzazione dell’out-group. Non è il bias di conferma in sé a sostenere la credenza, è la fusione dell’identità tribale con la posizione cognitiva, che la rende non discutibile senza dissoluzione di sé.
Il caso paradigmatico contemporaneo è la circolazione delle teorie 5G/COVID nel 2020-2022. Fra il 2 e il 5 aprile 2020, mentre il Regno Unito entrava in lockdown, almeno quattro tralicci 5G a Birmingham, Belfast, Liverpool e Merseyside vennero incendiati da soggetti convinti che le antenne diffondessero il coronavirus o ne moltiplicassero la patogenicità. Jolley e Paterson, in uno studio pre-registrato pubblicato nel 2020 sul «British Journal of Social Psychology», hanno analizzato un campione di 601 britannici trovando una mediazione robusta della state anger fra credenza nella teoria del complotto e disposizione alla violenza, con moderazione significativa tramite paranoia. Ahmed e collaboratori, sulla rivista del settore, hanno tracciato la struttura reticolare della propagazione del complotto su Twitter, identificando la presenza di nodi influencer con alta centralità e una topologia di rete priva di figure autorevoli di contestazione: condizione strutturale di amplificazione. Sei meccanismi cognitivi più due specificamente algoritmici, intrecciati con il ragionamento motivato e l’identità tribale, agiscono in un campo informativo dove la rete sociale stessa è organizzata per non offrire confutazione. Nessuna pedagogia individuale dell’igiene cognitiva regge in queste condizioni.
La cornice strutturale: il taxis algoritmico moltiplicato dall’AI generativa
La distinzione hayekiana fra cosmos e taxis è già lessico cumulativo del corpus, e con essa l’analisi dell’ecosistema piattaformizzato come taxis algoritmico mascherato da ordine spontaneo. La diffusione differenziale del falso documentata da Vosoughi, Roy e Aral in un saggio del 2018 su «Science», su 126.000 cascate di rumor diffuse da circa tre milioni di utenti su Twitter dal 2006 al 2017 e verificate da sei organizzazioni di fact-checking indipendenti, ha mostrato che il falso si diffonde con probabilità superiore del 70 per cento rispetto al vero, raggiunge la soglia di 1.500 utenti circa sei volte più velocemente, e penetra cascate di profondità dieci circa venti volte più rapidamente. Rimuovendo i bot dal dataset, l’asimmetria persiste: sono gli umani, nelle condizioni dell’architettura di ritrasmissione, a determinare la differenza, non gli automi. La distinzione tecnica fra weak-tie platforms e strong-tie platforms, che il refresh recente del corpus ha consolidato a partire dal lavoro di Casero-Ripollés e collaboratori sulla campagna delle europee 2024, conferma che il falso si concentra strutturalmente su X e Facebook, marginalmente su Telegram e WhatsApp.
L’intelligenza artificiale generativa moltiplica il taxis algoritmico per un fattore che la pubblicistica fatica ancora a misurare. La possibilità di generare deepfake video e audio coerenti, articoli giornalistici verosimili in centinaia di lingue, immagini di documenti istituzionali falsificati, conversazioni telefoniche simulate con voci di leader politici, trasforma uno squilibrio quantitativo in differenza qualitativa. Il falso era stato vincolato dal costo di produzione di artefatti credibili, e dal numero di operatori umani in grado di produrli; il vincolo si scioglie con i grandi modelli generativi. L’operazione russa nota come Doppelganger, attiva almeno dal maggio 2022 e attribuita dal Department of Justice statunitense, in un affidavit di settembre 2024, alle aziende russe Social Design Agency e Structura National Technologies, ha creato cloni di testate occidentali (Der Spiegel, Le Parisien, Fox News, The Washington Post, Bild, Le Monde, ANSA, RBC Ukraine), con domini cybersquatted come fox-news.in e nato.ws, per veicolare narrazioni filo-russe e antiucraine. La rete parallela Storm-1516, identificata dalla Microsoft Threat Analysis Center nell’aprile 2024 e prima dal Media Forensics Hub della Clemson University nell’autunno 2023, ha utilizzato siti come DC Weekly, Miami Chronicle e The Intel Drop come stadio intermedio di laundering della disinformazione, con video di falsi whistleblower e citizen journalist generati con l’ausilio di modelli AI per spargere narrazioni denigratorie verso candidati democratici alle elezioni statunitensi del 2024.
La grammatica del taxis algoritmico moltiplicato dall’AI è asimmetria fra produzione del falso e produzione del vero. La produzione del vero richiede ricerca, verifica documentale, intervista, redazione, copertura editoriale, deontologia: tempo, denaro, professionisti formati. La produzione del falso, nelle condizioni dell’AI generativa, richiede prompt sofisticati, accesso a un modello, infrastruttura di distribuzione: minuti, costi marginali, operatori non formati. Il Digital Forensic Research Lab dell’Atlantic Council, che traccia Doppelganger dal 2022, ha documentato che la rete pubblica fra cinque e dieci articoli falsi al giorno per ogni cluster geografico attivo, con scaling che cresce nel tempo: Recorded Future nel giugno 2024 stimava oltre duemila account inautentici nella sola componente social media, dato salito a oltre quattromila nell’analisi di Bloomberg dell’aprile 2026. La produzione di articoli del fact-checking europeo nelle stesse settimane elettorali del 2024 era inferiore di un ordine di grandezza per cluster geografico equivalente. Il cosmos mediale storico bilanciava attraverso il pluralismo professionale; il taxis algoritmico moltiplicato dall’AI generativa sbilancia attraverso l’automazione asimmetrica.
Se l’asimmetria fra produzione del falso e produzione del vero è strutturale, e se l’AI generativa la trasforma in differenza qualitativa, la pedagogia individuale dell’igiene cognitiva conserva ancora un ruolo? Oppure il problema deve traslarsi al piano dell’architettura, dove la differenza si genera, lasciando alla scuola un compito residuale di prima alfabetizzazione?
Inoculation dialogica: dalla resistenza individuale alla parrhēsía formata
La teoria dell’inoculation è di William J. McGuire, che fra il 1961 e il 1964 propose l’analogia medica: l’esposizione preventiva a una versione attenuata di un argomento persuasivo confezionato dall’avversario, accompagnata da una confutazione strutturata, conferisce al destinatario una resistenza cognitiva agli argomenti successivi simile a quella che il vaccino conferisce al sistema immunitario contro il patogeno. La teoria, dormiente per quattro decenni, è stata recuperata sistematicamente dal Cambridge Social Decision-Making Lab di van der Linden e Roozenbeek a partire dal 2017, prima sul terreno della disinformazione climatica e poi su quello della disinformazione politica e sanitaria. I giochi di prebunking sviluppati dal gruppo di Cambridge (Bad News nel 2018, Harmony Square nel 2020, Cat Park nel 2023) hanno mostrato che l’esposizione strutturata alle tecniche di manipolazione, in formato ludico, conferisce una resistenza misurabile che la letteratura ha documentato fino a settimane e mesi dall’intervento, con decadimento progressivo che richiede booster periodici per essere mantenuto. Maertens e collaboratori, nel 2021, hanno fissato il quadro empirico sulla durata dell’effetto; Roozenbeek e collaboratori, nel 2022, hanno confermato l’efficacia della video inoculation su scala social media in un campo experiment su YouTube.
L’innovazione metodologica più rilevante del 2024-2025 è l’inoculation dialogica mediata da modelli di linguaggio, formulata da Costello, Pennycook e Rand nello studio aperto in apertura. La struttura sperimentale è metodologicamente robusta. I 2.190 partecipanti, reclutati come conspiracy believer su una varietà di teorie (origine artificiale del Covid, microchip vaccinali, frode elettorale 2020, complotto JFK, falso allunaggio, teorie su 11 settembre, illuminati, anti-vax generali), articolavano in entrata la propria teoria del complotto preferita e fornivano l’evidenza che la sosteneva. GPT-4 Turbo, con un prompt di sistema accuratamente costruito, rispondeva con tre round di dialogo personalizzato che riproducevano la struttura della parrhēsía socratica: ricostruzione fedele della tesi del partecipante, presentazione di evidenze contestualmente pertinenti, sollecitazione di riflessione critica sui meccanismi di formazione della credenza. Il dato di esito (riduzione del venti per cento delle credenze cospirative misurata con scale validate, stabilità a due mesi, generalizzazione a teorie del complotto non discusse direttamente nel dialogo) ha sorpreso gli stessi autori: la persuasione personalizzata di un modello di linguaggio, addestrato a presentare evidenze rilevanti senza moralismo, supera la persuasione umana media documentata in oltre cinquant’anni di letteratura sulla riduzione delle credenze irrazionali. Il commento di Bago e Bonnefon nella Perspective dello stesso numero di «Science» nomina la cosa: è la prima dimostrazione su larga scala che l’intelligenza artificiale generativa, malgrado il proprio ruolo di moltiplicatore della disinformazione, esibisce capacità persuasiva superiore al fact-checking umano se utilizzata come dispositivo dialogico personalizzato.
La tensione argomentativa è esplicita. Il dispositivo pedagogico si serve della stessa macchina allopoietica del taxis che dichiara di contrastare. Il dialogo socratico con il chatbot Costello-Pennycook-Rand riduce le credenze cospirative del venti per cento, ma lo fa attraverso una funzione obiettivo esterna alla catallassi educativa: GPT-4 Turbo è prodotto commerciale di OpenAI, ottimizzato per metriche di engagement e ricavo, non infrastruttura pubblica formativa. La dipendenza pedagogica da un’architettura proprietaria pone un problema di sovranità formativa che il framework UNESCO 2024 lascia parzialmente aperto. Tre opzioni si profilano: l’adattamento didattico dei modelli commerciali, con prompt engineering scolastico che riproduca la struttura Costello-Pennycook-Rand; lo sviluppo di modelli pubblici europei sovranazionali, dedicati alla formazione critica e regolati dalla giurisdizione UE; l’integrazione strutturale dei modelli commerciali in piani didattici nazionali, con vincoli contrattuali pubblici sui prompt e sulla trasparenza dei sistemi di raccomandazione. Le tre opzioni hanno costi politici, finanziari e operativi diversi, e nessuna risolve il paradosso del fallibilismo applicato al proprio strumento: ogni argine pedagogico è esso stesso taxis, che riproduce le condizioni che dichiara di limitare.
Il quadro istituzionale e il compito della scuola
L’UNESCO ha pubblicato nel settembre 2024, durante la Digital Learning Week, due framework distinti: l’AI Competency Framework for Students e l’AI Competency Framework for Teachers, redatti da Miao e Shiohira. Il framework studenti è organizzato in dodici competenze su quattro dimensioni (mentalità human-centered, etica dell’intelligenza artificiale, tecniche e applicazioni dell’AI, design dei sistemi AI), articolate su tre livelli progressivi (comprendere, applicare, creare). Il framework docenti aggiunge una quinta dimensione e quindici competenze. La griglia produce trentasei indicatori misurabili per gli studenti e quarantacinque per i docenti, con la pretesa di armonizzazione internazionale dei curricoli AI. Il documento è accuratamente costruito sulla letteratura pedagogica e sulla Recommendation on the Ethics of Artificial Intelligence dell’UNESCO del 2021, ma non contiene strumenti operativi specifici per il prebunking dialogico contemporaneo. La griglia è cornice di obiettivi, non manuale di intervento.
Il quadro normativo europeo che articola la cornice istituzionale è già consolidato in altra sede del corpus. Il Digital Services Act impone alle piattaforme di larghissime dimensioni obblighi di valutazione e mitigazione dei rischi sistemici di disinformazione, accesso ai dati per ricercatori indipendenti, trasparenza dei sistemi di raccomandazione. L’AI Act classifica per rischio i sistemi di intelligenza artificiale e impone obblighi proporzionati ai modelli generativi di scopo generale. Il Code of Practice on Disinformation del 2022, integrato nel quadro DSA come codice di condotta riconosciuto, vincola le piattaforme firmatarie a impegni operativi di smonetizzazione del falso e trasparenza politica. Manca un’omologa cornice normativa che articoli la responsabilità della scuola pubblica nell’alfabetizzazione algoritmica. La Commissione europea ha pubblicato nel 2022 il Digital Education Action Plan 2021-2027 e nel 2024 le Linee guida etiche sull’uso dell’intelligenza artificiale e dei dati nell’insegnamento e nell’apprendimento, ma queste restano raccomandazioni di policy, non vincoli regolamentari. Il quadro UE sulla regolamentazione delle piattaforme è imponente; il quadro UE sulla formazione del soggetto critico capace di abitare quelle piattaforme resta frammentario.
Il Global Risks Report 2025 del World Economic Forum, pubblicato il 15 gennaio 2025, registra misinformation and disinformation come primo rischio sistemico a due anni per il secondo anno consecutivo, davanti a eventi meteorologici estremi, conflitti armati statali, polarizzazione sociale, cyber-spionaggio. Il sondaggio, condotto su novecento esperti di rischio fra settembre e ottobre 2024, indica un consenso ormai stabilizzato fra policy-maker, dirigenti d’impresa e accademici sulla centralità del fenomeno. Il Democracy Report 2025 del V-Dem Institute registra parallelamente che il livello medio di democrazia liberale nel mondo è tornato ai valori del 1985 per medie pesate sulla popolazione, e che le autocrazie superano per la prima volta in oltre vent’anni le democrazie. Il piano della disinformazione e il piano dell’autocratizzazione sono empiricamente intrecciati: quarantacinque paesi sono in episodio attivo di autocratizzazione, e quasi metà dei paesi che si autocratizzano amplifica simultaneamente la diffusione di disinformazione di Stato. La cornice istituzionale entro cui la scuola opera è quindi doppiamente esposta: sul piano del campo informativo amplificato dal taxis algoritmico moltiplicato dall’AI, e sul piano del regime politico nazionale dove l’autocratizzazione corrode dall’interno le condizioni di libertà di insegnamento.
Il compito della scuola, nelle condizioni descritte, eccede l’insegnamento del riconoscimento di bufale specifiche e l’uso di strumenti di fact-checking, sebbene queste siano abilità necessarie. Il compito è formare soggetti capaci di esercitare giudizio critico nell’ecosistema piattaformizzato: distinguere il cosmos dal taxis, riconoscere quando un ordine apparentemente spontaneo è in realtà costruito da una funzione obiettivo esterna, esercitare l’asimmetria epistemica fra esperto e cittadino senza convertirla in equipollenza, accettare il fallibilismo come postura epistemica e politica. La pedagogia critica, da Dewey a Freire, ha tematizzato il problema in altre cornici storiche; l’alfabetizzazione algoritmica ne è la versione contemporanea, in cui l’oggetto del giudizio è l’architettura piattaformizzata che produce le condizioni dell’esposizione cognitiva. La AI literacy del framework UNESCO orienta l’utente nei confronti dello strumento; l’alfabetizzazione algoritmica, nell’accezione qui proposta, orienta il cittadino nei confronti dell’architettura entro cui quello strumento si dà. Sono operazioni complementari, non sostituibili l’una con l’altra.
| Piano | Diagnosi | Dispositivo pedagogico |
|---|---|---|
| Cognitivo | Sei meccanismi della credenza più euristica della disponibilità ed effetto della verità illusoria; ragionamento motivato e identity-protective cognition; backfire effect smentito empiricamente | Metacognizione esplicita; esercizio dialogico inoculatorio; analisi del proprio bias prima dell’analisi del bias altrui |
| Strutturale | Taxis algoritmico moltiplicato dall’AI generativa; produzione asimmetrica di falso e vero; weak-tie platforms come campo di amplificazione | Alfabetizzazione strutturale: distinzione cosmos/taxis, riconoscimento delle funzioni obiettivo proprietarie, lettura critica dell’architettura |
| Epistemico-democratico | Asimmetria epistemica vs equipollenza epistemica; erosione del piano della parrhēsía pubblica; identità tribali fuse con posizioni cognitive | Esercizio dell’asimmetria senza presunzione; fallibilismo applicato alle proprie tesi; parrhēsía come postura, non solo come tecnica |
| Istituzionale | Quadro UE imponente sulle piattaforme, frammentario sulla scuola; AI Competency Framework UNESCO 2024 come cornice di obiettivi; assenza di obblighi formativi vincolanti | Integrazione curricolare strutturale dell’alfabetizzazione algoritmica; formazione docenti permanente; protocolli pubblici di prompt engineering scolastico |
Il compito della scuola eccede il singolo curricolo: chiede ridefinizione del progetto pedagogico nell’età del taxis algoritmico. Le quattro dimensioni del framework UNESCO si articolano nei quattro piani della tabella in modi non sovrapponibili. Il piano cognitivo richiede esercizio metacognitivo regolare, perché senza la consapevolezza dei propri bias l’analisi del bias altrui scade in proiezione. Il piano strutturale richiede competenze che la scuola italiana ha tradizionalmente affidato all’educazione civica generale, e che l’alfabetizzazione algoritmica deve articolare specificamente: lettura del modello di business delle piattaforme, comprensione dell’ottimizzazione per metriche di engagement, riconoscimento delle differenze fra cosmos spontaneo e taxis proprietario. Il piano epistemico-democratico richiede coltivazione di una postura di parrhēsía che eccede le competenze tecniche e include la disposizione personale all’esposizione critica delle proprie tesi e all’ascolto delle controtesi. Il piano istituzionale richiede integrazione curricolare strutturale, formazione docenti permanente, protocolli pubblici per l’uso dei modelli AI in classe, alleanza con il quadro normativo europeo per produrre cittadini all’altezza dei vincoli che il quadro normativo presuppone. Niente di tutto questo accade automaticamente; tutto richiede investimento politico, finanziario, formativo.
L’alfabetizzazione algoritmica si serve della stessa macchina allopoietica che dichiara di contrastare. Lo studente che dialoga con un modello di linguaggio per smontare un complotto è dentro il taxis che lo struttura; il dialogo che riduce le credenze cospirative del venti per cento, secondo lo studio Costello-Pennycook-Rand, lo fa attraverso una funzione obiettivo esterna alla catallassi educativa. Il paradosso non si risolve, si riconosce. La libertà epistemica europea non discende dalle teste degli studenti, discende dall’architettura che la scuola contribuisce a riprodurre. Se la scuola si ritrae, l’architettura si erode; se la scuola si serve dell’architettura ostile per contrastarla, conserva la propria implicazione nel campo che combatte. Resta l’esercizio costante di una parrhēsía che riconosce la propria parzialità senza rinunciare al proprio compito.
Bibliografia ragionata
Cognitive science della credenza. Peter Cathcart Wason, On the Failure to Eliminate Hypotheses in a Conceptual Task, in «Quarterly Journal of Experimental Psychology», vol. 12, n. 3, 1960, pp. 129-140. Amos Tversky, Daniel Kahneman, Availability: A Heuristic for Judging Frequency and Probability, in «Cognitive Psychology», vol. 5, n. 2, 1973, pp. 207-232. Lynn Hasher, David Goldstein, Thomas Toppino, Frequency and the Conference of Referential Validity, in «Journal of Verbal Learning and Verbal Behavior», 16, 1977, pp. 107-112. Leon Festinger, A Theory of Cognitive Dissonance, Stanford University Press, Stanford, 1957. Justin Kruger, David Dunning, Unskilled and Unaware of It, in «Journal of Personality and Social Psychology», vol. 77, n. 6, 1999, pp. 1121-1134. Patrick J. Leman, Marco Cinnirella, A Major Event Has a Major Cause, in «Social Psychological Review», vol. 9, n. 2, 2007, pp. 18-28. Michael Shermer, The Believing Brain, Times Books, New York, 2011. Klaus Conrad, Die beginnende Schizophrenie, Thieme, Stuttgart, 1958. Justin Barrett, Exploring the Natural Foundations of Religion, in «Trends in Cognitive Sciences», vol. 4, n. 1, 2000, pp. 29-34. Stewart Guthrie, Faces in the Clouds, Oxford University Press, Oxford-New York, 1993. Gordon Pennycook, Tyrone D. Cannon, David G. Rand, Prior Exposure Increases Perceived Accuracy of Fake News, in «Journal of Experimental Psychology: General», 147(12), 2018, pp. 1865-1880.
Persistenza delle credenze e identità tribale. Ziva Kunda, The Case for Motivated Reasoning, in «Psychological Bulletin», 108(3), 1990, pp. 480-498. Brendan Nyhan, Jason Reifler, When Corrections Fail: The Persistence of Political Misperceptions, in «Political Behavior», 32(2), 2010, pp. 303-330. Thomas Wood, Ethan Porter, The Elusive Backfire Effect, in «Political Behavior», 41, 2019, pp. 135-163. Brendan Nyhan, Why the Backfire Effect Does Not Explain the Durability of Political Misperceptions, in «Proceedings of the National Academy of Sciences», 118(15), 2021. Dan Kahan, Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition, Cultural Cognition Project Working Paper Series, 2017. Lilliana Mason, Uncivil Agreement: How Politics Became Our Identity, University of Chicago Press, Chicago, 2018. Shanto Iyengar, Sean J. Westwood, Fear and Loathing Across Party Lines, in «American Journal of Political Science», 59(3), 2015, pp. 690-707.
Disinformazione e architettura piattaformizzata. Soroush Vosoughi, Deb Roy, Sinan Aral, The Spread of True and False News Online, in «Science», 359, 6380, 2018, pp. 1146-1151. Andreu Casero-Ripollés, Laura Alonso-Muñoz, Diana Moret-Soler, Spreading False Content in Political Campaigns: Disinformation in the 2024 European Parliament Elections, in «Media and Communication», 13, 2025. Daniel Jolley, Jenny L. Paterson, Pylons Ablaze: Examining the Role of 5G COVID-19 Conspiracy Beliefs and Support for Violence, in «British Journal of Social Psychology», 59(3), 2020, pp. 628-640. Wasim Ahmed, Josep Vidal-Alaball, Joseph Downing, Francesc López Seguí, COVID-19 and the 5G Conspiracy Theory: Social Network Analysis of Twitter Data, in «Journal of Medical Internet Research», 22(5), 2020. United States Department of Justice, Affidavit in Support of Application for Seizure Warrant (Doppelganger), 4 settembre 2024. Digital Forensic Research Lab, Doppelganger: How Russia Mimicked Real News Sites and Created Fake Ones to Target US Audiences, Atlantic Council, 18 settembre 2024. Microsoft Threat Analysis Center, Russia, Iran, and China Influence Operations Targeting the 2024 US Election, settembre 2024.
Inoculation theory e prebunking dialogico. William J. McGuire, Resistance to Persuasion Conferred by Active and Passive Prior Refutation of the Same and Alternative Counterarguments, in «Journal of Abnormal and Social Psychology», 63, 1961, pp. 326-332. William J. McGuire, Inducing Resistance to Persuasion: Some Contemporary Approaches, in Advances in Experimental Social Psychology, vol. 1, Academic Press, 1964. Sander van der Linden, Edward Maibach, John Cook, Anthony Leiserowitz, Stephan Lewandowsky, Inoculating the Public Against Misinformation About Climate Change, in «Global Challenges», 1, 2017. Jon Roozenbeek, Sander van der Linden, The Fake News Game: Actively Inoculating Against the Risk of Misinformation, in «Journal of Risk Research», 22, 2019. Rakoen Maertens, Jon Roozenbeek, Melisa Basol, Sander van der Linden, Long-Term Effectiveness of Inoculation Against Misinformation: Three Longitudinal Experiments, in «Journal of Experimental Psychology: Applied», 27, 2021, pp. 1-16. Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje, Stephan Lewandowsky, Psychological Inoculation Improves Resilience Against Misinformation on Social Media, in «Science Advances», 8, 2022. Thomas H. Costello, Gordon Pennycook, David G. Rand, Durably Reducing Conspiracy Beliefs Through Dialogues with AI, in «Science», 385, 13 settembre 2024, DOI: 10.1126/science.adq1814.
Quadro istituzionale e indicatori sistemici. Friedrich A. Hayek, Law, Legislation and Liberty, vol. II, The Mirage of Social Justice, Routledge, London, 1976. UNESCO (Fengchun Miao, Kelly Shiohira), AI Competency Framework for Students, UNESCO, Paris, settembre 2024. UNESCO (Fengchun Miao, Kelly Shiohira), AI Competency Framework for Teachers, UNESCO, Paris, settembre 2024. World Economic Forum, Global Risks Report 2025: A World of Growing Divisions, Geneva, 15 gennaio 2025. V-Dem Institute, Democracy Report 2025: 25 Years of Autocratization, Democracy Trumped?, University of Gothenburg, marzo 2025. Regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio, Digital Services Act. Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, AI Act. The Strengthened Code of Practice on Disinformation, Commissione europea, 2022.

Rispondi