Steve Templeton.
8 ottobre 2021
Cinque anni fa l'astrofisico e divulgatore scientifico Neil deGrasse Tyson ha twittato un testo davvero memorabile e degno di una citazione:
Il mondo ideale di Tyson era attraente per molti a causa della politica istintiva e guidata dalle emozioni e della guerra politica tribale che aveva invaso ogni arena della vita pubblica, inclusa la scienza. Ha attirato molti dei suoi colleghi scienziati, persone addestrate a pensare in modo obiettivo e testare ipotesi basate su osservazioni sul mondo naturale.
L'unico problema: l'enorme peso delle prove dimostra perché il paese virtuale "Rationalia" semplicemente non esisterà mai.
Questo perché, per gli umani, pensare razionalmente richiede un'enorme quantità di energia e sforzo. Di conseguenza, la maggior parte delle volte non ci preoccupiamo di farlo. Invece, nella stragrande maggioranza dei casi, il nostro pensiero è guidato completamente dalla nostra intuizione e dai nostri istinti, senza che entri in gioco quel fastidioso pensiero razionale che interferisce sulle nostre decisioni.
Questa dicotomia è magistralmente spiegata nei minimi dettagli dal premio Nobel Daniel Kahneman nel suo libro Thinking Fast and Slow, ed è anche trattata con un focus sulle divisioni politiche nel capolavoro di Jonathan Haidt, The Righteous Mind. Entrambi sono opere interessantissime come tali e forniscono spiegazioni affascinanti sul perché ognuno di noi ha punti di vista diversi e perché è così difficile cambiarli.
Ancora più importante, questa dicotomia cognitiva si applica a tutti, anche agli scienziati. Ciò potrebbe sorprendere (compresi alcuni scienziati, a quanto pare), poiché i media e i politici hanno descritto gli scienziati (almeno quelli con cui sono d'accordo) come intrisi di una capacità magica di discernere e pronunciare la verità assoluta.
Questo non potrebbe essere più lontano dalla realtà. Dico spesso in giro che la differenza tra uno scienziato e la persona media è che uno scienziato è più consapevole di ciò che non sa del proprio campo specifico (nota del traduttore: magari fosse sempre così!), mentre la persona media non sa ciò che non sa. In altre parole, tutti soffrono di un'ignoranza schiacciante, ma gli scienziati sono (si spera) di solito più consapevoli della profondità della loro ignoranza. Occasionalmente gli può capitare di avere un'idea su come aumentare leggermente un particolare tipo di conoscenze, e talvolta quell'idea potrebbe persino rivelarsi vincente. Ma per la maggior parte passano il tempo a lavorare rinchiusi all'interno di un pozzo di conoscenza specifico del loro campo.
Gli scienziati sono spesso ostacolati dai propri anni di esperienza e dall'intuizione potenzialmente fuorviante che hanno sviluppato di conseguenza. Nel libro Virus Hunter, gli autori CJ Peters e Mark Olshaker raccontano come un ex direttore del CDC (Center for Disease Control, USA) ha osservato che "giovani e inesperti agenti dell'EIS (Epidemic Intelligence Service) solitamente inviati dal CDC per indagare su epidemie misteriose avevano in realtà qualche vantaggio rispetto ai loro più esperti e anziani stagionati. Pur avendo una formazione di prim'ordine e il supporto dell'intera organizzazione CDC, non avevano visto abbastanza per avere opinioni prestabilite e potevano essere più aperti a nuove possibilità e avere l'energia per perseguirle”. Gli esperti sono anche di solito pessimi nel fare previsioni e, come spiegato dal ricercatore e autore Philip Tetlock nel suo libro Giudizio politico esperto, non sono più precisi nella previsione rispetto alla persona media. I recenti fallimenti dei modelli di previsione della pandemia hanno solo rafforzato questa conclusione.
La maggior parte degli scienziati di successo possono far risalire i loro successi principali a lavori che hanno fatto all'inizio della loro carriera. Questo accade non solo perché gli scienziati diventano più sicuri del loro posto di lavoro con gli anni, ma perché sono ostacolati dalle proprie esperienze e dai propri pregiudizi. Quando ero un tecnico di laboratorio alla fine degli anni '90, ricordo di aver chiesto consiglio a un immunologo su un esperimento che stavo pianificando. Ha finito per darmi un sacco di ragioni per cui non c'era un buon modo per fare quell'esperimento e ottenere informazioni utili. Ho parlato a una collega postdoc di questo incontro, e ricordo che lei disse: “Non ascoltarlo. Quel tizio può dissuaderti dal fare qualsiasi cosa”. Gli scienziati esperti sono profondamente consapevoli di ciò che non funziona e ciò può comportare una grande riluttanza a correre rischi.
Gli scienziati operano in un ambiente altamente competitivo in cui sono costretti a trascorrere la maggior parte del loro tempo alla ricerca di finanziamenti per la ricerca scrivendo infinite proposte di sovvenzioni, la stragrande maggioranza delle quali non sono finanziate (n.d.t: la maledizione dello scienziato). Per essere competitivi per questo pool limitato di risorse, i ricercatori cercano i lati positivi della loro ricerca e pubblicano solo risultati positivi. Anche se i risultati dello studio si discostano da quanto originariamente previsto, il manoscritto risultante raramente si legge in questo senso. E queste pressioni spesso fanno sì che l'analisi dei dati possa soffrire di vari errori, dall'enfatizzare innocentemente i risultati positivi all'ignorare i dati negativi o contrari, per arrivare fino alla falsificazione totale.
I problemi con il reporting e la replicabilità dei dati di ricerca sono noti da anni. Nel 2005, il professor John Ioannidis di Stanford, tra gli scienziati più citati al mondo, ha pubblicato uno degli articoli più citati della sua carriera (oltre 1.600), "Perché i risultati della ricerca più pubblicati sono falsi". Nello studio, Ioannidis ha utilizzato simulazioni matematiche per dimostrare "che per la maggior parte dei progetti e delle impostazioni di studio, è più probabile che un'affermazione di ricerca sia falsa che vera. Inoltre, per molti campi scientifici attuali, i risultati della ricerca dichiarati possono spesso essere semplicemente misure accurate del pregiudizio prevalente”. Ioannidis ha anche offerto sei corollari derivati dalle sue conclusioni:
- Più piccoli sono gli studi condotti in un certo campo scientifico, meno è probabile che i risultati della ricerca siano veri.
- Più piccole sono le dimensioni dell'effetto in un certo campo scientifico, meno è probabile che i risultati della ricerca siano veri.
- Maggiore è il numero e minore è la selezione delle correlazioni testate in un campo scientifico, meno è probabile che i risultati della ricerca siano veri.
- Maggiore è la flessibilità nei progetti, nelle definizioni, nei risultati e nelle modalità analitiche in un campo scientifico, meno è probabile che i risultati della ricerca siano veri.
- Maggiori sono gli interessi e i pregiudizi finanziari e di altro tipo in un campo scientifico, meno è probabile che i risultati della ricerca siano veri.
- Più un campo scientifico è alla moda (con un maggior numero di team scientifici coinvolti), meno è probabile che i risultati della ricerca siano veri.
“Corollario 5: maggiori sono gli interessi e i pregiudizi finanziari e di altro tipo in un campo scientifico, meno è probabile che i risultati della ricerca siano veri." Conflitti di interesse e pregiudizi possono aumentare i pregiudizi. I conflitti di interesse sono molto comuni nella ricerca biomedica, e in genere non sono adeguatamente segnalati. Il conflitto potrebbe non avere necessariamente radici finanziarie. Gli scienziati in un dato campo possono essere prevenuti semplicemente a causa della loro fede in una teoria scientifica o dell'impegno nei confronti delle proprie scoperte (enfasi mia). Molti studi universitari, altrimenti apparentemente indipendenti, possono essere condotti solo per fornire a medici e ricercatori qualifiche per la promozione o l'assunzione. Tali conflitti non finanziari possono anche portare a risultati e interpretazioni distorti. Investigatori prestigiosi possono sopprimere attraverso il processo di revisione tra pari la comparsa e la diffusione di risultati che confutano i loro risultati, condannando così il loro campo a perpetuare falsi dogmi. L'evidenza empirica sull'opinione degli esperti mostra che è estremamente inaffidabile”.
“Corollario 6: più alla moda è un campo scientifico (con più team scientifici coinvolti), meno è probabile che i risultati della ricerca siano veri (n.d.t. questo è profondamente vero se riferito alla moda della cosiddetta "fusione fredda" che ebbe un momento di grande popolarità nel 2011. Quasi tutto quello che fu pubblicato in questa fase è risultato sbagliato o falsificato). Questo corollario apparentemente paradossale segue perché, come affermato sopra, il PPV (valore predittivo positivo) di risultati isolati diminuisce quando molte squadre di ricercatori sono coinvolte nello stesso campo. Questo potrebbe spiegare perché occasionalmente vediamo una grande eccitazione seguita rapidamente da gravi delusioni in campi che attirano un'ampia attenzione. Con molte squadre che lavorano sullo stesso campo e con enormi dati sperimentali prodotti, il tempismo è essenziale per battere la concorrenza. Pertanto, ogni squadra può dare la priorità al perseguire e diffondere i suoi risultati "positivi" più impressionanti ... "
Gli scienziati prevenuti a causa delle loro convinzioni, motivati dalla popolarità del campo, e quindi inclini a dare la priorità ai risultati positivi sono tutte fonti di parzialità ovvie nella ricerca SARS-CoV-2. Ioannidis e colleghi hanno pubblicato sull'esplosione della ricerca SARS-CoV-2 pubblicata , rilevando "210.863 articoli rilevanti per COVID-19, che rappresentano il 3,7% dei 5.728.015 articoli in tutta la scienza pubblicata e indicizzata in Scopus nel periodo 1 gennaio. 2020 fino al 1° agosto 2021”. Gli autori di articoli relativi a COVID-19 erano esperti in quasi tutti i campi, tra cui "pesca, ornitologia, entomologia o architettura". Entro la fine del 2020, Ioannidis ha scritto, “solo l'ingegneria automobilistica non aveva scienziati che pubblicavano su COVID-19. All'inizio del 2021, anche gli ingegneri automobilistici hanno detto la loro". Altri hanno anche commentato la "covidizzazione " della ricerca , evidenziando la riduzione della qualità della ricerca poiché la COVID mania ha spinto i ricercatori da campi non correlati verso il gioco più popolare e redditizio in giro.
Come ho discusso in due post precedenti, il mascheramento universale e la segnalazione dei danni causati dal COVID ai bambini sono stati irrimediabilmente politicizzati e distorti a causa dei pregiudizi dilaganti di media, politici, scienziati e organizzazioni di sanità pubblica. Ma il vero colpevole potrebbe essere il pubblico stesso e la cultura della sicurezza del primo mondo a rischio zero che ha incoraggiato tutti questi giocatori a esagerare i danni per forzare i cambiamenti comportamentali nei non conformi. Inoltre, la maggior parte delle persone compiacenti che stanno "prendendo sul serio la pandemia" vogliono sapere che tutti i sacrifici che hanno fatto sono valsi la pena.
Tuttavia, gli scienziati e i media sono più che felici di fornire i dati che il pubblico vorrebbe:
“Immagina di essere uno scienziato e sapessi che una conclusione favorevole del tuo studio porterebbe a un riconoscimento istantaneo da parte del New York Times, della CNN e di altri organi internazionali, mentre un risultato sfavorevole porterebbe a critiche feroci da parte dei tuoi colleghi, attacchi personali, censura sui social media e difficoltà a pubblicare i risultati. Come rispondereste?"
La risposta è ovvia. Il desiderio travolgente di un pubblico terrorizzato di prove di interventi che eliminano efficacemente il rischio di infezione spingerà inevitabilmente gli scienziati a fornire tali prove. Idealmente, un riconoscimento di questo pregiudizio comporterebbe un aumento dello scetticismo da parte di altri scienziati e media, ma ciò non è accaduto. Dichiarazioni esagerate di efficacia degli interventi e esagerazioni dei danni prevenuti per promuoverne l'accettazione sono diventate la norma nella segnalazione di pandemia.
Come ho discusso in un post precedente , il modo migliore per mitigare le distorsioni della ricerca è che i ricercatori invitino partner neutrali a replicare il lavoro e collaborare su ulteriori studi. La capacità di rendere disponibili tutti i dati al pubblico e ad altri scienziati invita anche a revisioni critiche che sono crowd-sourced e quindi potenzialmente più accurate e meno distorte. La disponibilità pubblica di set di dati e documenti ha portato al miglioramento delle previsioni sulla pandemia e ha portato la possibilità di un'origine di perdita di laboratorio per SARS-CoV-2 dalle ombre della teoria della cospirazione alla luce pubblica.
Come risultato di dati aperti e documentazione trasparente, altri si sono lamentati del fatto che queste risorse sono state utilizzate in modo improprio da scienziati da poltrona o scienziati impegnati in sconfinamenti epistemici al di fuori dei rispettivi campi, risultando in un'enorme e confusa pila di informazioni fuorvianti. Eppure, anche se il processo della scienza è limitato solo agli "esperti", la stragrande maggioranza degli studi produce pochissime informazioni preziose o accurate ad altri ricercatori o al pubblico in generale. Solo attraverso una dura selezione naturale e un processo di replica tra pari le idee migliori sopravvivono oltre il loro clamore iniziale. È anche importante notare che gruppi di ricercatori in un campo particolare possono essere così paralizzati da pregiudizi interni e politici e pensiero di gruppo tossico che solo quelli al di fuori del loro campo sono in grado di richiamare l'attenzione sul problema. Pertanto, la capacità di altri scienziati e del pubblico di aiutare nel processo correttivo a lungo termine della scienza è il modo migliore per avvicinarsi alla verità, nonostante i nostri difetti collettivi.