Utente:Michelino12/Riproducibilità

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

La riproducibilità, nota anche come replicabilità e ripetibilità, è un principio fondamentale alla base del metodo scientifico. Affinché i risultati di uno studio siano riproducibili occorre che i risultati ottenuti da un esperimento o da uno studio epidemiologico o da un'analisi statistica di un set di dati siano riottenuti, con un elevato grado di affidabilità, quando lo studio viene rifatto. Tipicamente si cerca di utilizzare la medesima metodologia dello studio originale. Solo dopo che uno studio è stato riprodotto una o più volte i suoi risultati dovrebbero essere riconosciuti come una conoscenza scientifica. Nel contesto delle scienze computazionali la riproducibilità implica che ogni risultato dovrebbe essere ben documentato attraverso la messa a disposizione del codice sorgente e dei dati, in modo tale che tutte le elaborazioni possano essere eseguite con identici risultati. Negli ultimi decenni è cresciuta la preoccupazione che molti risultati scientifici pubblicati non superino il test di riproducibilità, evocando una crisi della replicazione.

Storia[modifica | modifica wikitesto]

Nel contesto del 17° secolo la pompa dell'aria di Boyle era un apparato scientifico così complicato e costoso da rendere difficile la riproducibilità dei risultati

Il primo a sottolineare l'importanza della riproducibilità nella scienza fu il chimico irlandese Robert Boyle, in Inghilterra nel XVII secolo. La pompa di Boyle erastata progettata per generare e studiare il vuoto, un concetto all'epoca molto controverso. In effetti, illustri filosofi come René Descartes e Thomas Hobbes avevano negato la possibilità stessa dell'esistenza del vuoto. Gli storici della scienza Steven Shapin e Simon Schaffer, nel loro libro del 1985 Leviathan and the Air-Pump, osservano come il dibattito tra Boyle e Hobbes, apparentemente sulla natura del vuoto, fosse fondamentalmente una discussione sul metodo per acquisire conoscenze utili. Boyle, un pioniere del metodo sperimentale, sosteneva che le basi della conoscenza dovrebbero essere costituite da fatti prodotti sperimentalmente, che possono essere resi credibili a una comunità scientifica dalla loro riproducibilità. Ripetendo lo stesso esperimento più e più volte, sosteneva Boyle, emergerà la certezza del fatto.

La pompa ad aria, che nel XVII secolo era un apparato complicato e costoso da costruire, portò anche a una delle prime controversie documentate sulla riproducibilità di un particolare fenomeno scientifico. Nel 1660 lo scienziato olandese Christiaan Huygens costruì ad Amsterdam la propria pompa ad aria, la prima esterna alla gestione di Boyle e del suo assistente Robert Hooke. Huygens riportò un effetto, da lui definito "sospensione anomala", in cui l'acqua sembrava levitare in un barattolo di vetro all'interno della sua pompa ad aria (in realtà sospesa su una bolla d'aria), ma Boyle e Hooke non furono in grado di replicare nelle proprie pompe questo fenomeno. Come descrivono Shapin e Schaffer, "divenne chiaro che se non si fosse riusciti a riprodurre il fenomeno con una delle due pompe disponibili, nessuno in Inghilterra avrebbe accettato le affermazioni fatte da Huygens, o la sua capacità di far funzionare la pompa". Nel 1663 Huygens fu infine invitato in Inghilterra e sotto la sua guida Hooke riuscì a replicare l'anomala sospensione dell'acqua. In seguito Huygens fu eletto membro straniero della Royal Society. Tuttavia, Shapin e Schaffer notano che “the accomplishment of replication was dependent on contingent acts of judgment. One cannot write down a formula saying when replication was or was not achieved”. [1]

Il filosofo della scienza Karl Popper notò brevemente nel suo famoso libro del 1934 The Logic of Scientific Discovery che "i singoli eventi non riproducibili non hanno alcun significato per la scienza". [2] Lo statistico Ronald Fisher scrisse nel suo libro del 1935 The Design of Experiments, che pose le basi per la moderna pratica scientifica della verifica di ipotesi e della significatività statistica, che “si può dire che un fenomeno è dimostrabile sperimentalmente quando sappiamo come condurre un esperimento che raramente non riuscirà a darci risultati statisticamente significativi”.[3] Tali affermazioni esprimono un assunto comune nella scienza moderna secondo cui la riproducibilità è una condizione necessaria (sebbene non necessariamente sufficiente ) per stabilire un fatto scientifico, e in pratica per stabilire l'autorità scientifica in qualsiasi campo della conoscenza. Tuttavia, come notato sopra da Shapin e Schaffer, questo dogma non è ben formulato quantitativamente, come ad esempio per la significatività statistica, e quindi non è stabilito esplicitamente quante volte un fatto debba essere replicato per essere considerato riproducibile.

Misure di riproducibilità e ripetibilità[modifica | modifica wikitesto]

In chimica, i termini riproducibilità e ripetibilità sono usati con un significato quantitativo specifico.[4] Negli esperimenti che coinvolgono più laboratori, una concentrazione o un'altra quantità di una sostanza chimica viene misurata ripetutamente in diversi laboratori per valutare la variabilità delle misurazioni. Quindi, la deviazione standard della differenza tra due valori ottenuti all'interno dello stesso laboratorio è chiamata ripetibilità. La deviazione standard per la differenza tra due misurazioni di laboratori diversi è chiamata riproducibilità . Queste misure sono legate al concetto più generale di componenti di varianza in metrologia.

Ricerca riproducibile[modifica | modifica wikitesto]

Metodo di ricerca riproducibile[modifica | modifica wikitesto]

Il termine ricerca riproducibile si riferisce all'idea che i risultati scientifici dovrebbero essere documentati in modo tale che il loro ottenimento sia completamente trasparente. Ciò richiede una descrizione dettagliata dei metodi utilizzati per ottenere i dati [5] [6] e che sia reso disponibile il set di dati e il codice per calcolare i risultati. [7] [8] [9] [10] [11] Questa è sostanzialmente parte della scienza aperta .

Per rendere un progetto di ricerca riproducibile dal punto di vista computazionale, la pratica comune prevede che tutti i dati e i file vengano chiaramente separati e documentati, che i passaggi siano per lo più automatizzati, evitando interventi manuali; che il flusso di lavoro sia suddiviso in passaggi più piccoli, combinati in modo che gli output intermedi di un passaggio vengano alimentati direttamente come input nel passaggio successivo.

I passi essenziali per la ricerca riproducibile sono l'acquisizione, l'elaborazione e l'analisi dei dati. L'acquisizione dei dati consiste principalmente nell'ottenere dati primari da una fonte primaria come ricerche sperimentali, sondaggi, osservazioni sul camp una fonte pre-esistente. L'elaborazione dei dati comporta l'elaborazione dei dati raccolti nella prima fase, spesso attraverso l'utilizzo di un software; include l'immissione, la manipolazione e il filtraggio dei dati. L'uso del software e dell'automazione migliora la riproducibilità dei metodi di ricerca. [12]

Esistono sistemi che facilitano tale documentazione, come il linguaggio R Markdown [13] o il notebook Jupyter . [14] L' Open Science Framework fornisce una piattaforma e strumenti utili per supportare la ricerca riproducibile.

Ricerca riproducibile nella pratica[modifica | modifica wikitesto]

In psicologia è aumentata la preoccupazione per la difficoltà a riprodurre alcuni risultati scientifici (vedi la voce sulla crisi di replicabilità). Secondo uno studio del 2006 il 73% degli autori di articoli sperimentali pubblicati su riviste dell'American Psychological Association (APA) non hanno risposto entro sei mesi alla richiesta di fornire i dati relativci alle pubblicazioni.[15] In uno studio di follow-up pubblicato nel 2015 è emerso che il 62% degli autori contattati su riviste APA non ha condiviso i propri dati su richiesta.[16] Nel 2012 un articolo consigliava di pubblicare i dati contestualmente alle pubblicazioni.[17] Nel 2017 un articolo pubblicato su Scientific Data ha suggerito che tale pratica potrebbe non bastare, e che l'intero contesto dell'analisi dei dati dovrebbe essere reso disponibile.[18]

Anche in ambito economico sono state sollevate preoccupazioni in relazione alla credibilità e all'affidabilità della ricerca pubblicata. A differenza che in altre scienze, nelle scienze economiche la riproducibilità non è considerata una priorità della massima importanza, e la maggior parte delle riviste economiche peer-reviewed non adotta alcuna misura sostanziale per garantire che i risultati pubblicati siano riproducibili. Tuttavia le principali riviste di economia si sono mosse per adottare dati obbligatori e archivi di codice.[19] Gli incentivi per i ricercatori a condividere i propri dati sono bassi o nulli e spesso la ricerca economica non è riproducibile. Solo una parte delle riviste ha politiche adeguate di condivisione dei set di dati e del codice, spesso gli autori rispettano tali politiche. Uno studio relativo a 599 articoli pubblicati su 37 riviste ha evidenziato che solo il 47,5% ha rispettato le politiche di condivisione. [20]

In ambito di salute pubblica, uno studio del 2018 pubblicato sulla rivista PLOS ONE ha rilevato che solo il 14,4% di un campione di ricercatori aveva condiviso i propri dati, il codice o entrambi. [21]

Da molti anni ci sono iniziative per migliorare la rendicontazione e quindi la riproducibilità nella letteratura medica, a cominciare dall'iniziativa CONSORT, che ora fa parte di un'iniziativa più ampia, la Rete EQUATOR . Questo gruppo ha recentemente rivolto la sua attenzione a come una migliore rendicontazione potrebbe ridurre gli sprechi nella ricerca, [22] in particolare nella ricerca biomedica.

La riproducibilità della ricerca ha un ruolo chiave nella farmacologia. Una scoperta di Fase I di un farmaco è seguita da studi di replicazione di Fase II in parallelo allo sviluppo dei processi di produzione commerciale. Negli ultimi decenni il successo della Fase II è sceso dal 28% al 18%. Uno studio del 2011 ha rilevato che il 65% degli studi medici era incoerente quando riesaminato e solo il 6% era completamente riproducibile. [23]

Esempi di risultati non riproducibili[modifica | modifica wikitesto]

Hideyo Noguchi divenne famoso per aver identificato correttamente l'agente batterico della sifilide. Contemporanemente affermò di poter coltivare questo agente nel suo laboratorio, ma nessuno è stato in grado di riprodurre questo risultato.[24]

Nel marzo 1989 i chimici Stanley Pons e Martin Fleischmann dell'Università dello Utah affermarono di avere prodotto un eccesso di calore in un esperimento,spiegabile solo con un processo nucleare (la c.d. fusione fredda). Il risultato era sbalorditivo data la semplicità dell'apparecchiatura: si trattava sostanzialmente di una cella di elettrolisi contenente acqua pesante e un catodo di palladio in grado di assorbire il deuterio prodotto durante l'elettrolisi. Altri riceercatori tentarono nei mesi successivi di replicare l'esperimento, ma senza successo.[25] Altri esempi in cui studi successivi hanno confutato lo studio originale:

  • GFAJ-1, un batterio in grado di incorporare arsenico nel suo DNA al posto del fosforo;
  • Caso Wakefield: uno studio pubblicato nel 1998 sull'autorevole rivista The Lancet affermava un legame fra il vaccino MMR e l'autismo.

Voci correlate[modifica | modifica wikitesto]

Crisi della replicazione Principio di falsificabilità

Riferimenti[modifica | modifica wikitesto]

 Template:Medical research studies [[Categoria:Filosofia della scienza]] [[Categoria:Misure]]

  1. ^ Steven Shapin and Simon Schaffer, Leviathan and the Air-Pump, Princeton University Press, Princeton, New Jersey (1985).
  2. ^ This citation is from the 1959 translation to English, Karl Popper, The Logic of Scientific Discovery, Routledge, London, 1992, p. 66.
  3. ^ Ronald Fisher, The Design of Experiments, (1971) [1935](9th ed.), Macmillan, p. 14.
  4. ^ International Union of Pure and Applied Chemistry, https://goldbook.iupac.org/terms/view/R05305. URL consultato il 4 marzo 2022.
  5. ^ Gary King, Replication, Replication, in PS: Political Science and Politics, vol. 28, n. 3, 1995, pp. 444–452, DOI:10.2307/420301.
  6. ^ Martin Kühne, Improving the Traditional Information Management in Natural Sciences, in Data Science Journal, vol. 8, n. 1, pp. 18–27, DOI:10.2481/dsj.8.18.
  7. ^ Sergey Fomel, Guest Editors' Introduction: Reproducible Research, in Computing in Science and Engineering, vol. 11, n. 1, pp. 5–7, DOI:10.1109/MCSE.2009.14.
  8. ^ The Yale Law School Round Table on Data and Core Sharing: "Reproducible Research", in Computing in Science and Engineering, vol. 12, n. 5, pp. 8–12, DOI:10.1109/MCSE.2010.113.
  9. ^ Ben Marwick, Computational reproducibility in archaeological research: Basic principles and a case study of their implementation, in Journal of Archaeological Method and Theory, vol. 24, n. 2, pp. 424–450, DOI:10.1007/s10816-015-9272-9.
  10. ^ Steven N. Goodman, What does research reproducibility mean?, in Science Translational Medicine, vol. 8, n. 341, 1º June 2016, pp. 341ps12, DOI:10.1126/scitranslmed.aaf5027.
  11. ^ Harris J.K, Three Changes Public Health Scientists Can Make to Help Build a Culture of Reproducible Research, in Public Health Rep. Public Health Reports, vol. 134, n. 2, 2019, pp. 109–111, DOI:10.1177/0033354918821076.
  12. ^ Justin Kitzes, Daniel Turek e Fatma Deniz, The practice of reproducible research case studies and lessons from the data-intensive sciences, Oakland, California, University of California Press, 2018, pp. 19–30, ISBN 9780520294745.
  13. ^ vol. 72, DOI:10.1080/00031305.2017.1375986, https://oadoi.org/10.1080/00031305.2017.1375986.
  14. ^ 2016, DOI:10.3233/978-1-61499-649-1-87, https://eprints.soton.ac.uk/403913/1/STAL9781614996491-0087.pdf.
  15. ^ The poor availability of psychological research data for reanalysis, in American Psychologist, vol. 61, n. 7, 2006, pp. 726–728, DOI:10.1037/0003-066X.61.7.726.
  16. ^ Are we wasting a good crisis? The availability of psychological research data after the storm, in Collabra, vol. 1, n. 1, 2015, pp. 1–5, DOI:10.1525/collabra.13.
  17. ^ Publish (your data) or (let the data) perish! Why not publish your data too?, in Intelligence, vol. 40, n. 2, 2012, pp. 73–76, DOI:10.1016/j.intell.2012.01.004.
  18. ^ If these data could talk, in Scientific Data, vol. 4, p. 170114, DOI:10.1038/sdata.2017.114.
  19. ^ Open Access Economics Journals and the Market for Reproducible Economic Research, in Economic Analysis and Policy, vol. 39, n. 1, March 2009, pp. 117–126, DOI:10.1016/S0313-5926(09)50047-1.
  20. ^ Journals in Economic Sciences: Paying Lip Service to Reproducible Research?, in IASSIST Quarterly, vol. 41, 1–4, 10 dicembre 2017, DOI:10.29173/iq6.
  21. ^ Use of reproducible research practices in public health: A survey of public health analysts., in PLOS ONE, vol. 13, n. 9, 2018, pp. e0202447, DOI:10.1371/journal.pone.0202447.
  22. ^ researchwaste.net, http://researchwaste.net/research-wasteequator-conference/.
  23. ^ Believe it or not: How much can we rely on published data on potential drug targets?, in Nature Reviews Drug Discovery, vol. 10, n. 9, 2011, DOI:10.1038/nrd3439-c1.
  24. ^ Hideyo Noguchi (1876-1928): Distinguished bacteriologist, in Singapore Medical Journal, vol. 55, n. 10, 2014, pp. 550–551, DOI:10.11622/smedj.2014140.
  25. ^ Malcolm Browne, Physicists Debunk Claim Of a New Kind of Fusion, 3 May 1989.