Wikipedia:Pregiudizi ideologici in Wikipedia

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

La presenza di pregiudizi ideologici in Wikipedia in grado di influenzarne la neutralità è oggetto di studio scientifico e di dibattito nei media. La ricerca sul tema ha implicazioni più generali di Wikipedia, perché essa è considerata un laboratorio di come si costruisce e gestisce collettivamente conoscenza online. Wikipedia registra tutte le modificazioni dei contenuti. Questo facilita i ricercatori e consente loro di studiare i comportamenti degli utenti con metodi statistici.

Un filone di studio riguarda l'integrità ed affidabilità dei contenuti di Wikipedia. Tra le questioni analizzate, si vuol determinare in che misura il suo contenuto sia distorto a causa dell'ideologia politica, religiosa o di altro tipo dei suoi redattori volontari e gli effetti che ciò possa avere sull'affidabilità dell'enciclopedia.

Wikipedia ha una linea guida che afferma che gli articoli devono essere scritti da un punto di vista neutrale. Essa richiede di rappresentare in modo equilibrato e senza pregiudizi editoriali tutti i punti di vista significativi che sono stati pubblicati in modo verificabile da fonti attendibili su un argomento.

Il punto di vista di un singolo individuo può essere deliberatamente o inconsapevolmente distorto. Wikipedia è un'opera collettiva. L'ipotesi alla sua base è che un gran numero di contributi individuali indipendenti contribuirebbe a cancellare le distorsioni individuali, per produrre un risultato equilibrato e neutro.

La ricerca disponibile tende a dimostrare che le voci di Wikipedia modificate da un gran numero di utenti con opinioni ideologiche opposte sono neutrali almeno quanto altre fonti simili. Tuttavia, le voci con minori modifiche o modifiche effettuate da parte di un numero più ristretto di collaboratori o più ideologicamente omogenei hanno maggiori probabilità di riflettere un pregiudizio ideologico.

Wikipedia è vulnerabile ad attacchi di disinformazione tramite la manipolazione del contenuto. Il suo punto di forza è la trasparenza nella produzione dei contenuti.

Ricerca sui pregiudizi ideologici in Wikipedia[modifica wikitesto]

Come e perché vengono studiati i comportamenti degli utenti di Wikipedia

«Per documentare e spiegare i pregiudizi introdotti in Wikipedia occorre studiare i comportamenti degli utenti. I comportamenti di utenti online non possono essere equiparati semplicemente a interazioni in altri contesti sociali, perché risentono del funzionamento della piattaforma e delle modalità di interazione online. Tra i fattori specifici, le interazioni online sono rapide, spesso anonime, e gli utenti sono sommersi di informazione. Le relazioni sociali che si instaurano online producono effetti diversi, rispetto a quelle faccia a faccia, sulla percezione di sé, degli altri e di come gli altri possano reagire alle proprie idee. Questi ed altri fattori sono generalmente comuni anche ad altre piattaforme online, ma gli specifici meccanismi di interazione di ciascuna rendono le modalità di interazione sottilmente diverse. I comportamenti possono dunque essere studiati e spiegati con metodi che tengano conto del contesto specifico di questi media, differente da altri contesti sociali.[1][2][3]

Nello stesso tempo, le piattaforme online offrono molti vantaggi ai ricercatori che studiano i comportamenti. Gli utenti che contribuiscono a Wikipedia generano un grande volume di dati sulle revisioni delle voci e sul proprio comportamento. Questa mole di dati consente di testare ipotesi di ricerca su casi reali e di grande scala, piuttosto che sulla base di campioni limitati (quali vengono usati frequentemente nella ricerca in altri contesti)[4]: "le previsioni basate sui dati generati socialmente sono molto più economiche rispetto ai sondaggi d'opinione convenzionali, offrono la possibilità di evitare i classici pregiudizi insiti nel chiedere alle persone di riferire le loro opinioni e i loro comportamenti, possono fornire risultati molto più rapidamente ed essere aggiornate più rapidamente, e possono offrire vantaggi su fenomeni (come i movimenti del mercato azionario) per i quali non esistono modelli di previsione consolidati."[5]

Secondo Mako Hill e Shaw, la forma più diffusa e pervasiva di ricerca su Wikipedia non è affatto una ricerca "su" Wikipedia, ma una ricerca che usa Wikipedia come un comodo set di dati per studiare qualcos'altro. Wikipedia è divenuta centrale ad ogni campo di ricerca sociale e computazionale. Alcune aree di studio, come l'analisi dell'interazione uomo-macchina, la gestione della conoscenza, i sistemi informativi e la comunicazione online, hanno subito profondi cambiamenti negli ultimi vent'anni, guidati dalla ricerca su Wikipedia. Tra i campi di ricerca esiste quello sulla qualità e l'integrità dei contenuti di Wikipedia, che affronta anche questioni relative alla presenza di pregiudizi.[6]

Gran parte della ricerca sui comportamenti degli utenti usa metodi quantitativi (statistici) ed è rivolta alla versione inglese di Wikipedia.

Nonostante questa forte crescita della ricerca su e tramite Wikipedia, e della centralità di Wikipedia nella diffusione del sapere e dell'istruzione, buona parte dei suoi utilizzatori e anche del mondo accademico conserva ancora miti e fraintendimenti su di essa.[7][8]»

Regole e comportamenti[modifica wikitesto]

Wikipedia ha linee guida per prevenire pregiudizi e perseguire la attendibilità e neutralità dei contenuti. I principi fondamentali comprendono il punto di vista neutrale (NPOV: Neutral Point of View): "rappresentare in modo equo, proporzionato e, per quanto possibile, senza pregiudizi editoriali, tutti i punti di vista significativi che sono stati pubblicati da fonti affidabili su un argomento"; verificabilità: "le altre persone che utilizzano l'enciclopedia possono verificare che le informazioni provengano da una fonte affidabile"; e nessuna ricerca originale: "Gli articoli di Wikipedia non devono contenere ricerche originali".

In sostanza, Wikipedia non pretende di presentare la o le "verità" o di essere oggettiva, ma di descrivere i punti di vista su un dato argomento: le linee guida intendono assicurare che l'enciclopedia rimanga basata su fatti (intesi come cose dette da fonti autorevoli e verificabili). Tramite l'applicazione delle linee guida e i processi di scrittura di contenuti, i contributori lavorano attivamente alla costruzione della realtà, così come essa viene prodotta dall'approccio epistemologico alla base di Wikipedia.[9]

Wikipedia funziona come uno spazio che non solo definisce i confini di ciò che è conoscenza, ma modella anche "come conosciamo" attraverso i modi in cui consente la raccolta e la distribuzione della conoscenza. Tutto questo emerge attraverso i modi complessi in cui Wikipedia funziona sia come enciclopedia che come comunità.[9]

Queste considerazioni generali non sono specifiche a Wikipedia. Tutte le enciclopedie hanno sempre riflesso idee prevalenti nella propria epoca su cosa costituisca conoscenza, e su come essa debba essere rappresentata e diffusa. Le enciclopedie sono anche state influenzate da fattori politici ed ideologici della loro epoca.[10]

Gli studi sulla qualità dell'informazione fornita da Wikipedia tendono a confermare la sua generale attendibilità (ovvero la sua accuratezza, assenza di errori e rappresentazione dello stato reale della conoscenza prevalente).[11] Per quanto concerne la sua neutralità e l'eventuale presenza di pregiudizi, la ricerca ha considerato in che misura e come si manifestino pregiudizi politici, di genere, e culturali.[12][13][14] Secondo il sociologo Brian Martin, vi si possono anche riscontrare pregiudizi di scettici militanti contro teorie scientifiche o conoscenze non ortodosse.[15] Le diverse versioni linguistiche possono contenere pregiudizi specifici.[16]

Secondo lo studioso di organizzazioni online Jemielniak: "le voci di Wikipedia in diverse fasi di sviluppo possono essere variamente influenzate da punti di vista diametralmente diversi nello stesso momento. Ci sono ondate di lievi pregiudizi nelle Wikipedie più piccole, a seconda della composizione dei redattori in un dato momento, ma più un progetto diventa grande, meno è probabile che prevalgano i pregiudizi. In generale, su Wikipedia non prevalgono pregiudizi universali, intenzionali e a lungo termine, che si discostino dalle convinzioni dominanti della comunità accademica e para-accademica in generale."[17]

Esistono diversi meccanismi possibili di introduzione e mantenimento di pregiudizi in Wikipedia. I pregiudizi possono manifestarsi nell'inclusione di specifici contenuti in una voce o nell'omissione di altri, nelle scelte stilistiche e lessicali, nel comportamento dei contributori, nella selezione delle fonti e nel controllo esercitato dagli utenti sull'evoluzione delle voci e sulla copertura di determinati argomenti.[7][12][18] Pregiudizi possono anche manifestarsi nella struttura dei collegamenti ipertestuali di Wikipedia: essa ha un'influenza significativa sul processo di esplorazione di contenuti da parte degli utenti, la cui navigazione può essere guidata dai collegamenti dentro una determinata bolla di informazione.[19] Il contenuto di Wikipedia può anche risentire di pregiudizi che prevalgano nelle fonti secondarie disponibili su un dato argomento e considerate attendibili, dato che il principio di verificabilità dei contenuti su cui si basa Wikipedia richiede l'attribuzione a fonti secondarie autorevoli.[7][13]

Eventuali pregiudizi possono essere conseguenza di azioni deliberate o il frutto di come l'enciclopedia produce i suoi contenuti. Tra le azioni deliberate, Wikipedia è vulnerabile ad attacchi di disinformazione, tendenti a compromettere l'integrità della conoscenza rappresentata nell'enciclopedia. Alcuni utenti possono intenzionalmente introdurre e mantenere pregiudizi e parzialità e rendere così sistemico il pregiudizio nel trattamento di determinati argomenti. Wikipedia ha strumenti per difendersi da simili azioni, tra cui il pattugliamento delle modifiche da parte di utenti esperti, l'applicazione delle sue regole per verificare le informazioni e raggiungere il consenso, e la possibilità di rimodificare i contenuti. Difenderne l'integrità è però complicato dalla sua grande diffusione, dalla natura di collaborazione aperta, e dalle limitate dimensioni e talora diversità delle comunità di utenti attivi e di quelli impegnati nel pattugliamento e la verifica dei contenuti.[16]

Le dispute tra utenti sul contenuto delle voci, sulla verificabilità dei contenuti e sulla qualità sono relativamente frequenti. Le controversie tra contributori di Wikipedia sono molto studiate per sviluppare metodi e applicazioni volte a rilevare, stimare e comprendere le controversie nei testi e nella produzione e diffusione di conoscenza online.[20] Capire le dispute, l'applicazione delle regole e le influenze che possono verificarsi dentro Wikipedia è anche importante per mettere in luce come esista sempre una dimensione politica anche in progetti ispirati ad una idea di società aperta come Wikipedia.[21] Secondo Jemielniak, nonostante i principi di collaborazione di Wikipedia, la sua crescita è in realtà alimentata dai conflitti tra i contributori: "il sistema sociale di Wikipedia spesso incanala l'energia delle controversie nello sviluppo delle voci".[22]

L'introduzione di pregiudizi è centrale a molte delle controversie che possono sorgere tra utenti di Wikipedia. Di fronte al dissenso e ai tentativi di correggere i pregiudizi da parte degli utenti, altri utenti possono cercare di mantenere i pregiudizi ricorrendo al ripetuto annullamento delle modifiche (edit war), all'invocazione selettiva delle regole di Wikipedia, agli attacchi contro gli utenti e alla marginalizzazione ed estromissione degli utenti dissenzienti. Una prolungata controversia su pregiudizi può indurre alla presentazione di reclami, alla mobilitazione di contro-redazioni e alla denuncia della distorsione.[23] Spesso le controversie più accese non si risolvono tramite accordo, ma per estenuazione di una delle parti.[22] L'esclusione di nuovi punti di vista può anche essere la conseguenza dell'esclusione o scoraggiamento di nuovi utenti, che possono verificarsi per tanti fattori, dalla difficoltà di apprendere come contribuire nel rispetto delle numerose regole, agli effetti intenzionali o più spesso non intenzionali del pattugliamento troppo aggressivo da parte degli utenti più esperti.[24][25] Se si sollevano domande sulle politiche, le pratiche e le norme comunitarie, la comunità di utenti spesso reagisce in modo difensivo.[13]

I pregiudizi possono anche essere inconsci e non intenzionali, ovvero riflettere i valori profondi e il contesto culturale degli utenti.[26] Al di là di Wikipedia, la questione se la conoscenza possa essere oggettiva o neutra tocca una delle questioni fondamentali dell'epistemologia: cosa costituisca verità o conoscenza. Una concezione molto diffusa oggi è che la conoscenza, anche scientifica, sia un costrutto sociale: la sua validità può essere valutata propriamente solo considerando le interazioni sociali che l'hanno prodotta e la loro robustezza.[27] I dati raccolti da Wikipedia su come i propri contenuti sono stati scritti consentono di registrare e studiare come tali conoscenze vengano prodotte.[28] La struttura della piattaforma wiki rende trasparente la produzione del contenuto (la cronologia di chi ha scritto o modificato cosa; i commenti degli utenti nelle pagine di discussione di ogni voce). Secondo Vetter, dunque, sebbene Wikipedia non riesca a riflettere una conoscenza universale (perché le regole di enciclopedicità delle voci e di verificabilità e attendibilità delle fonti di fatto causano una selezione della conoscenza rappresentabile), la sua trasparenza e perenne modificabilità consentono alla conoscenza in essa contenuta di evolvere continuamente insieme alla società, alla cultura e alla tecnologia.[29]

Produzione collettiva online di conoscenza e neutralità[modifica wikitesto]

La qualità di una conoscenza ha diverse dimensioni: accuratezza, completezza, aggiornamento, affidabilità e verificabilità.[11] Il modello di conoscenza rappresentato da Wikipedia è diverso da quello classico, basato sulla conoscenza e autorevolezza di esperti. Il fatto che la conoscenza in Wikipedia sia prodotta da un lavoro collettivo richiede di applicare un approccio epistemologico diverso per valutarne la qualità del prodotto: occorre tener conto dei meccanismi usati per produrre la sua conoscenza.[30]

Se si considera l'obiettivo di neutralità di Wikipedia (un aspetto della più ampia questione della qualità), si osserva che esso è ispirato dall'ipotesi della saggezza della folla, cioè l'opinione collettiva di un gruppo esteso, eterogeneo e indipendente di individui. L'ipotesi è che un grande gruppo di persone possa essere collettivamente più intelligente di un singolo esperto, specialmente nel caso di decisioni o previsioni complesse. Nel caso della neutralità, l'ipotesi è che, mentre il punto di vista di un singolo individuo può essere intrinsecamente distorto, in un'opera collettiva il gran numero di contributi individuali indipendenti contribuisca a cancellare le distorsioni o il rumore, per produrre un risultato più equilibrato.[31]

I risultati di una ricerca sperimentale del 2018 sulla generazione collettiva online di conoscenza indicano che talora essa produce qualità simile a quella raggiunta da esperti, talora no. Nel caso di argomenti contestati, la ricerca suggerisce che processi collettivi possono facilitare la produttività, l'innovazione e l'integrazione.[31] Tuttavia, studi sperimentali non hanno finora prodotto risultati chiari sugli effetti della diversità politica nelle produzioni collettive di conoscenza.[32] Esse possono anche essere affette da una moltitudine di pregiudizi, per una serie di cause: la difficoltà di raggiungere un consenso tra i contributori; i contributori, anche se intenzionati a raggiungere risultati neutrali, possono interpretare la neutralità in maniera diversa; l'interazione virtuale, priva di un contesto sociale condiviso, può rendere difficile la comprensione reciproca. Inoltre, mentre la contribuzione è aperta a tutti, di fatto i processi online possono produrre auto-selezioni dei contributori, sulla base della diligenza e persistenza individuale; o per una graduale perdita di diversità nel gruppo e la creazione di una maggioranza omogenea che cerchi interpretazioni che rassicurino i propri pregiudizi; in molte co-produzioni online di fatto si osserva che un piccolo numero di utenti fa la maggior parte del lavoro.[27][31][32]

Wikipedia ha potenzialmente gli ingredienti per generare la cosiddetta saggezza della folla; tuttavia le condizioni di avere un grande numero di contributori, indipendenti ed eterogenei possono verificarsi o meno.[33] La questione della neutralità di Wikipedia e dei fattori che la producano ha meritato attenzione sin dagli inizi della sua storia.[34] La ricerca su questa dimensione di Wikipedia vuole determinare la validità dell'ipotesi di fondo: in che misura la conoscenza prodotta dalle organizzazioni basate sulla folla, come Wikipedia, è polarizzata o riflette pregiudizi? è più o meno distorta di quella prodotta dagli esperti? quali fattori rendono la differenza maggiore o minore?[31]

Presenza di pregiudizi ideologici nelle voci relative alla politica[modifica wikitesto]

Uno studio che ha misurato la frequenza di controversie in dieci versioni diverse di Wikipedia, ha notato che la politica (politici, partiti politici, movimenti politici e ideologie) è la categoria che genera il maggior numero di controversie (circa il 25% delle controversie di un campione di voci estratto tra tutte le versioni linguistiche).[35]

Uno studio empirico del 2012[36] ha esaminato un campione di 28.382 voci relative alla politica statunitense a partire da gennaio 2011: lo studio ha misurato il loro grado di pregiudizio tramite un indice di tendenza politica ("slant index") sviluppato da ricerca precedente per misurare il pregiudizio nei giornali.[37] Questo indice di orientamento politico intende misurare una preferenza ideologica verso gli orientamenti politici di democratici o repubblicani sulla base della frequenza di frasi chiave all'interno del testo (ad esempio "guerra in Iraq", "diritti civili", "deficit commerciale", "crescita economica", "immigrazione illegale" e " sicurezza delle frontiere”). A ogni termine viene assegnato un indice di orientamento politico in base alla frequenza con cui lo stesso termine viene utilizzato da esponenti democratici o repubblicani negli atti del Congresso degli Stati Uniti. Gli autori hanno concluso che le voci risalenti ai primi anni di Wikipedia tendevano ad un orientamento politico democratico, mentre quelle create più di recente avevano un punto di vista più equilibrato. Gli autori dello studio suggeriscono che le voci, una volta redatte, non cambiano in modo significativo il loro eventuale pregiudizio con successive revisioni. Hanno piuttosto notato che che nel tempo articoli più recenti contenenti punti di vista opposti sono stati responsabili di riequilibrare la media dei punti di vista tra le voci.[36]

In uno studio successivo e più ampio, gli stessi ricercatori hanno confrontato direttamente circa 4.000 voci relative alla politica statunitense tra Wikipedia e gli articoli corrispondenti di Enciclopedia Britannica (scritti da esperti). Questo studio ha utilizzato metodi simili al loro studio precedente. Gli autori hanno scoperto che gli articoli di Wikipedia sono più inclini ad esporre opinioni di parte rispetto agli articoli della Britannica. Tuttavia, questo effetto scompare se la frequenza di indicatori di orientamento politico viene misurata per parola e non sulla totalità del testo delle voci: le voci di Wikipedia tendono ad essere più lunghe di quelle di Britannica, e quindi contributi non neutrali possono risultare quantitativamente più diffusi. Gli autori hanno inoltre evidenziato che la frequenza di indicatori di orientamento politico in una voce diminuisce dopo più revisioni e, qualora le voci siano state sostanzialmente riviste, la frequenza di orientamento pregiudiziale rispetto a Britannica diviene statisticamente trascurabile. L'implicazione, secondo gli autori, è che sono necessari molti contributi per ridurre considerevoli pregiudizi e avvicinarsi alla neutralità.[31]

Gli studi citati hanno analizzato la presenza di pregiudizi in Wikipedia sulla base dei contenuti delle voci. Uno studio del 2022 sull'edizione inglese ha invece esaminato le citazioni di fonti giornalistiche e altri media che appaiono nelle voci. L'obiettivo era valutare se esista una prevalenza di fonti liberali o conservatrici, come indicatore di un'eventuale polarizzazione politica dell'enciclopedia. Lo studio ha riscontrato una moderata ma sistematica prevalenza di fonti giornalistiche liberali. L'analisi ha anche dimostrato che non esiste una chiara relazione tra l'affidabilità di una fonte di notizie e la sua inclinazione politica: ciò suggerisce che la moderata prevalenza di fonti giornalistiche liberali potrebbe non essere la conseguenza della ricerca di affidabilità giornalistica.[16]

Uno studio sull'edizione inglese pubblicato nel 2015[18] ha analizzato se esiste una differenza nella rimozione di informazioni positive o negative nelle biografie di senatori americani. I ricercatori hanno aggiunto fatti (attribuiti a fonti) positivi o negativi alle voci biografiche di senatori americani. Hanno determinato che i fatti negativi hanno maggiori probabilità di essere rimossi e vengono rimossi più rapidamente dei fatti positivi. I ricercatori hanno dunque concluso che esiste un sostanziale pregiudizio editoriale per le voci di Wikipedia degli attuali senatori degli Stati Uniti. In un test condotto sulle pagine di Wikipedia dei senatori recentemente ritirati e deceduti, non è stata riscontrata la stessa differenza di rimozione fra fatti positivi e negativi, il che suggerisce che questo pregiudizio è limitato alle pagine dei politici in attività e non è sistemico per Wikipedia. Gli autori ne concludono che le informazioni prodotte da un progetto collettivo come Wikipedia possono essere soggette a un pregiudizio editoriale che favorisce chi è politicamente attivo.

Collaborazione tra utenti su contenuti contestati o distorti[modifica wikitesto]

Uno studio del 2016[38] sulla versione di lingua inglese si è concentrato sui comportamenti degli utenti che contribuiscono alla redazione delle voci. Lavorando di nuovo all'interno di un sottoinsieme di articoli relativi alla politica statunitense e utilizzando la terminologia introdotta nell'articolo del 2012, gli autori offrono diversi risultati significativi. Hanno scoperto che è leggermente più probabile che gli utenti contribuiscano a voci che mostrano un'inclinazione opposta alla propria, una tendenza che gli autori chiamano "l'attrazione degli opposti". Hanno inoltre evidenziato che i dibattiti su Wikipedia tendono a mostrare una "prevalenza di conversazioni non segregate nel tempo", il che significa che i dibattiti su Wikipedia tendono a coinvolgere utenti di opinioni diverse – che gli autori chiamavano non segregate – al contrario dei dibattiti che coinvolgono solo utenti con opinioni omogenee (dibattiti segregati). La conversazione non segregata dovrebbe favorire la convergenza verso un punto di vista neutrale. Hanno anche scoperto che il grado di pregiudizio di un utente diminuisce nel tempo e con l'esperienza e diminuisce più rapidamente tra gli utenti impegnati a modificare voci ricche di pregiudizi. Hanno anche stimato che, in media, ci vuole circa un anno in più perché il materiale di orientamento repubblicano raggiunga un punto di vista neutrale, rispetto al materiale di orientamento democratico.

Uno studio pubblicato nel 2019 e condotto tra utenti americani della versione inglese ha similmente indicato che esiste una notevole polarizzazione di orientamento politico tra gli utenti che contribuiscono ad argomenti politici; e che più è elevato il numero di modifiche di una voce, più equilibrato è l'orientamento politico medio degli utenti che vi contribuiscono. Lo studio ha indicato che la qualità delle voci (per come è riconosciuta dalla comunità di Wikipedia) migliora col crescere della diversità di orientamento politico. Gruppi di utenti composti equilibratamente di individui politicamente polarizzati producono voci mediamente migliori rispetto ai gruppi composti da utenti molto allineati politicamente e persino da moderati. Gli effetti positivi della polarizzazione sono stati osservati nelle voci di politica, questioni sociali e persino di scienze. Gruppi politicamente polarizzati hanno frequenti disaccordi che stimolano un dibattito focalizzato e, di conseguenza, modifiche di qualità superiore, più robuste e complete. Questi risultati empirici devono però essere temperati dalla considerazione che i gruppi di contributori delle voci possono auto-selezionarsi e possono formarsi non casualmente. I ricercatori hanno anche commentato che gruppi molto polarizzati possono produrre risultati che singoli utenti possono trovare insoddisfacenti (perché non allineati ai propri pregiudizi); e che i frequenti e intensi disaccordi richiedono una vigorosa mediazione e l'applicazione delle regole di Wikipedia. Di converso, scoraggiare pesantemente i pregiudizi può rendere la piattaforma inefficiente e insostenibile.[32][39]

Un altro studio del 2012 sulle guerre di modifiche (edit war) in Wikipedia[40] ha suggerito che anche negli articoli controversi spesso è possibile raggiungere un consenso in tempi ragionevoli. I conflitti che si prolungano sono determinati dall'afflusso di nuovi utenti: la maggior parte delle guerre di modifiche sono portate avanti solo da alcuni utenti, che spesso sono poco prolifici, ma fortemente conflittuali. I dibattiti si concludono meno sulla base del merito che per interventi esterni, per puro sfinimento o per l'evidente predominio numerico di un gruppo.

Sulla base dei risultati disponibili dalla ricerca sperimentale, Holtz e altri[4] hanno proposto un modello teorico della produzione di conoscenza in Wikipedia usando il concetto di "attrito produttivo": è necessario che ci sia un certo grado di conflitto interpretativo nel gruppo perché un processo collettivo produca conoscenza. Il modello è analogo a quello di conflitto socio-cognitivo usato in psicologia per spiegare l'apprendimento individuale. Il modello ipotizza che se le tensioni (o attrito) in un gruppo (o il conflitto socio-cognitivo di un individuo rispetto a un problema) sono troppo basse, le possibilità di costruzione della conoscenza (o, nel caso di un individuo, le possibilità di apprendimento) sono limitate, perché la conoscenza già esistente è ampiamente sufficiente per risolvere il problema in questione. Se invece l'attrito dentro una comunità di contributori è troppo alto, esso può portare a una situazione in cui le idee rispettive vengono ignorate o il gruppo si divide (come un individuo, di fronte a una novità eccessiva, potrebbe non riuscire ad adattarsi e ad apprendere).

Indagini sulla produzione ed uso di contenuti politici in Wikipedia[modifica wikitesto]

La produzione o l'uso di contenuti di interesse politico in Wikipedia ha attirato l'attenzione di ricercatori per identificare comportamenti che possano essere indicatori di tendenze pubbliche più generali durante le elezioni.[41] Alcuni studi hanno dimostrato che i contributori alle voci di Wikipedia sono stimolati dalle notizie politiche, come le campagne elettorali.[42] Per quanto riguarda i lettori, uno studio del 2016 su 14 versioni linguistiche di Wikipedia in relazione a due elezioni europee ha suggerito che le statistiche di accessi alle voci (pageviews) possono essere usate per prevedere l'affluenza alle urne e i cambiamenti nelle quote di voto dei partiti, anche se offrono poche informazioni sui risultati assoluti delle votazioni.[5]

Uno studio del 2013 di utenti che dichiarano apertamente il proprio sostengo al partito Democratico oppure al partito Repubblicano statunitensi ha indicato che essi preferiscono contribuire a voci affini al proprio orientamento politico, ma non mostrano comportamenti di editing polarizzati: non evitano la collaborazione con gli avversari e non preferiscono quella con gli alleati. Gli autori hanno ipotizzato che l'identità condivisa di "essere wikipediano" possa essere abbastanza forte da trionfare su altri aspetti potenzialmente divisivi dell'identità personale, come l'appartenenza politica. In molte piattaforme sociali (per esempio Twitter, blog) gli utenti danno segni di forte polarizzazione, perché tendono a interagire prevalentemente con altri utenti di orientamento simile. Wikipedia, invece, si collocherebbe tra quelle piattaforme (come i forum) nelle quali gli utenti mostrano un più elevato grado di interazione trasversale tra gli orientamenti politici.[41]

Uso critico e didattico di Wikipedia[modifica wikitesto]

Tra gli accademici c'è un forte consenso sul fatto che, volenti o nolenti, Wikipedia è una fonte dominante nell'odierno panorama dell'informazione: essi quindi raccomandano che gli studenti acquisiscano (come parte essenziale della propria alfabetizzazione sull'informazione) la capacità di valutare e usare criticamente Wikipedia, così come altre risorse Internet contemporanee. Esistono numerose esperienze educative di insegnamento a leggere criticamente Wikipedia, superando approcci tradizionali basati sull'autorevolezza dell'autore.[43][44]

Secondo McDowell e Vetter, imparare a contribuire attivamente a Wikipedia e esplorare l'uso delle sue tre linee guida fondamentali costituiscono un'esperienza coinvolgente di alfabetizzazione informativa, soprattutto per gli utenti di Wikipedia nuovi o alle prime armi. Comprendere anche solo una piccola parte di come l'informazione diventa conoscenza in Wikipedia può aumentare le competenze informative su altre piattaforme digitali, soprattutto per diventare valutatori più attivi e critici dell'informazione digitale.[45]

Dibattiti nei media sulla parzialità di Wikipedia[modifica wikitesto]

In seguito all'affermazione di Wikipedia come piattaforma di creazione collaborativa e diffusione di conoscenza, i media si sono occupati regolarmente dell'accuratezza e neutralità dell'enciclopedia.[46]

Media americani o internazionali hanno dato eco ai risultati delle ricerche accademiche sulla parzialità di Wikipedia e sull'efficacia dei meccanismi di controllo.[47][48][49][50][51][52]

Commenti sui media hanno anche sottolineato l'importanza di allargare la diversità dei contributori per garantire la pluralità dei punti di vista;[53] l'efficacia dei meccanismi di gestione dei conflitti;[54] casi notevoli di voci contestate i cui conflitti si sono poi estesi ad altri social media, dove i meccanismi di risoluzione di conflitti possono essere molto diversi e produrre esiti differenti da quanto accade in Wikipedia;[55] la diffusione di manipolazioni specie in versioni linguistiche con pochi contributori.[56]

  1. ^ (EN) Hui Hao e Rudolph Bedeley, Biases in Online Opinion Platforms: A Literature Review and Future Direction, in AMCIS 2020 Proceedings, 10 agosto 2020. URL consultato il 16 dicembre 2022.
  2. ^ (EN) Hui Hao, Rudolph T. Bedeley e Torupallab Ghoshal, Cognitive Biases in Online Opinion Platforms: A Review and Mapping, in SSRN Electronic Journal, 2022, DOI:10.2139/ssrn.4059282. URL consultato il 16 dicembre 2022.
  3. ^ Bruckman, 2022.
  4. ^ a b (EN) Peter Holtz, Joachim Kimmerle e Ulrike Cress, Using big data techniques for measuring productive friction in mass collaboration online environments, in International Journal of Computer-Supported Collaborative Learning, vol. 13, n. 4, 23 ottobre 2018, pp. 439–456, DOI:10.1007/s11412-018-9285-y. URL consultato l'11 dicembre 2022.
  5. ^ a b (EN) Taha Yasseri e Jonathan Bright, Wikipedia traffic data and electoral prediction: towards theoretically informed models, in EPJ Data Science, vol. 5, n. 1, 18 giugno 2016, DOI:10.1140/epjds/s13688-016-0083-3. URL consultato il 16 dicembre 2022.
  6. ^ (EN) Benjamin Mako Hill e Aaron Shaw, The Most Important Laboratory for Social Scientific and Computing Research in History, in Joseph Reagle e Jackie Koerner, Wikipedia @ 20. Stories of an Incomplete Revolution, MIT Press, 2020. URL consultato il 16 gennaio 2023.
  7. ^ a b c McDowell e Vetter, 2022, pp. ix-xviii.
  8. ^ Jemielniak, 2014, Intrdouction.
  9. ^ a b McDowell e Vetter, 2022, cap. 1.
  10. ^ Tkacz, 2014, pp 7-19.
  11. ^ a b Mostafa Mesgari, Chitu Okoli e Mohamad Mehdi, “The sum of all human knowledge”: A systematic review of scholarly research on the content of Wikipedia, in Journal of the Association for Information Science and Technology, vol. 66, n. 2, 2 dicembre 2014, pp. 219–245, DOI:10.1002/asi.23172. URL consultato il 25 gennaio 2023.
  12. ^ a b (EN) Christoph Hube, Bias in Wikipedia (PDF), in Proceedings of the 26th International Conference on World Wide Web Companion - WWW '17 Companion, ACM Press, 2017, DOI:10.1145/3041021.3053375. URL consultato l'11 dicembre 2022.
  13. ^ a b c (EN) Jackie Koerner, Wikipedia Has a Bias Problem, in Wikipedia @ 20. Stories of an Incomplete Revolution, MIT Press, 2020. URL consultato il 16 gennaio 2023.
  14. ^ Pamela Graham, “An Encyclopedia, Not an Experiment in Democracy”: Wikipedia Biographies, Authorship, and the Wikipedia Subject, in Biography, vol. 38, n. 2, 2015, pp. 222–244, DOI:10.1353/bio.2015.0023. URL consultato il 28 gennaio 2023.
  15. ^ (EN) Brian Martin, Policing orthodoxy on Wikipedia: Skeptics in action?, in Journal of Science Communication, vol. 20, n. 02, 12 aprile 2021, pp. A09, DOI:10.22323/2.20020209. URL consultato il 18 dicembre 2022.
  16. ^ a b c (EN) Puyu Yang e Giovanni Colavizza, Polarization and reliability of news sources in Wikipedia, in arXiv preprint arXiv:2210.16065, 2022.
  17. ^ Jemielniak, 2014, Introduction.
  18. ^ a b (EN) Joshua L. Kalla e Peter M. Aronow, Editorial Bias in Crowd-Sourced Political Information, in PLOS ONE, vol. 10, n. 9, 2 settembre 2015, pp. e0136327, DOI:10.1371/journal.pone.0136327. URL consultato il 6 gennaio 2023.
  19. ^ (EN) Cristina Menghini, Aris Anagnostopoulos e Eli Upfal, How Inclusive Are Wikipedia’s Hyperlinks in Articles Covering Polarizing Topics?, in 2021 IEEE International Conference on Big Data (Big Data), IEEE, 15 dicembre 2021, DOI:10.1109/bigdata52589.2021.9671943. URL consultato il 3 gennaio 2023.
  20. ^ Kazimierz Zielinski, Radoslaw Nielek e Adam Wierzbicki, Computing controversy: Formal model and algorithms for detecting controversy on Wikipedia and in search queries, in Information Processing & Management, vol. 54, n. 1, 2018-01, pp. 14–36, DOI:10.1016/j.ipm.2017.08.005. URL consultato il 28 gennaio 2023.
  21. ^ Tkacz, 2014.
  22. ^ a b Jemielniak, 2014. Cap. 3.
  23. ^ (EN) Brian Martin, Persistent Bias on Wikipedia, in Social Science Computer Review, vol. 36, n. 3, 21 giugno 2017, pp. 379–388, DOI:10.1177/0894439317715434. URL consultato il 18 dicembre 2022.
  24. ^ McDowell e Vetter, 2022, cap. 4.
  25. ^ Jemielniak, 2014, Cap. 4.
  26. ^ McDowell e Vetter, 2022, cap. 3.
  27. ^ a b Bruckman, 2022
  28. ^ (EN) Robert E. Cummings, The First Twenty Years of Teaching with Wikipedia: From Faculty Enemy to Faculty Enabler, in Joseph Reagle e Jackie Koerner, Wikipedia @ 20, MIT Press, 13 ottobre 2020, ISBN 978-0-262-53817-6. URL consultato il 16 gennaio 2023.
  29. ^ (EN) Matthew A. Vetter, Possible Enlightenments: Wikipedia’s Encyclopedic Promise and Epistemological Failure, in Wikipedia @ 20, MIT Press, 2020 [2020]. URL consultato il 16 gennaio 2023.
  30. ^ Chitu Okoli, Mohamad Mehdi e Mostafa Mesgari, The People’s Encyclopedia Under the Gaze of the Sages: A Systematic Review of Scholarly Research on Wikipedia, in SSRN Electronic Journal, 2012, DOI:10.2139/ssrn.2021326. URL consultato il 25 gennaio 2023.
  31. ^ a b c d e (EN) Shane Greenstein e Feng Zhu, Do Experts or Crowd-Based Models Produce More Bias? Evidence from Encyclopedia Britannica and Wikipedia (PDF), in MIS Quarterly, vol. 42, n. 3, 3 marzo 2018, pp. 945–959, DOI:10.25300/misq/2018/14084. URL consultato il 3 dicembre 2022.
  32. ^ a b c (EN) Feng Shi, Misha Teplitskiy e Eamon Duede, The wisdom of polarized crowds, in Nature Human Behaviour, vol. 3, n. 4, 4 marzo 2019, pp. 329–336, DOI:10.1038/s41562-019-0541-6. URL consultato l'11 dicembre 2022.
  33. ^ (EN) Don Fallis, Toward an epistemology ofWikipedia (PDF), in Journal of the American Society for Information Science and Technology, vol. 59, n. 10, 2008-08, pp. 1662–1674, DOI:10.1002/asi.20870. URL consultato il 30 dicembre 2022.
  34. ^ (EN) Joseph Michael Reagle Jr., Good Faith Collaboration: The Culture of Wikipedia (History and foundations of information science), MIT Press, 2010, OCLC 939167919. URL consultato l'11 dicembre 2022.
  35. ^ Yasseri, Taha and Spoerri, Anselm and Graham, Mark and Kertesz, Janos, The Most Controversial Topics in Wikipedia: A Multilingual and Geographical Analysis, in Fichman P., Hara N. (a cura di), Global Wikipedia: International and Cross-Cultural Issues in Online Collaboration, Scarecrow Press, 2014, http://dx.doi.org/10.2139/ssrn.2269392.
  36. ^ a b (EN) Shane Greenstein e Feng Zhu, Is Wikipedia Biased?, in American Economic Review, vol. 102, n. 3, 1º maggio 2012, pp. 343–348, DOI:10.1257/aer.102.3.343. URL consultato il 3 dicembre 2022.
  37. ^ (EN) Matthew Gentzkow e Jesse M. Shapiro, What Drives Media Slant? Evidence From U.S. Daily Newspapers, in Econometrica, vol. 78, n. 1, 2010, pp. 35–71, DOI:10.3982/ECTA7195. URL consultato il 3 dicembre 2022.
  38. ^ (EN) Shane Greenstein, Yuan Gu e Feng Zhu, Ideological Segregation among Online Collaborators: Evidence from Wikipedians (PDF), National Bureau of Economic Research, 2016-10. URL consultato il 3 dicembre 2022.
  39. ^ (EN) Taha Yasseri e Filippo Menczer, Can the Wikipedia moderation model rescue the social marketplace of ideas?, in ArXiv, 2021.
  40. ^ (EN) Taha Yasseri, Robert Sumi e András Rung, Dynamics of Conflicts in Wikipedia, in PLOS ONE, vol. 7, n. 6, 20 giugno 2012, pp. e38869, DOI:10.1371/journal.pone.0038869. URL consultato il 3 gennaio 2023.
  41. ^ a b (EN) Jessica J. Neff, David Laniado e Karolin E. Kappler, Jointly They Edit: Examining the Impact of Community Identification on Political Interaction in Wikipedia, in PLOS ONE, vol. 8, n. 4, 3 aprile 2013, pp. e60584, DOI:10.1371/journal.pone.0060584. URL consultato il 16 dicembre 2022.
  42. ^ (EN) Brian Keegan, The Dynamics of Peer-Produced Political Information During the 2016 U.S. Presidential Campaign, in Proceedings of the International AAAI Conference on Web and Social Media, vol. 12, n. 1, 15 giugno 2018, DOI:10.1609/icwsm.v12i1.15043. URL consultato il 16 dicembre 2022.
  43. ^ Chitu Okoli, Mohamad Mehdi e Mostafa Mesgari, Wikipedia in the eyes of its beholders: A systematic review of scholarly research on Wikipedia readers and readership, in Journal of the Association for Information Science and Technology, vol. 65, n. 12, 8 luglio 2014, pp. 2381–2403, DOI:10.1002/asi.23162. URL consultato il 25 gennaio 2023.
  44. ^ Morello, 2022.
  45. ^ McDowell e Vetter, 2022, cap. 2.
  46. ^ Una rassegna delle percezioni di Wikipedia prevalenti nei media dalla sua fondazione à disponibile in (EN) Omer Benjakob e Stephen Harrison, From Anarchy to Wikiality, Glaring Bias to Good Cop: Press Coverage of Wikipedia’s First Two Decades, in Wikipedia @ 20, MIT Press, 2020.
  47. ^ (EN) Suzy Khimm, Study: Wikipedia perpetuates political bias, in The Washington Post, 18 dicembre 2012.
  48. ^ (EN) Walter Frick, Wikipedia Is More Biased Than Britannica, but Don’t Blame the Crowd, in Harvard Business Review, 3 dicembre 2014.
  49. ^ (EN) Alexis Sobel Fitts, Welcome to the Wikipedia of the Alt-Right, in Wired, 21 giugno 2017. URL consultato il 1º giugno 2018 (archiviato dall'url originale il 17 gennaio 2018).
  50. ^ (EN) Ananya Bhattacharya, Wikipedia’s not as biased as you might think, in Quartz, 6 novembre 2016.
  51. ^ (EN) Jeff Guo, Wikipedia is fixing one of the Internet’s biggest flaws, in The Washington Post, 25 ottobre 2016.
  52. ^ (EN) Michael Bernick, The Power Of The Wikimedia Movement Beyond Wikimedia, in Forbes, 28 marzo 2018.
  53. ^ (EN) Is Wikipedia Woke?, su Bloomberg News, 22 dicembre 2016. URL consultato il 5 gennaio 2023.
  54. ^ (EN) Ina Fried, Wikipedia blazes a trail to agreement in a divided world, in Axios, 15 luglio 2022.
  55. ^ (EN) Samuel Breslow, How a False Claim About Wikipedia Sparked a Right-Wing Media Frenzy, in Slate, 11 agosto 2022. URL consultato il 5 gennaio 2023.
  56. ^ (EN) Yumiko Sato, Non-English Editions of Wikipedia Have a Misinformation Problem, in Slate, 19 marzo 2021. URL consultato il 5 gennaio 2023.

Bibliografia[modifica wikitesto]