Bolla di filtraggio

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

La bolla di filtraggio[1] è il risultato del sistema di personalizzazione dei risultati di ricerche su siti che registrano la storia del comportamento dell'utente. Questi siti sono in grado di utilizzare informazioni sull'utente (come posizione, click precedenti, ricerche passate) per scegliere selettivamente, tra tutte le risposte, quelle che vorrà vedere l'utente stesso. L'effetto è di escluderlo da informazioni che sono in contrasto con il suo punto di vista, isolandolo in tal modo nella sua bolla culturale o ideologica. Esempi importanti sono la ricerca personalizzata di Google e le notizie personalizzate di Facebook. Il termine è stato coniato dall'attivista internet Eli Pariser nel suo libro The Filter Bubble: What the Internet Is Hiding from You, secondo cui gli utenti vengono esposti di meno a punti di vista conflittuali e sono isolati intellettualmente nella propria bolla di informazioni.[2][3][4][5] L'effetto della «bolla» può avere delle implicazioni negative da un punto di vista civico, secondo Pariser, ma ci sono punti di vista differenti che suggeriscono che l'effetto sia minimo[5] e affrontabile.[6]

Definizione[modifica | modifica wikitesto]

Pariser ha definito il suo concetto di bolla di filtraggio in termini più formali come «quel personale ecosistema di informazioni che viene soddisfatto da alcuni algoritmi».[2] Sono stati utilizzati altri termini per descrivere questo fenomeno, inclusi «cornice ideologica»[3] o una «sfera metaforica che ti circonda durante la ricerca su internet».[7] La cronologia delle ricerche passate viene costruita in un momento storico dove l'utente di internet indica il suo interesse negli argomenti «cliccando link, vedendo gli amici, mettendo i film nella tua scaletta, leggendo nuove storie» e così via.[7] Un'azienda può quindi usare queste informazioni per inserire pubblicità mirate all'utente o per renderle più evidenti nella pagina dei risultati della ricerca.[7] La preoccupazione di Pariser è in qualche modo simile a quella espressa da Tim Berners-Lee in un report del 2010 sul The Guardian sull'effetto di una catena di Hotel California (You can check in, but you can’t check out) cosa che succede quando siti di rete sociale oscurano i contenuti di siti concorrenti – come strada per ottenere una maggiore condivisione tra tutti gli utenti di internet – di modo che «più li usi, più rimani chiuso» nelle informazioni interne al sito specifico. Diventa un «magazzino di contenuti chiuso» con il rischio di frammentare il Web mondiale, secondo Berners-Lee.[8]

Nel libro sulla bolla di filtraggio, Pariser avverte che un potenziale difetto della ricerca filtrata è che «ci taglia da nuove idee, argomenti e informazioni importanti»[9] e «crea l'impressione che i nostri stretti interessi siano tutto ciò che esiste».[3] Ciò è potenzialmente dannoso sia per gli individui che per la società, nella sua visione. Critica Google e Facebook di offrire agli utenti «troppe caramelle, e non abbastanza verdure»[10] Avvisa che «algoritmi invisibili che modificano il web» potrebbero «limitare la nostra esposizione a nuove informazioni e restringere la nostra mentalità». Sempre secondo Pariser, gli effetti negativi delle bolle di filtraggio includono il danno alla società nel suo complesso nel senso che questi sono in grado di «indebolire il discorso civico» e rendere le persone più vulnerabili a «manipolazioni e propaganda».[3] Ha scritto:

(EN)

«A world constructed from the familiar is a world in which there’s nothing to learn ... (since there is) invisible autopropaganda, indoctrinating us with our own ideas.»

(IT)

«Un mondo costruito su ciò che ci è familiare è un mondo dove non c'è nulla da imparare... (in quanto c'è) un'invisibile autopropaganda che ci indottrina con le nostre proprie idee.»

Reazioni[modifica | modifica wikitesto]

Ci sono studi contrastanti sull'estensione dei filtri personalizzati e se questi siano benefici o dannosi. L'analista Jacob Weisberg, che scrive su "Slate", ha fatto un piccolo esperimento non scientifico per mettere alla prova la teoria di Pariser coinvolgendo cinque soggetti con diversi background culturali. Effettuando esattamente la stessa ricerca i risultati ottenuti dai cinque partecipanti erano praticamente identici, per quattro diverse ricerche, il che suggerisce che le bolle di filtraggio non avessero avuto effetto. Questo lo ha portato alla concludere che sarebbe eccessiva la visione secondo cui tutte le persone si nutrirebbero solo di sé stesse.[3] Uno studio scientifico della Wharton School dell'Università della Pennsylvania, che ha analizzato i suggerimenti personalizzati, ha poi trovato che questi filtri posso creare comunione, non frammentazione, nei gusti musicali online.[12] I consumatori apparentemente usano i loro filtri per espandere i loro gusti, non per limitarli.[12] Il critico letterario Paul Boutin ha condotto un esperimento simile con persone con diverse storie di ricerca, e ha trovato risultati simili a quelli di Weisberg con risultati di ricerca pressoché identici.[5] Jonathan Zittrain, professore di legge ad Harvard, ha contestato l'estensione per cui i filtri personalizzati distorcano i risultati delle ricerche di Google: «Gli effetti della personalizzazione della ricerca sono stati chiariti».[3] Inoltre, ci sono relazioni secondo cui gli utenti posso disattivare le opzioni di personalizzazione su Google se lo desiderano[13] cancellando la cronologia e grazie ad altri metodi.[5] Un portavoce di Google ha suggerito che alcuni algoritmi sono stati aggiunti al motore di ricerca esplicitamente per «limitare la personalizzazione e promuovere la varietà».[3]

Ciò nonostante ci sono relazioni secondo cui Google e altri siti sono in possesso di grandi quantità di informazioni che potrebbero utilizzare per personalizzare ulteriormente l'esperienza dell'utente su internet se scegliessero di farlo. Un rapporto ha suggerito che Google può tenere traccia della cronologia degli utenti anche se questi non hanno un account Google o non hanno effettuato l'accesso.[5] Una relazione riguardava il fatto che Google ha raccolto 10 anni di informazioni grazie a varie risorse come Gmail, Google Maps, e altri servizi connessi al motore di ricerca,[4] anche se un rapporto al contrario affermi che provare a personalizzare internet per ciascun utente è una sfida ancora da raggiungere per le aziende nonostante l'enorme quantità di dati dal web. L'analista della CNN Doug Gross ha suggerito che la ricerca filtrata sembra essere più utile al consumatore che al cittadino, e può aiutare il consumatore che sta cercando ad esempio una pizza a trovare consegne nelle sue vicinanze sulla base di ricerche personalizzate e filtrare le pizzerie distanti.[4] È affermato che siti come il The Washington Post, The New York Times e altri si stiano impegnando per creare motori di ricerca personalizzati con lo scopo di confezionare i risultati della ricerca verso quegli utenti con cui si trovino d'accordo o a cui sia probabile che piacciano.[3]

Concetti correlati[modifica | modifica wikitesto]

Il concetto di bolla di filtraggio è simile ad un fenomeno in cui le persone e le organizzazioni cercano un'informazione che è inizialmente percepita come importante ma che in realtà è inutile o solo parzialmente utile, ed evita informazioni percepite come irrilevanti ma che in realtà sono utili. Il problema esiste in quanto la reale importanza di un particolare fatto o concetto in questi casi è evidente solo dopo che il fatto è diventato noto. Prima di ciò, l'idea di imparare un particolare fatto può essere scartata per un errore di percezione o di irrilevanza. Secondo ciò, colui che cerca l'informazione è intrappolato in un paradosso e non riesce ad imparare quello di cui ha realmente bisogno, e potrebbe essere preso in una sorta di vicolo cieco intellettuale. Questo fenomeno è stato descritto come Il Paradosso della Rilevanza;[9] capita in diverse situazioni nel corso dello sviluppo dell'intelletto umano ed è un concetto importante per scienza ed educazione. Il libro The IRG Solution ha previsto ed analizzato questo problema e ha anche suggerito una soluzione generale.

C’è un fenomeno interessante e sempre più studiato che prende il nome di Cherry Picking, ovvero "scegliere solo le ciliegie migliori". È un termine utilizzato per riferirsi a una fallacia logica, per descrivere la tendenza a selezionare solo le informazioni che supportano le nostre convinzioni preesistenti e ignorare quelle che non lo fanno. Questo comportamento è spesso associato alla Pregiudizio di Conferma (Confirmation Bias) e alla creazione di una visione del mondo distorta.[14]

Un processo connesso al cherry picking e alla bolla di selezione è il Confirmation Bias o Pregiudizio di Conferma, che indica un fenomeno cognitivo umano per il quale le persone tendono a muoversi entro un ambito delimitato dalle loro convinzioni acquisite.[15]

Note[modifica | modifica wikitesto]

  1. ^ La filter bubble di Facebook, e quella della vita reale, in Gli Stati Generali, 5 novembre 2015. URL consultato il 23 dicembre 2016.
  2. ^ a b Lynn Parramore, The Filter Bubble, in The Atlantic, 10 ottobre 2010. URL consultato il 20 aprile 2011.
    «Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....»
  3. ^ a b c d e f g h Jacob Weisberg, Bubble Trouble: Is Web personalization turning us into solipsistic twits?, in Slate, 10 giugno 2011. URL consultato il 15 agosto 2011.
  4. ^ a b c Doug Gross, What the Internet is hiding from you, CNN, 19 maggio 2011. URL consultato il 15 agosto 2011 (archiviato dall'url originale il 7 febbraio 2012).
    «I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.»
  5. ^ a b c d e Paul Boutin, Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters?, in The Wall Street Journal, 20 maggio 2011. URL consultato il 15 agosto 2011.
    «By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don't create a personal Google account or are not logged into one. ...»
  6. ^ Yuan Cao Zhang, Diarmuid Ó Séaghdha, Daniele Quercia e Tamas Jambor, Auralist: Introducing Serendipity into Music Recommendation (PDF), in ACM WSDM, February 2012.
  7. ^ a b c Shira Lazar, Algorithms and the Filter Bubble Ruining Your Online Experience?, in The Huffington Post, 1º giugno 2011. URL consultato il 15 agosto 2011.
    «a filter bubble is the figurative sphere surrounding you as you search the Internet.»
  8. ^ Bianca Bosker, Tim Berners-Lee: Facebook Threatens Web, Beware, in The Guardian, 22 novembre 2010. URL consultato il 22 agosto 2012.
    «Social networking sites are threatening the Web's core principles ... Berners-Lee argued. "Each site is a silo, walled off from the others," he explained. "The more you enter, the more you become locked in....»
  9. ^ a b First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser, in USA Today, 2011. URL consultato il 20 aprile 2011.
    «Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.»
  10. ^ Bianca Bosker, Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns, in The Huffington Post, 7 marzo 2011. URL consultato il 20 aprile 2011.
    «When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.»
  11. ^ Invisible sieve: Hidden, specially for you, in The Economist, 30 giugno 2011. URL consultato il 27 giugno 2011.
    «Mr Pariser’s book provides a survey of the internet’s evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user.»
  12. ^ a b Kartik Hosanagar, Daniel Fleder, Dokyun Lee e Andreas Buja, Will the Global Village Fracture into Tribes: Recommender Systems and their Effects on Consumers, in Management Science, Forthcoming, dicembre 2013.
  13. ^ Amber Ludwig, Google Personalization on Your Search Results Plus How to Turn it Off, NGNG. URL consultato il 15 agosto 2011 (archiviato dall'url originale il 17 agosto 2011).
    «Google customizing search results is an automatic feature, but you can shut this feature off.»
  14. ^ Stella Levantesi, I bugiardi del clima: Potere, politica, psicologia di chi nega la crisi del secolo, Editori Laterza, 20 maggio 2021, ISBN 978-88-581-4596-8. URL consultato il 1º dicembre 2021.
  15. ^ Serena Giacomin, Il “Cherry Picking", la scienza e le verità nascoste… ma da chi?, su Icona Clima, 18 marzo 2021. URL consultato il 5 aprile 2023.

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

Controllo di autoritàLCCN (ENsh2018002434 · J9U (ENHE987012503404005171
  Portale Internet: accedi alle voci di Wikipedia che trattano di internet