Wikipedia:Bar/Discussioni/Referendum sul sistema di filtraggio delle immagini

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Referendum sul sistema di filtraggio delle immagini NAVIGAZIONE


Questo referendum ha aperto le votazioni. Se ne era discusso qui. Personalmente tendo ad essere contrario all'implementazione di un simile strumento, ma vorrei discuterne ancora prima di votare. Rupert Sciamenna qual è il problema? 12:51, 16 ago 2011 (CEST)[rispondi]

Io ho votato questa mattina, mi aspettavo la classica lista di firme, invece fanno votare attraverso una pagina speciale. A margine, anche se la traduzione in italiano delle varie pagine non è completa, il tutto è abbastanza chiaro.--Midnight bird 13:01, 16 ago 2011 (CEST)[rispondi]
La pagina di voto è Speciale:SecurePoll.--Midnight bird 13:33, 16 ago 2011 (CEST)[rispondi]
Per me l'idea di base è buona, ma ho dei dubbi sulle modalità in cui tale filtro verrà realizzato: se non ho capito male tutti i lettori potranno "categorizzare" in speciali "categorie" le immagini che raffigurano scene di violenza, sesso o altro contenuto non idoneo ad un pubblico adulto e vaccinato; in questo caso non è detto che le immagini vengano "categorizzate" come si deve, a causa di punti di vista non neutrali, vandali, differenze culturali e religiose, ecc. In questo caso sarei propenso a votare per l'introduzione del filtro, in quanto nonostante lo strumento non sia perfetto darebbe la possibilità a chi vuole di potere evitare di vedere certe immagini. Preferirei comunque che siano solo gli amministratori o gli utenti convalidati a potere apporre i "tag" alle immagini, a partire da quelle "più disturbanti" per la maggior parte degli utenti (rappresentazione di genitali e cadaveri), anche se in molti casi si potrebbe arrivare a veri e propri edit-war (ad esempio il crocifisso, rappresentando un uomo sottoposto a tortura, dovrebbe in teoria rientrare nelle immagini da nascondere, ma i cattolici non saranno probabilmente d'accordo con questa decisione). --Aushulz (msg) 14:31, 16 ago 2011 (CEST)[rispondi]
Oppure, più realisticamente, i mussulmani potrebbero voler nascondere tutte le rappresentazioni di Maometto che abbiamo solo perché contrarie alla loro religione...--Midnight bird 15:04, 16 ago 2011 (CEST)[rispondi]
personalmente ritengo che l'esempio di "Come apparirà il filtro?" sia una delle cose più ridicole che abbia mai visto. come si fa a dire che un marchio registrato contenga "Gladatoriar Combat"? neanche fosse uno screenshot di un film di Ridley Scott... anche l'etichetta "Monster and Horror" è chiaro segno di come il "puritanesimo statunitense" rischia di far diventare questo strumento un pretesto per lasciare a pochi la possibilità etichettare qualunque cosa come pornografica, violenta o, in generale, non adatta ai minori... --valepert 15:28, 16 ago 2011 (CEST)[rispondi]

Basterebbe semplicemente una politica più sensata di caricamento e gestione delle immagini: un gruppo di utenti incaricati di segnalare le immagini con contenuti violenti, macabri, pornografici e altri contestabili; gli amministratori decidono se tenerle oppure, no sulla dell'effettiva utilità didattica/enciclopedica dell'immagine; e se qualcuno fa il furbo nelle segnalazioni o caricando ripetutamente immagini cancellate o rifiutate gli si chiude l'account su Common. Un filtro del genere, com'è stato evidenziato, si presta soltanto a derive censoria da parte di gruppi faziosi. PersOnLine 16:28, 16 ago 2011 (CEST)[rispondi]

Mhm, sbaglio o le domande sono scritte in modo tale che alla fine faranno comunque quello che vogliono?--Sandro_bt (scrivimi) 17:42, 16 ago 2011 (CEST)[rispondi]

La vera domanda che discrimina in tal senso è la 1 (è importante fornire questa opzione: strongly opposed - neutral - strongly in favor). Per il resto il meccanismo rimane poco chiaro, e le domande successive non contribuiscono a chiarire.
Ad esempio non è specificato se di default le categorie sono tutte allowed o meno (in realtà spero che questa decisione avvenga poi all'interno delle singole comunità). ·· Quatar » posta « 17:55, 16 ago 2011 (CEST)[rispondi]
(f.c.) beh no, io spero proprio che le immagini di default siano tutte visibili e che tu possa decidere di nasconderle, solo per te, cliccando su qualcosa. Altrimenti è un no grosso come una casa. --Superchilum(scrivimi) 19:10, 16 ago 2011 (CEST)[rispondi]
Le domande non mi piacciono per niente. La prima dovrebbe essere quella dirimente, ma trovo curioso che sia posta nella forma "è importante che questo strumento sia fornito" piuttosto che "voglio/non voglio che questo strumento sia fornito". Sarò io che vedo cose che non esistono, ma la mia impressione è che si parta dal presupposto che lo strumento in questione sia cosa buona e giusta e che al massimo gli utenti possano dire se trovano "importante" l'implementazione dello stesso in una lista di priorità. L'ultima domanda poi la trovo francamente ambigua. Rupert Sciamenna qual è il problema? 18:17, 16 ago 2011 (CEST)[rispondi]
Le domande sono formulate in questo modo perché tu devi assegnargli un valore da 0 a 10. --F l a n k e r (msg) 19:08, 16 ago 2011 (CEST)[rispondi]
Sì, questo mi era chiaro, la mia obiezione non è sul sistema di voto ma sul tipo di domande poste. In pratica non c'è una domanda che dice "Bisogna introdurre un sistema di filtraggio delle immagini" (vota da 0 a 10), ma solo una che chiede se l'introduzione del sistema sia "importante". Come ho detto potrebbe essere una cosa che ci vedo solo io, o magari una cosa che si percepisce solo nella traduzione italiana, ma a me non piace. E l'ultima domanda continuo a trovarla ambigua. Rupert Sciamenna qual è il problema? 19:16, 16 ago 2011 (CEST)[rispondi]
A me l'idea non dispiace, a patto che il filtro sia configurabile con un minimo di elasticità e che di default sia completamente disattivato. Più che altro mi chiedo a chi spetti etichettare le immagini come potenzialmente offensive. Sysop? Autoverified? Inoltre, i singoli progetti potranno scegliere se implementare o meno il filtro e potranno flaggare le immagini per conto proprio, o sarà una cosa globale? Dice: Il filtro verrà sviluppato ed implementato su ogni singolo progetto Wikimedia, ma non ho capito se le implementazioni possono essere indipendenti.
Inoltre sarei curioso di sapere a cosa pensava esattamente chi ha fatto gli screenshot dimostrativi. Ma era proprio necessario mettere in bella vista il logo copyrighted dei pokemon? Non si poteva fare la dimostrazione con una immagine free? Mah... --τino 032 (contattami) 21:51, 16 ago 2011 (CEST)[rispondi]
per il copyright potevano benissimo prendere un'immagine di una donnina degli anni '30 (in abiti "discinti") o uno schema anatomico (stile quello del Pioneer) almeno le categorie erano sensate, dato che nel logo personalmente non ravviso nulla di così sconvolgente (me lo dite voi dove sta l'orrore in un'immagine simile? perché andrebbe censurata?). quella spiegazione fa sembrare il referendum veramente una cosa ridicola... (volete che tagghiamo roba come "Giochi per bambini" nel caso qualcuno sia pedofobico e non voglia assolutamente vedere scene di bambini che giocano con il Lego?) --valepert 22:06, 16 ago 2011 (CEST)[rispondi]
In effetti tutta la questione del referendum è ridicola. Sarebbe stato più sensato pensare di più al modo (o a 2-3 modi possibili) in cui tale strumento dovrebbe essere implementato prima di domandare agli utenti se tale strumento sia utile. Perché non lo attivano prima nella Wikipedia di test (ora non ricordo l'url) in modo da darci la possibilità di provare e modificare lo strumento prima di decretarne l'utilità? --Aushulz (msg) 02:17, 17 ago 2011 (CEST)[rispondi]

[rientro] oltre a molte riserve sul referendum stesso, anch'io trovo sensato che gli utenti di Commons gestiscano la questione in classico stile wikipediano (fissazione di criteri, ricerca del consenso, ecc.), evitando di lasciare etichettare (come meglio si crede?) immagini o addirittura categorie d'immagini, concordo che gli stessi quesiti sono posti in maniera sbagliata... innanzi tutto mi sembrerebbe più giusta una domanda del tipo, lo vuoi o no sto strumento? comunque anche le restanti scelte mi lasciano abbastanza basito... specie l'ultima che manco doveva essere posta, stante la necessità che tutto il progetto sia culturalmente neutro... ovvero sembrerebbe, se passasse l'idea contraria, che le immagini possano (legittimamente a questo punto) sponsorizzare punti di vista particolari... ma forse ho frainteso... --torsolo 09:07, 17 ago 2011 (CEST)[rispondi]

Effettivamente le domande sono scritte in modo tale che alla fine faranno comunque quello che vogliono (come sempre), in ogni caso sarebbe interessante sapeer quale potrebbe essere l'azione se la maggioranza rispondesse 0 alla prima domanda e lasciasse ? alle successive. Che sarebbe l'unico modo per esprimere il dissenso ad una iniziativa gestita dall'alto, permeata di moralismo a stelle e strisce, e destinata ad a aprire un nuovo fronte bellico (per esempio chi e come vieterà ai revisionisti di taggare come inadatte tutte le immagini sull'Olocausto?)--Bramfab Discorriamo 10:06, 17 ago 2011 (CEST)[rispondi]

Domanda molto stupida, ma visto che non si mette la firma in un elenco ma si vota in una pagina speciale, come si capisce chi ha votato cosa ? E soprattutto quanti hanno votato cosa ?--Midnight bird 10:08, 17 ago 2011 (CEST)[rispondi]

che il software registri il votante è evidente, visto che dopo l'ok finale c'era un msg rivolto al mio nick :-) --torsolo 10:26, 17 ago 2011 (CEST)[rispondi]
Puoi anche provare a ri-votare e ti comunicherà che l'hai già fatto, quindi il voto precedente perderà di valore. Evidentemnte ne tiene traccia in qualche modo :) ·· Quatar » posta « 10:28, 17 ago 2011 (CEST)[rispondi]
Forse mi sono spiegato male...Noi comuni mortali utenti, come facciamo a sapere l'esito del voto ? Io mi aspettavo una bella paginetta su meta dove ognuno metteva una firma alla luce del sole...In questo caso dovremmo invece fidarci di cosa ci verrà detto alla fine da qualcuno in alto ? Va bene presumere la buona fede, ma rimango perplesso...--Midnight bird 10:32, 17 ago 2011 (CEST)[rispondi]
La varietà dei quesiti e l'elevato numero di partecipanti al sondaggio (migliaia di persone) credo abbiano indotto i promotori ad utilizzare un database esterno per raccogliere i dati. Per me l'hanno fatto solo per risparmiare del tempo una volta concluso il sondaggio, durante la fase di spoglio dei voti. E sulla loro buona fede, non credo abbiano bisogno di truccare i risultati, comunque ognuno è libero di pensarla come vuole. --Vajotwo (posta) 11:17, 17 ago 2011 (CEST)[rispondi]
(fc) Come ho scritto sotto, non è un problema di numero di partecipanti (pensa solo a quante modifiche contemporanee il sistema di server di WM è in grado di gestire, oltre al login sincrono di quanti utenti...), ma di evitare che esistano delle persone in grado di modificare, senza lasciare tracce (chi ha accesso root può anche cancellarsi i log di sistema, volendo), i risultati. Un po' come la firma dello scrutatore sulla scheda dovrebbe evitare che ti porti le schede da casa. --Superfranz83 Scrivi qui 11:26, 17 ago 2011 (CEST)[rispondi]
(conflittato) La piattaforma penso utilizzi un'estensione di mediawiki, quindi il codice sorgente dovrebbe essere da qualche parte disponibile per verificare che faccia quello che deve fare. I server sono di terze parti, in maniera tale che i dev di WikiMedia con accesso ai db e alla shell dei nostri server non possano tramite un accesso "a basso livello" modificare i voti e i risultati. I dati saranno anonimizzati (ci vuole poco a garantire anonimato e contemporaneamente voto unico) e salvati in un db che suppongo verrà reso disponibile in qualche modo, o pubblicamente o dietro richiesta nel caso di contestazioni. Più che altro mi sembra che sia un sondaggio di opinione, più che un referendum: "noi stiamo per fare questo, siete contenti che lo facciamo?" (domanda 1), a prescindere dai risultati, loro lo stanno faranno; eventualmente vogliono informazioni sui requisiti operativi del sistema, se e come deve essere sbloccabile, se i tag saranno anche personali o solo "di sistema", cose del genere (tutte le domande eccetto la 1 hanno questo scopo).--Superfranz83 Scrivi qui 11:23, 17 ago 2011 (CEST)[rispondi]
Grazie a tutti per la spiegazione tecnica. :)
@Superfranz: Insomma, per te lo faranno sicuramente ?--Midnight bird 11:35, 17 ago 2011 (CEST)[rispondi]
anch'io sono dell'idea che è solo una consultazione non vincolante e si sia già deciso... proprio per come è strutturato... si chiede quanto lo si ritiene importante, non se lo si vuole... insomma è al massimo una questione di priorità... a seconda dei risultati verrà realizzato subito o con più calma (semplifico un po')... --torsolo 12:37, 17 ago 2011 (CEST)[rispondi]
Non credo tanto al moralismo bacchettone statunitense, ma ad una molto più prosaica e (nelle intenzioni) redditizia apertura verso nuovi mercati del "prodotto" Wikipedia, con la possibilità di garantire alcune forme di censura almeno visuale (visto che le immagini sono su Commons), e lasciare ad altri a livello di chapter locale la censura dei testi. Il prodotto ormai è maturo. ;) --Pigr8 ...libertà è partecipazione! 15:42, 17 ago 2011 (CEST)[rispondi]
Pensi alla Cina ?--Midnight bird 17:21, 17 ago 2011 (CEST)[rispondi]
Concordo con Torsolo. --Superfranz83 Scrivi qui 19:05, 17 ago 2011 (CEST)[rispondi]
Io non ci trovo nulla di male se chi non lo vuole lo può disattivare. Posso dire che a me potrebbe servire per certe immagini. Il problema è che non capisco bene le categorie (inoltre che vuol dire "sessualmente esplicito"? Per qualcuno anche una ragazza in bikini potrebbe essere sessualmente esplicita, ma qui andiamo oltre). --F l a n k e r (msg) 20:37, 17 ago 2011 (CEST)[rispondi]
Una pessima idea che merita un NO rotondo. Così ho fatto. --Pequod76(talk) 18:41, 19 ago 2011 (CEST)[rispondi]
Mi piacerebbe anche capire se questo filtraggio provochera' dei rallentamenti nel caricamento di voci ricche in immagini.--Bramfab Discorriamo 18:50, 19 ago 2011 (CEST)[rispondi]
Se il sistema di default è disattivato le accuse di oscurantismo mi sembrano quanto meno esagerate. Più che altro spero che il sistema sia effettivamente disattivato di default. --τino 032 (contattami) 20:57, 19 ago 2011 (CEST)[rispondi]
Se il sistema di default è disattivato, la volontà resta quella di oscurare delle informazioni (di permettere agli utenti di auto-oscurarsi la vista), il che è assai contrario allo spirito di wp, che non ha una matrice culturale ed è intimamente caotico. La tutela della "sensibilità" delle persone (naturalmente per un certo pubblico la decisione non sarà presa in proprio, ma servita obbligatoriamente da qualche sedicente moralista), in un mondo in cui mentre premo salva qualcuno muore di fame, è un'opzione oscurantista. Questi distinguo non li capisco: da quale punto di vista è difendibile questa manovra? Un nazismo non di default è meno deprecabile? WP meticcia le culture perché coinvolge i punti di vista. Questa proposta è invece degna di uno stato etico. --Pequod76(talk) 22:27, 19 ago 2011 (CEST)[rispondi]
Sono d'accordo sul fatto che imporre una limitazione arbitraria non sia una buona cosa (anche considerando che le immagini di commons sono già "filtrate", nel senso che, fedelmente a WP:HOSTING, si tiene soltanto ciò che è ritenuto utile), però in questo strumento non credo di vedere una grande minaccia di "censura nazista". Ripeto, parlo supponendo che si tratti di uno strumento realizzato con intelligenza e che di default sia disattivato. Imho non c'è nulla di male ad offrire la possibilità ai lettori di diminuire il rischio di vedere immagini forti. Il mio e (presumo) il tuo filtro resteranno disattivati, ma ci sono anche tanti lettori più sensibili che probabilmente potrebbero trovarsi più a proprio agio con un simile strumento. Capisco anche la preoccupazione che possa trasformarsi in uno strumento di censura se manovrato da terze persone, ma considerando che dovrebbe trattarsi di un tool basato sui cookie mi sembra abbastanza improbabile che possa essere efficace in tal senso. Se qualcuno ci volesse censurare per davvero userebbe ben altri mezzi.--τino 032 (contattami) 23:43, 19 ago 2011 (CEST)[rispondi]
Oh, bellissimo, come no. E il prossimo sondaggio cosa chiederà? Se vogliamo dare la possibilità di filtrare, non immagini, ma informazioni e testi che potrebbero turbare la sensibilità culturale di qualcuno? Ecco, sì: così, magari, potremmo permettere agli utenti di filtrare in automatico, per esempio, le informazioni ed i testi relativi all'Olocausto per coloro che si ritengano troppo sensibili, o troppo vicini all'ideologia razziale del nazionalsocialismo. C'è un nome per questo: censura (ancorché auto-censura). Totalmente contrario: si apre uno spiraglio (una porta, che fa presto a diventare voragine) a chi vuol imporre la propria morale agli altri. E di tipi di tal risma da queste parti ne abbiamo già abbastanza, io di trovarmene altri fra i piedi ne farei volentieri a meno. --Pap3rinik (msg) 00:14, 20 ago 2011 (CEST)[rispondi]
@Tino: apprezzo la tua pacatezza. Sia chiaro, non ce l'ho con te. =)
Quando parlo di decisioni prese non in proprio, penso agli educatori, ai genitori, a chiunque condivida una macchina con un'utenza per qualsiasi ragione meno in grado di decidere.
L'essere umano contemporaneo ha tanti pruritini da rispettare (e da coltivare, vedo/non vedo). Da wp, un progetto senza pubblicità, mi aspetto un maggiore coraggio, che - se ci pensi - non è militante, ma assolutista: tutti possono collaborare, tutte le informazioni rilevanti ci devono stare. Sta poi a noi fare in modo che voci come cazzo/figa siano adeguate allo standard ideale, mentre l'idea di un filtro rinvia ad una distinzione di contenuti (alti, medi, umili, vergognosi) che non può che rinviare ad una dogmatica (cosciente o meno) di matrice culturale. Un'incrostazione storica che, se è difficile toglierla nella RL (e non dico che sia per forza un bene assoluto da inseguire in modo esaltato), qui a rigore basta una serie di clic. --Pequod76(talk) 02:49, 20 ago 2011 (CEST)[rispondi]
Smettiamola di raccontarci pietose bugie. Lo sviluppo del filtro non serve per proteggere sensibilità particolari né tantomeno i minori. Se sei un genitore/educatore responsabile non lasci un minore a navigare da solo su internet oppure installi uno dei millemila filtri esistenti per la protezione dei minori, ma sul tuo browser o sul tuo computer. Se non vuoi che tuo figlio di otto anni veda le donnine nude su internet lo accompagni di modo da impedirgli di visualizzare contenuti inappropriati e da spiegargli i contenuti che necessitano di spiegazioni. Anche perché se lo scopo fosse la protezione dei minori non solo le immagini, ma anche i testi andrebbero censurati. Se le immagini della voce sesso orale non sono adatte ad un bambino, allora non lo è neanche il testo. Se poi sei un adulto e non vuoi vedere le donnine nude allora non cliccare su "donnine nude". In realtà tutto questo altro non è che un operazione d'immagine. In passato il fatto che wikipedia non fosse cemsurata per i minori aveva causato problemi (qui la discussione). Adesso si propone uno strumento molto visibile (a giudicare dagli screenshot tutte le immagini saranno accompagnate dal tastino "hide") per fare in modo che i giornali si calmino, ma con conseguenze potenzialmente disastrose. Ricordo che le immagini su wikipedia sono parte dei contenuti, non stanno lì per decorare la voce. E ricordo inoltre che quell "educational purpose" di commons si traduce correttamente con "scopi didattici", piuttosto che "educativi". Alla prima domanda ho messo un bello zero, e spero che lo facciano in molti. Rupert Sciamenna qual è il problema? 12:49, 20 ago 2011 (CEST)[rispondi]
Io veramente non capisco dove sia il problema: il filtro viene abilitato dall'utente che non vuole vedere certe immagini. E' solo una comodità: infatti se l'utente in questione non vuole vederle, si premunirà di non guardarle che vi sia il filtro o meno. Se a me fanno schifo i corpi dilaniati (tanto per fare un esempio!), il filtro mi eviterà di fare questa piccola fatica. Mi ripeto dove (diavolo) è il problema? Un filtro che bisogna impostarsi è oscurantismo? Ma per favore! Qualcuno a scritto "mentre cloccko qualcuno muore di fame" ecco, questo è un vero problema, preoccupiamoci di quelli veri! --F l a n k e r (msg) 13:11, 20 ago 2011 (CEST)[rispondi]
Il problema, secondo me, sta qua, cioè nel fatto che venga data la possibilità di visualizzare su wikipedia solo quello che "ci piace", infischiandosene magari della realtà dei fatti presente nei contenuti della voce, i quali comprendono anche le immagini. Oltre a questo c'è il fatto che la comunità non è stata realmente interrogata in merito, ma si è preferito decidere in base ad uno studio condotto da uno privo di qualsiasi esperienza su wikipedia (guardacaso proprio un giornalista della rete che aveva accusato commons di pornografia), che ha concluso sostanzialmente che "quelle immagini sono poprio brutte"; il fatto che neanche adesso venga effettivamente chiesto alla comunità se vuole questo strumento; il fatto che vengano conservate diverse ambiguità sul funzionamento e sulle applicazioni dello strumento stesso; il fatto che tutta questa storia può aprire la strada a sistemi ben peggiori, una volta sdoganato il fatto che wikipedia *si può* censurare. Rupert Sciamenna qual è il problema? 13:36, 20 ago 2011 (CEST)[rispondi]
(confl.) I minori sono solo un esempio, evidentemente. Ma poi siamo tutti minori di fronte ai papà.
Mi rendo ben conto che è un'operazione di immagine. Un belletto gradevole per qualche fondamentalista, per me un cerone per cerimonia funebre.
@F l a n k e r: se l'utente in questione non vuole vedere corpi dilaniati (altri corpi dilaniati), può esimersi dall'addentrarsi in uno strumento non censurato. Invece, per questo tappeto rosso, vogliamo informare tutto il nostro sistema con questo tool. Mi sembra che si stia dando un peso eccezionale (leggi: sproporzionato) a questo problema, peraltro astraendo in modo sorprendente dal contenuto concreto delle diverse culture. Da un lato hai una linea politica sicura: tutto quel che serve verrà mostrato; dall'altro hai un'altra linea, che necessiterà di distinguo sempre più raffinati, pendenti dalla categorizzazione. M'era parso invece che il sistema wiki (consenso, confronto, decisioni orizzontali) funzionasse a dovere. Evidentemente mi sbagliavo! :)
Sostanzialmente, più che un tool, è una china. Dopo l'esperienza dei nudi cancellati da Dj-imbo... --Pequod76(talk) 13:52, 20 ago 2011 (CEST)[rispondi]

(rientro) Sostanzialmente d'accordo con Pequod e Rupert, soprattutto mi preoccupa il fatto che le immagini di Olocausto verranno sicuramente incluse nel filtro, il che per i fini didattici del progetto non è una bella cosa, tenuto soprattutto conto dei testi presenti nella voce, non meno "turbanti" delle foto. Ritornando al referendum vero e proprio, nella casella email con cui ho registrato il bot è arrivato il solito avviso che invita a votare. Possono votare anche i bot(che formalmente sarebbero SP) o se ci provo rischio di essere crocefisso in sala mensa? --SicilianoEdivad Come as you are 14:56, 20 ago 2011 (CEST)[rispondi]

Mi viene poi da pensare per esempio a luoghi di lavoro e computer pubblici, dove il settaggio del filtro sarà deciso dal gestore del sistema. Questo significa che in metà degli internet point degli stati uniti wikipedia sarà censurata, così come nella totalità dei punti di accesso pubblici del nordafrica e del medioriente... Rupert Sciamenna qual è il problema? 18:34, 20 ago 2011 (CEST)[rispondi]
(conflittato con Rupert) Se l'impostazione del filtro è nelle preferenze utente (o salvata in un cookie per gli utenti anonimi) non vorrei sbagliarmi ma non penso sussista questo rischio. Piuttosto, il censore farebbe prima a mettere l'indirizzo (url o ip) in blacklist (come immagino si faccia già in alcuni dei suddetti paesi).
@Pequod Tranquillo, mi sento aggredito :)
@Tutti Imho la questione del filtro contenuti non è affatto urgente e personalmente a me non dispiacerebbe affatto l'eventualità che non dovesse farsi niente. Quello che intendevo dire è che io non mi oppongo se non diventa davvero uno strumento di censura (ovvero se non limita la possibilità di pubblicazione o accesso ai contenuti), e dal mio punto di vista le condizioni necessarie sono un'impostazione intelligente (ovvero con categorie sensate) e il fatto che il giochino sia completamente inattivo di default (perdonatemi se lo ripeto alla nausea, ma almeno non rischio di essere frainteso). Stando così le cose, un simile strumento si riduce ad una specie di parental control oppure una precauzione per evitare il rigetto della colazione da parte di utenti sensibili quando si imbattono in una immagine inattesa. È solo una specie di ausilio ai template di avviso sui contenuti e imho non necessiterebbe di un intenerimento del disclaimer sui contenuti o di WP:MINORI.
Proprio perché queste sarebbero le ipotetiche finalità ultime (almeno a me non sembrano credibili grandi dietrologie), l'implementazione non mi sembra affatto indispensabile o urgente.
Fintanto che si resta in questi limiti non credo vengano lesionati i pilastri o che si possa parlare di censura. Sul fatto che questo possa costituire un precedente, non penso la cosa sia veramente una minaccia, a patto che sia la comunità a tenere il coltello dalla parte del manico. Riuscire a gestire efficacemente una simile situazione imho è una dimostrazione di forza della comunità ben maggiore rispetto ad un rifiuto dettato dal timore, ed è per questo che mi auguro che l'ipotetica gestione del tool sia completamente a discrezione dei singoli progetti. Ripeto, dal mio punto di vista se si volesse veramente imporre una censura governativa a wikipedia si userebbero ben altri mezzi, questo mi sembra più che altro una trovata per mostrarsi più politically correct. --τino 032 (contattami) 18:58, 20 ago 2011 (CEST)[rispondi]
Sono d'accordo anch'io sul fatto che lo scopo è quello di mostrarsi politically correct. Sulla questione delle preferenze c'è da dire che la maggior parte dei "lettori" di wikipedia (il 63% del totale degli utenti) non sono registrati, quindi l'attivazione o meno di default dello strumento dipenderà da come è stato impostato precedentemente sul computer che stanno usando (sul quale è memorizzato con un cookie, probabilmente), quindi, nel caso di computer pubblici il default lo sceglierà il gestore. Rupert Sciamenna qual è il problema? 20:04, 20 ago 2011 (CEST)[rispondi]
non vorrei farla più drammatica di quel che l'è... ma l'inferno è lastricato di buone intenzioni... ora lo facciamo per salvaguardare i bambini (di cui ci si ricorda quando fa comondo), domani per rispettare il pudore di qualcun altro e fra tre mesi la sensibilità di altri ancora... e per non far torto a nessuno (il NPOV può venire in aiuto) diamo patenti di "irriguardose" a immagini varie... in seguito ci si accorgerà che anche i testi possono essere altrettanto scioccanti, si potrà pensare ad una ritoccatina anche a quelli... però a questo punto ci si domandetà perchè chiedere il permesso... facciamo decudere ai luminari, cosa si può o non di deve vedere, leggere, pensare, ecc... sono troppo pessimista? --torsolo 21:51, 20 ago 2011 (CEST)[rispondi]
Sì e fra un anno Jimmy Wales tifenterà patrone ti Monto! Ma per favore! Questo strumento non è uno "strumento di censura degli imperialisti americani", bisogna creare un account utente e bisogna attivarlo. Mi state dicendo quindi che oscurare l'immagine di un cadavere sbattuta lì nella voce renderà la seconda guerra mondiale meno brutta per me che ho attivato il filtro? Io, sinceramente, non credo. Ai posteri l'ardua... --F l a n k e r (msg) 11:45, 21 ago 2011 (CEST)[rispondi]
Se l'obiettivo del filtro è "parare" contestazioni a mezzo stampa, sono abbastanza sicuro che sarà attivo di default per i non registrati, altrochè. Se non subito, nel giro di poco tempo, come lo sono ad esempio i filtri di Youtube e Deviantart. Purtroppo Internet tutta va verso la "normalizzazione" e la regolamentazione, ed è molto difficile resistere a questo processo. Per quel che vale, mi opporrò... --Holland (msg) 18:01, 21 ago 2011 (CEST)[rispondi]
Una considerazione. A me pare ci sia scritto abbastanza chiaramente, e non ho motivo di dubitare della correttezza di quanto dichiarato, che la funzione sarà attivabile solo in seguito a scelta di singolo utente, e quindi sarà solo quest'ultimo a scegliere cosa vedere e cosa no: niente di imposto né di imponibile in nessun momento (a meno di tranelli tecnici di cui non sono a conoscenza). Dunque, niente censura. Questo non risolve un problema a monte, e cioè di cosa debba essere ospitato su Commons e successivamente visualizzato su Wikipedia, e quindi la questione del contenuto "educativo" versus quello che non lo è, e di non ridurci ad hosting di immagini quale che ne sia il soggetto. Forse potevamo prevedere prima che l'obiettivo neutrale dei nostri progetti prima o poi avrebbe portato a simili scontri, e avremmo potuto prendere provvedimenti apparentemente più soft invece di demandare tutto al buon senso che evidentemente in questo frangente serve poco: un qualche tipo di "filtraggio" serviva, un qualche tipo di decisione andava presa, forse avremmo accettato di più delle linee guida severe invece di questa consultazione che sa di "emergenza". E però non mi piace l'ipocrisia che mi pare spiri su questa pagina: sono certa che tutti voi avrete personalmente curato l'educazione sessuale dei vostri figli, meno certa che per farlo abbiate usato la filmografia di Rocco Siffredi. Una semplice questione di opportunità, ci sono certamente materiali più adatti per farlo. Ecco, a un certo punto (non solo sulle voci anatomiche e/o sul mondo dell'eros, ma anche su simboli religiosi e altro) potevamo chiederci se esisteva davvero un modo "culturalmente neutrale" di trattare quelle voci, prima che a chiedercelo fosse WMF stessa e prima di ritrovarci un po' storditi e inermi di fronte a questo sondaggio. --Elitre ♥ wp10 14:56, 22 ago 2011 (CEST)[rispondi]