Contenuti controversi

La storia di Wikipedia con i contenuti controversi è lunghetta, io ne ho parlato qui diverse volte principalmente per i casi di cronaca e sulle contromisure che stava studiando Wikimedia Foundation:

  • en.wiki blacklistata dalla Internet Watch Foundation per via della foto di copertina dell’album Virgin Killer (1976!) degli Scorpions che mostra una bambina nuda ([1] e [2])
  • Larry Sanger che denuncia all’FBI che Wikipedia contiene materiale pedopornografico
  • Wikimedia Foundation che commissiona uno studio sui contenuti controversi [3]

A maggio di quest’anno il board di WMF ha deliberato quanto segue:

We ask the Executive Director, in consultation with the community, to develop and implement a personal image hiding feature that will enable readers to easily hide images hosted on the projects that they do not wish to view, either when first viewing the image or ahead of time through preference settings. We affirm that no image should be permanently removed because of this feature, only hidden; that the language used in the interface and development of this feature be as neutral and inclusive as possible; that the principle of least astonishment for the reader is applied; and that the feature be visible, clear and usable on all Wikimedia projects for both logged-in and logged-out readers.

Si richiede quindi la creazione di una sorta di parental control da applicare ai progetti Wikimedia, per quanto riguarda le immagini.
Il 15 agosto è partito un referendum aperto a tutta la comunità wikimediana, per capire come inserire un tale strumento senza turbare i progetti (ovvero sia: se il materiale presentato è informativo e non illegale, perché mai dovrebbe essere filtrato? Perché lede la sensibilità di alcuni. Come è possibile far coesistere la sensibilità di tutti quanti creando un tale strumento?). Le affermazioni da valutare sono le seguenti:

  1. È importante per i progetti Wikimedia offrire questa opzione ai lettori.
  2. È importante che il filtro sia utilizzabile sia da utenze registrate che da utenze anonime.
  3. È importante che l’oscuramento sia reversibile: i lettori devono avere l’opportunità di cambiare opinione.
  4. È importante che le utenze abbiano la possibilità di categorizzare le immagini non ancora valutate, se ritenute controverse.
  5. È importante che il filtro permetta ai lettori una scelta immediata della tipologia di immagini da oscurare (ad esempio 5-10 categorie), in modo tale che le utenze possano scegliere di nascondere immagini a sfondo sessuale ma non, ad esempio, immagini con contenuti ritenuti violenti.
  6. È importante che il filtro sia culturalmente neutrale: il più possibile, deve cercare di riflettere una visione globale o multi-culturale di ciò che viene ritenuto come potenzialmente controverso.

I risultati saranno disponibili a partire dal primo settembre.

Potrebbero interessarti anche...

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.