Traduciamo e pubblichiamo il post di Wikimedia Foundation dedicato alla discussione in corso al Parlamento Europeo sul Digital Service Act (DSA).
Il Parlamento Europeo e il Consiglio stanno discutendo gli emendamenti alla proposta di legge per il Digital Service Act (DSA), una delle varie normative sviluppate negli ultimi tempi per rendere le grandi piattaforme tecnologiche responsabili per i contenuti illegali che vengono diffusi sui loro siti.
Wikimedia Foundation, l’organizzazione senza scopo di lucro che sostiene Wikipedia, accoglie con favore gli sforzi dei legislatori europei per rendere la moderazione dei contenuti più chiara e trasparente. Tuttavia, le disposizioni attualmente presenti nel DSA e alcuni degli emendamenti proposti includono anche requisiti che potrebbero mettere a rischio il modello collaborativo e no-profit di Wikipedia.
Il sistema di collaborazione aperta di Wikipedia ha reso possibile la condivisione di conoscenza su scala globale per oltre vent’anni. È uno dei siti internet più amati nel mondo, ma anche una delle fonti più attendibili per informazioni aggiornate sul Covid-19. Tutto questo è possibile solo grazie a leggi che proteggono il suo modello incentrato sui volontari. Ora però, questo modello basato sulle persone è a rischio, nel fuoco incrociato delle proposte del DSA.
L’attuale quadro del DSA è progettato per affrontare i modelli operativi delle maggiori piattaforme tecnologiche. Ma diversi siti internet, tra cui Wikipedia, non funzionano nello stesso modo delle piattaforme tech for-profit. Applicare una soluzione unica al complesso problema dei contenuti illegali online potrebbe soffocare un ecosistema vario, fiorente e non commerciale di piattaforme e comunità online.
Chiediamo ai legislatori europei di applicare un approccio alla regolamentazione di internet che tenga maggiormente conto delle sfumature. Internet va oltre le grandi piattaforme tecnologiche gestite dalle multinazionali. Mentre il DSA viene discusso al Parlamento Europeo e in Consiglio Europeo, chiediamo ai legislatori di proteggere e sostenere i progetti no-profit, gestiti dalle comunità e di interesse pubblico come Wikipedia.
Siamo pronti a lavorare con i legislatori per migliorare il pacchetto di legge del DSA in modo che rafforzi e protegga la capacità di tutti i cittadini europei di collaborare per l’interesse comune.
Proteggiamo Wikipedia, proteggiamo l’internet delle persone
Ecco quattro cose che i legislatori dovrebbero conoscere prima di approvare la versione definitiva del DSA.
1. Il DSA deve affrontare i sistemi basati sugli algoritmi e i modelli di business che sono alla base dei danni causati dai contenuti illegali
Le disposizioni del DSA rimangono eccessivamente focalizzate sul rimuovere i contenuti attraverso processi di rimozione prescrittivi. La realtà è che rimuovere un contenuto illegale da internet appena appare è tanto arduo quanto ogni sforzo di prevenire ed eliminare ogni crimine nel mondo fisico. Considerato l’impegno dell’Unione Europea per proteggere i diritti umani online e offline, i legislatori dovrebbero concentrarsi sulla causa primaria dei comportamenti dannosi diffusi online: i sistemi che amplificano e diffondono i contenuti illegali.
Un internet più sicuro è possibile solo se le disposizioni del DSA affrontano il modello di pubblicità targettizzata che guida la diffusione di contenuti illegali. Come ha sottolineato l’ex manager di Facebook Frances Haugen nella sua recente testimonianza a Bruxelles, gli algoritmi che generano profitti attraverso le inserzioni pubblicitarie sono anch’essi alla base del problema che il DSA sta cercando di affrontare. Una nuova regolamentazione dovrebbe concentrarsi su questi meccanismi che massimizzano la portata e l’impatto dei contenuti illegali.
Tuttavia i legislatori non dovrebbero guardare esclusivamente a Facebook e piattaforme simili. Come sito senza scopo di lucro, Wikipedia è disponibile gratis per chiunque, senza pubblicità e senza tracciare il comportamento dei lettori. Il nostro modello di produzione di contenuti e governance, collaborativo e gestito dai volontari, aiuta ad assicurare che i contenuti su Wikipedia siano neutrali e affidabili. Migliaia di editor deliberano, discutono e lavorano insieme per decidere quali informazioni devono essere incluse e come devono essere presentate. Questo funziona in maniera molto differente dai sistemi centralizzati che si affidano agli algoritmi sia per condividere informazioni in modo da ottenere il massimo coinvolgimento degli utenti, sia per moderare contenuti potenzialmente illegali o pericolosi.
Nei 20 anni di Wikipedia, la nostra comunità di volontari ha dimostrato che dare agli utenti la possibilità di condividere e discutere i fatti è un mezzo potente per combattere l’uso di internet da parte di creatori di bufale, operatori per conto di influenze straniere ed estremisti. È assolutamente necessario che nuove leggi come il DSA creino le condizioni per il prosperare di una varietà di piattaforme web, commerciali e non commerciali.
2. I termini di servizio dovrebbero essere trasparenti ed equi, ma i regolamentatori non dovrebbero essere eccessivamente prescrittivi nel determinare come questi sono creati e applicati
La bozza attuale dell’articolo 12 del DSA stabilisce che un provider online debba rendere pubblici i propri termini di servizio – regole e strumenti per la moderazione dei contenuti – e che questi debbano essere applicati “in modo diligente, obiettivo e proporzionato”. Concordiamo sul fatto che i termini di servizio debbano essere il più trasparenti ed equi possibile. Tuttavia, le parole “obiettivo” e “proporzionato” lasciano spazio ad un’interpretazione aperta e vaga. Comprendiamo l’intento, che è quello di rendere il processo di moderazione dei contenuti da parte delle compagnie meno arbitrario e opaco. Ma costringere le piattaforme ad essere “obiettive” a proposito delle violazioni dei termini di servizio avrebbe delle conseguenze indesiderate. Tale terminologia potrebbe potenzialmente portare a un’applicazione che renderebbe impossibile per piattaforme come Wikipedia gestite dalla comunità di utilizzare processi collaborativi e guidati dai volontari per creare nuove regole e applicare le già esistenti, le quali tengono già appropriatamente conto del contesto e dell’origine di ogni contenuto.
Le policy per i contenuti e la condotta su Wikipedia sono sviluppate e applicate dalle stesse persone che contribuiscono a Wikipedia. Questo modello permette alle persone competenti su un argomento di determinare quali contenuti debbano essere presenti sul sito e come questo debba essere mantenuto, basandosi su regole di riconosciuta neutralità e fonti affidabili. Questo modello, per quanto imperfetto, mantiene Wikipedia neutrale e affidabile. Al crescere delle persone che si impegnano nel processo editoriale di dibattito, fact-checking e aggiunta di informazioni, gli articoli di Wikipedia tendono a diventare sempre più neutrali. Inoltre, delibere, decisioni e azioni di applicazione delle regole sono documentate pubblicamente sul sito.
Questo approccio alla creazione e gestione dei contenuti è del tutto diverso dalla struttura di potere top-down delle piattaforme commerciali che le disposizioni del DSA vogliono colpire. Il DSA dovrebbe proteggere e promuovere gli spazi sul web che permettono la collaborazione aperta, invece di costringere Wikipedia a conformarsi a un modello top-down.
3. Il processo di identificazione e rimozione dei “contenuti illegali” deve includere le comunità degli utenti.
L’articolo 14 stabilisce che le piattaforme online saranno responsabili della rimozione di ogni contenuto illegale che possa essere stato caricato dagli utenti, una volta che alle piattaforme sia stato notificato il contenuto illegale. Stabilisce inoltre che le piattaforme saranno responsabili della creazione di meccanismi che possano permettere agli utenti di segnalare alle piattaforme fornitrici del servizio i contenuti illegali. Queste proposte parlano tendenzialmente alle piattaforme di un solo tipo: quelle con un sistema di moderazione dei contenuti centralizzato, dove gli utenti hanno scarsa possibilità di partecipare alle decisioni sui contenuti e dove invece la moderazione tende a dipendere da un singolo organo, gestito dalla piattaforma. Non è chiaro come piattaforme lontane da questo archetipo saranno interessate dalle versioni finali di tali disposizioni.
Il modello di Wikipedia permette ai volontari che scrivono su Wikipedia di rimuovere contenuti secondo una serie di standard mutualmente condivisi. Sebbene Wikimedia Foundation gestisca alcune richieste per valutare dei contenuti illegali, l’ampia maggioranza dei contenuti che non rispettano gli standard di Wikipedia sono gestiti dai volontari ancor prima che venga presentato un reclamo alla Foundation. Semplicemente, non c’è una soluzione unica per tutto in questi casi.
Temiamo che ponendo la responsabilità legale dell’applicazione esclusivamente sui fornitori del servizio e chiedendo loro di rispettare standard molto stringenti sulla rimozione dei contenuti, la legge disincentivizzi sistemi che fanno affidamento su moderatori della comunità e processi di delibera. In realtà, questi processi hanno dimostrato di funzionare bene per identificare e rimuovere velocemente contenuti dannosi. Il risultato sarebbe un mondo online nel quale sono i fornitori di servizi, non le persone, a controllare quali informazioni sono disponibili online. Siamo preoccupati per il fatto che questa disposizione possa portare all’esatto opposto dell’intento del DSA, dando maggiore potere alle piattaforme e minore alle persone che le usano.
4. Le persone non possono essere sostituite dagli algoritmi quando si tratta di moderare i contenuti.
Le parti migliori dell’internet sono rese possibili dalle persone, non nonostante loro. Gli articoli 12 e 14 richiederebbero che gli operatori delle piattaforme prendessero il controllo di tutte le decisioni sulla moderazione dei contenuti, cosa che di conseguenza incentiverebbe o addirittura richiederebbe l’uso di sistemi automatici di rilevamento dei contenuti. Anche se sistemi di questo genere possono aiutare la moderazione di contenuti gestita dalla comunità, segnalando contenuti per la revisione, questi non possono rimpiazzare gli esseri umani. Se non altro, alcune ricerche hanno dimostrato bias sistemici e alti livelli di errore che sono tutti troppo frequentemente associati all’uso di strumenti automatici. Tali algoritmi possono pertanto aggravare ulteriormente il rischio posto dall’amplificazione. Gli strumenti automatici sono limitati nelle loro capacità di identificare contenuti al limite, che potrebbero essere estremi, ma nonostante tutto avere ancora valore per il pubblico interesse. Un esempio di questo tipo di contenuti potrebbero essere i video che documentano gli abusi dei diritti umani, che, come è stato dimostrato, sono rapidamente rimossi. Questi esempi sottolineano semplicemente il bisogno di dare priorità al contesto umano sulla velocità.
Quindi, i legislatori europei dovrebbero evitare una sovra-dipendenza dagli algoritmi simili a quelli usati dalle piattaforme commerciali per moderare i contenuti. Se il DSA forzerà o incentiverà le piattaforme a ricorrere a algoritmi per giudicare il valore o la natura illecita dei contenuti, noi tutti – come cittadini digitali – perderemo l’opportunità di dare forma al nostro futuro digitale insieme.
Su Wikipedia, gli strumenti che sfruttano il machine learning sono usati come aiuto, non per rimpiazzare la moderazione dei contenuti affidata agli umani. Questi strumenti agiscono in maniera trasparente su Wikipedia e i volontari hanno la parola finale sulle azioni suggerite dagli strumenti di machine learning. Come abbiamo visto, mettere più potere decisionale nelle mani dei lettori e degli editor di Wikipedia rende il sito più solido e affidabile.
«È impossibile fidarsi di un “algoritmo perfetto” per moderare i contenuti online. Ci saranno sempre errori, in malafede o per altri motivi. Wikipedia ha successo perché non segue un modello predefinito; si affida alla discussione e alla ricerca del consenso tra esseri umani, piuttosto che agli algoritmi»
Maurizio Codogno, volontario di lunga data di Wikipedia in lingua italiana.
Esortiamo i legislatori a pensare a come le nuove regole possano aiutare a dare una forma nuova ai nostri spazi digitali, così che le piattaforme collaborative come la nostra non siano più un’eccezione. La regolamentazione dovrebbe dare alle persone la possibilità di prendere il controllo dei propri spazi pubblici digitali, invece che relegarle ad agire come destinatari passivi di pratiche di moderazione dei contenuti. Abbiamo bisogno di impianti legislativi e di policy che permettano di dare ai cittadini il potere di dare forma all’internet del futuro, piuttosto che far sì che le piattaforme li escludano ulteriormente.
La nostra comunità di pubblico interesse è qui per discutere con i legislatori, aiutandoli a progettare regolamenti che aiutino i cittadini a migliorare insieme i nostri spazi online.
«Il sapere dell’umanità è ancora troppo spesso presente unicamente negli archivi difficilmente consultabili, tra documenti e database troppo poco conosciuti o tra i ricordi dei nostri anziani. Wikipedia punta a migliorare la diffusione della conoscenza, digitalizzando il nostro patrimonio e le nostre conoscenze e diffondendo tutto questo attraverso internet. Le epidemie di Covid-19 e di disinformazione ci ricordano l’importanza della diffusione del sapere».
Pierre-Yves Beaudouin, Presidente di Wikimedia France
Titolo originale del contributo: “The Digital Services Act could require big changes to digital platforms. Here are 4 things lawmakers need to know to protect people-powered spaces like Wikipedia.” di Jan Gerlach, Lead Public Policy Manager, Wikimedia Foundation
Nell’immagine: European Union Flags, di Thijs ter Haar, CC BY 2.0, attraverso Wikimedia Commons