Azioni di prevenzione, innovazione normativa e sostegno fattivo alle iniziative che favoriscono l’infodiversità e l’individuazione di soluzioni che promuovano condizioni in cui un dibattito più civile e tollerante è possibile. Questi i tre i pilastri necessari per intraprendere un percorso che ponga un freno al fenomeno dell’hate speech, illustrati nella relazione finale del Gruppo di lavoro sull’odio online costituito poco più di un anno dal ministero per l’Innovazione. Un documento alla cui stesura hanno partecipato i 25 membri che compongono il gruppo e che ha visto, inoltre, il contributo di numerosi esperti e organizzazioni, tra cui la Rete nazionale per il contrasto ai discorsi e ai fenomeni d’odio.
Risposte in chiave europea
La relazione analizza, scendendo nel dettaglio, i tre filoni di lavoro ipotizzati, a partire da una campagna di prevenzione che agisca sul livello culturale e educativo, col coinvolgimento delle scuole, delle famiglie, delle aziende e dei media. Per questi ultimi, tra le altre cose, indica al possibile condizionamento del finanziamento pubblico alle testate giornalistiche al rispetto dell’obbligo di astensione dall’incitamento all’odio e dal ricorso a un linguaggio discriminatorio. Significativo potrebbe essere, secondo gli esperti, un grande progetto educativo europeo porterebbe.
Sul fronte normativo, il Gruppo descrive come ardua e inutile l’applicazione di una strategia di repressione: l’ordinamento italiano già prevede strumenti adeguati. Occorre applicarli. Quello che invece auspica, per completare questo quadro, è la previsione di percorsi di rieducazione o di forme con condotta riparatoria per chi incita l’odio online. Soprattutto ciò che, secondo gli esperti incaricati dal ministero, può far la differenza, è il Digital Service Act, regolamento proposto dalla Commissione europea lo scorso dicembre che, una volta concluso l’iter legislativo dell’Unione, entrerà in vigore e sarà applicabile in ogni stato membro. Al centro di questo pacchetto di regole la responsabilità legale delle piattaforme IT in relazione ai contenuti su di esse pubblicati, a cui si affiancherebbe un maggiore accesso ai loro dati interni da parte di organi regolatori e istituzioni, la valutazione indipendente dell’adempimento alle norme e l’applicazione di sanzioni qualora non si verificasse.
Puntare su progetti, anche questi in ambito europeo, è il terzo aspetto sul quale la relazione si sofferma. Iniziative finalizzate a far crescere quei modelli social fondati su valori che promuovono un ambiente diverso da quello “tossico” nel quale, purtroppo, intolleranza e discriminazione proliferano. Progetti che puntino sulla creazione di community che riflettano e rispettino determinati principi, dunque sulle persone, più che sull’utilizzo di algoritmi per poter proteggere quelle stesse comunità di utenti.
Proposte pratiche
Come passare dalla teoria alla pratica? La relazione fornisce degli spunti operativi: costituzione di gruppi di lavoro per progettare le attività da avviare a livello europeo; definizione di uno schema di collaborazione tra le autorità di garanzia e vigilanza, per far sì che la co-regolamentazione sia efficace; elaborazione di linee guida e di modalità di valutazione per l’accreditamento di organizzazioni e centri di ricerca da coinvolgere nel monitoraggio.
La relazione finale è disponibile qui.