Era già in vigore dalla fine di agosto 2023 per le piattaforme con più di 45 milioni di utenti (registrati nella UE), ovvero le Very Large Online Platforms (VLOPs) – che contano nella UE circa 140 milioni di utenti – e i Very Large Online Search Engines (VLOSEs). Ma dal 17 febbraio scorso vale, a tutti gli effetti, per tutte le piattafome. Stiamo parlando del Digital Services Act (DSA), che insieme al Digital Markers Act è la legge più importante dell’Unione Europea in materia di commercio elettronico, contenuto illecito e illegale, trasparenza della pubblicità online, e disinformazione. Ad essa dovranno sottostare i provider che vorranno operare all’interno dell’Unione Europea, anche se la loro sede legale si trova fuori dalla UE.
Con questa legge, che aggiorna la Direttiva sull’e-Commerce del 2000, il Parlamento Europeo tenta infatti, per la prima volta, di regolare in modo organico gli intermediari e le piattaforme online (social network, siti content-sharing come cloud and web hosting, app store, internet access provider, e piattaforme di viaggi) allo scopo di prevenire la circolazione di contenuti e attività illegali e nocive, nonché la diffusione di disinformazione, per garantire all’utenza maggiore sicurezza e protezione dei diritti fondamentali, e minore esposizione a messaggi lesivi della dignità umana.
Ma che cosa prevede, più in dettaglio, il DSA?
Innanzitutto una serie di norme che le piattaforme sono tenute a rispettare, tra cui:
- il divieto di fare pubblicità profilando l’utenza minorenne in basa a dati personali come l’etnia, le opinioni politiche, o l’orientamento sessuale;
- il divieto di usare i cosiddetti “dark patterns” per manipolare l’utenza e indurla a fare scelte indesiderate. Ai provider viene infatti proibito di disegnare e strutturare le interfacce in modi poco chiari o addirittura con lo scopo di manipolare l’utenza;
- l’obbligo, per le VLOPs, di garantire accesso ai dati a chi fa ricerca.
Introduce inoltre:
- un canale privilegiato di collaborazione con i “trusted flaggers”, ovvero organizzazioni ufficialmente autorizzate a segnalare la presenza di contenuti illegali o illeciti e a sollecitare interventi di moderazione dei contenuti;
- nuovi diritti per l’utenza, quali quello di poter segnalare abusi nella propria lingua, interagire direttamente con la piattaforma, chiedere risarcimenti nel caso di mancato rispetto dei diritti fondamentali, fare appello nel caso di rimozione ingiustificata di contenuti da parte delle piattaforme.
E chiede un impegno chiaro:
- nella prevenzione di disinformazione e manipolazioni dell’opinione pubblica, specialmente in periodi elettorali;
- nel contrasto alla violenza di genere;
- nel fornire maggiore trasparenza rispetto sia alla moderazione del contenuto e alle policy di moderazione – che devono essere accessibili – sia all’uso di algoritmi utilizzati per pubblicizzare prodotti (tema di interesse per European Centre for Algorithmic Transparency, aperto nell’aprile del 2023 proprio per supportare l’applicazione del DSA).
- nel predisporre meccanismi per rispondere efficacemente a situazioni di crisi (una pandemia, un conflitto).
In generale il DSA, è bene sottolinearlo, non definisce ciò che è “illegale” online: questo compito viene lasciato al legislatore europeo e ai vari legislatori nazionali. Chiede però il rispetto delle convenzioni internazionali su diritti umani, e stabilisce degli standard minimi per la protezione dei diritti fondamentali, con l’ambizione di diventare un punto di riferimento anche fuori dall’Unione Europea.
Tra le sue misure più interessanti, vi è infine quella che prevede – da parte della Commissione Europea – l’apertura di procedure formali di ispezione e sanzione, nel caso il cui una piattaforma non rispetti le norme previste. Qualora venissero comminate delle pene, il DSA stabilisce inoltre che le VLOPs, nel caso di infrazioni o di azioni che mettano in pericolo la vita e la sicurezza dell’utenza, possono incorrere nella sospensione temporanea del servizio (interim measure) o, in presenza di violazioni sistematiche e ripetute, in ammende fino al 6% del loro volume d’affari globale (non-compliance decision). Su questa base, importanti istruttorie sono già state avviate per verificare possibili infrazioni da parte di X-Twitter in materia di disinformazione (dicembre 2023), e di TitTok per presunte violazioni in materia di protezione dei minori, trasparenza della pubblicità, uso di algoritmi capaci di generare forme di dipendenza, accesso ai dati per chi fa ricerca, e risk management (febbraio 2024).
Sarà importante verificare, nei prossimi mesi, se istruttorie come queste saranno sufficienti e garantire maggiore collaborazione e responsabilità da parte delle piattaforme – nel qual caso il DSA potrebbe segnare una vera e propria svolta nella prevenzione e nel contrasto anche dell’hate speech – e se e quanto le misure previste rimarranno invece solo sulla carta. Molto dipenderà da come, a livello dei singoli Stati, l’applicazione del DSA sarà monitorata e verificata periodicamente. E qui entreranno in gioco anche Reti come la nostra, che dovranno mantenere altra l’attenzione sulle sfide sugli strumenti di contrasto, e sulle responsabilità dei vari attori sociali interessati ai, e dai, fenomeni d’odio.
Federico Faloppa