Il Digital Services Act (DSA), divenuto applicabile il 17 febbraio 2024, rappresenta un cambiamento significativo nell'approccio dell'Unione Europea alla regolamentazione delle piattaforme online. Progettato per creare un ambiente digitale più sicuro, il DSA impone obblighi completi ai servizi digitali, in particolare a quelli che si rivolgono alle Very Large Online Platforms (VLOP) e ai Very Large Online Search Engines (VLOSE) - quelli con oltre 45 milioni di utenti attivi mensili nell'UE. Con l'attivazione dei meccanismi di applicazione, i primi casi forniscono informazioni su come il DSA sta influenzando il contenzioso contro le piattaforme e segnalano le tendenze normative emergenti.
Prime azioni di applicazione
1. Posizione proattiva della Commissione Europea
La Commissione europea ha assunto un ruolo assertivo nell'applicazione delle disposizioni del DSA. Entro dicembre 2024, almeno 22 piattaforme online avevano ricevuto Richieste di informazioni (RFI) per valutare la conformità al DSA. Queste RFI sono passi preliminari che possono portare a indagini formali in caso di sospetta non conformità. In particolare, la Commissione ha avviato procedimenti formali contro cinque importanti piattaforme, a dimostrazione del suo impegno per una supervisione rigorosa.
2. La storica sentenza del tribunale distrettuale di Amsterdam
Nel luglio 2024, il tribunale distrettuale di Amsterdam ha trattato un caso riguardante la piattaforma X (precedentemente nota come Twitter). Il tribunale si è pronunciato a favore di un utente che era stato sottoposto a "shadow banning" non dichiarato, in cui i post dell'utente erano resi meno visibili senza notifica. Il tribunale ha stabilito che X ha violato i requisiti di trasparenza del DSA e ha risarcito l'utente. Questo caso sottolinea la volontà della magistratura di far rispettare i mandati di protezione degli utenti del DSA e stabilisce un precedente per la trasparenza nelle pratiche di moderazione dei contenuti.
Tendenze normative emergenti
1. Maggiore controllo delle pratiche di moderazione dei contenuti
Le autorità di regolamentazione stanno esaminando attentamente come le piattaforme moderano i contenuti, sottolineando la necessità di politiche chiare, trasparenti e non discriminatorie. Il DSA impone che le piattaforme forniscano spiegazioni dettagliate per la rimozione dei contenuti o la riduzione della visibilità, garantendo che gli utenti siano informati dei motivi alla base di tali azioni. Questo approccio mira a bilanciare la rimozione di contenuti dannosi con la protezione della libertà di espressione.
2. Concentrati sull'affidabilità algoritmica
L'istituzione del Centro Europeo per la Trasparenza Algoritmica (ECAT) nel 2023 sottolinea l'impegno dell'UE a esaminare attentamente gli algoritmi che guidano la raccomandazione e la moderazione dei contenuti. Il ruolo dell'ECAT include la valutazione dell'impatto sociale di questi algoritmi e la garanzia che siano conformi agli standard del DSA. Le piattaforme potrebbero dover affrontare maggiori obblighi di spiegare e adeguare i propri algoritmi per mitigare i rischi sistemici, come la diffusione di contenuti illegali o disinformazione.
3. Armonizzazione dell'applicazione negli Stati membri
Sebbene la Commissione europea svolga un ruolo centrale nell'applicazione del DSA, gli Stati membri sono tenuti a designare Coordinatori dei servizi digitali (DSC) per supervisionare la conformità a livello nazionale. Tuttavia, a partire da novembre 2024, l'applicazione a livello nazionale è stata limitata a causa dei ritardi nella nomina e nell'attribuzione di poteri a queste autorità. La Commissione ha avviato procedure di infrazione contro diversi Stati membri per accelerare questo processo, indicando una spinta verso un'applicazione uniforme in tutta l'UE.
Previsioni per il contenzioso futuro
1. Aumento delle azioni legali avviate dagli utenti
Man mano che la consapevolezza delle disposizioni del DSA cresce, gli utenti saranno più propensi a perseguire rimedi legali quando percepiscono violazioni dei propri diritti. Ciò potrebbe portare a un aumento del contenzioso contro le piattaforme, in particolare per quanto riguarda questioni come la rimozione ingiustificata di contenuti, la mancanza di trasparenza e le violazioni della privacy.
2. Sfide al processo decisionale algoritmico
Con l'enfasi sulla trasparenza algoritmica, le piattaforme potrebbero affrontare sfide legali che mettono in discussione l'equità e i pregiudizi dei loro sistemi di raccomandazione e moderazione dei contenuti. I tribunali potrebbero richiedere alle piattaforme di dimostrare che i loro algoritmi sono conformi agli standard di equità e trasparenza del DSA.
3. Aumento delle sanzioni per inadempienza
Il DSA autorizza le autorità di regolamentazione a imporre sanzioni significative, fino al 6% del fatturato globale di una piattaforma, per la mancata conformità. Questo ingente rischio finanziario probabilmente motiverà le piattaforme ad allineare proattivamente le proprie operazioni ai requisiti del DSA, ma prepara anche il terreno per contenziosi ad alto rischio in caso di violazioni.
Conclusione
Il Digital Services Act sta rimodellando il panorama legale per le piattaforme online che operano all'interno dell'Unione Europea. Le prime azioni di applicazione e le sentenze dei tribunali segnalano una tendenza verso una maggiore responsabilità, trasparenza e protezione degli utenti. Man mano che i quadri normativi si consolidano e la consapevolezza degli utenti aumenta, le piattaforme devono affrontare questo ambiente in evoluzione con attenzione per mitigare i rischi legali e garantire la conformità.
Per una consulenza legale su come affrontare le complessità del Digital Services Act e garantire la conformità alle sue disposizioni, il nostro studio offre una consulenza esperta su misura per le esigenze della vostra piattaforma. Contattateci per rimanere all'avanguardia in questo dinamico panorama normativo.