Il Digital Services Act (in breve DSA ed in italiano Normativa sui servizi digitali, approvato come Regolamento UE 2022/2065) è un regolamento dell’Unione europea per modernizzare e ampliare la Direttiva sul commercio elettronico 2000/31/CE in relazione ai contenuti illegali, alla pubblicità trasparente e alla disinformazione.
È stato presentato insieme al Digital Markets Act (DMA) dalla Commissione europea al Parlamento europea e al Consiglio dell’Unione europea il 15 dicembre 2020, e, successivamente, approvato il 19 ottobre 2022. La sua entrata in vigore è avvenuta il 25 agosto 2023 e la sua applicazione è fissata a partire dal 17 febbraio 2024.
Il regolamento si applica a tutti i servizi intermediari di trasmissione o memorizzazione dell’informazione (piattaforme, motori di ricerca, hosting) offerti a destinatari situati in Unione europea.
Il DSA ha lo scopo di migliorare la moderazione dei contenuti sulle piattaforme dei social media per affrontare le preoccupazioni sui contenuti illegali. Esso mantiene l’attuale regola secondo la quale le società che ospitano dati altrui non sono responsabili del contenuto a meno che non sappiano effettivamente che è illegale, e una volta ottenuta tale conoscenza non agiscono per rimuoverlo.
Oltre alle esenzioni dalla responsabilità, il DSA introduce un’ampia serie di nuovi obblighi sulle piattaforme, compresi alcuni che mirano a rivelare alle autorità di regolamentazione come funzionano i loro algoritmi, mentre altri obblighi richiedono trasparenza su come vengono prese le decisioni di rimozione dei contenuti e sul modo in cui gli inserzionisti personalizzano la pubblicità nei confronti degli utenti.
L’elenco dei nuovi obblighi per le piattaforme include, principalmente:
- obblighi di trasparenza (obbligo di fornire ai ricercatori l’accesso ai dati, trasparenza dei sistemi di suggerimento e di pubblicità mirata, art.i 15, 26, 27, 30, 40);
- meccanismo di segnalazione e azione: i prestatori di servizi predispongono meccanismi per consentire a qualsiasi persona o ente di notificare la presenza di informazioni specifiche che possano costituire contenuti illegali; se le informazioni costituiscono contenuti illegali, vi saranno delle restrizioni che dovranno essere chiaramente e specificatamente motivate.
Le restrizioni potranno essere:
- eventuali restrizioni alla visibilità di informazioni specifiche fornite dal destinatario del servizio, comprese la rimozione di contenuti, la disabilitazione dell’accesso ai contenuti o la retrocessione dei contenuti;
- la sospensione, la cessazione o altra limitazione dei pagamenti in denaro;
- la sospensione o la cessazione totale o parziale della prestazione del servizio;
- la sospensione o la chiusura dell’account del destinatario del servizio);
- obbligo di informare l’utente della decisione della piattaforma di attuare moderazione del contenuto, motivando e permettendo la contestazione (art. 17);
- obbligo di fornire l’opzione all’utente di non ricevere suggerimenti basati sulla profilazione (art. 27);
- obbligo di chiarezza e rispetto dei diritti fondamentali nei termini di servizio (art. 14);
- obbligo di presenza di un quadro completo di gestione del rischio e relativo audit indipendente.
Alcune delle sue disposizioni si applicano solo alle piattaforme che hanno più di 45 milioni di utenti nell’Unione europea, ovvero il 10% del totale dei suoi cittadini (sezione 5). Piattaforme come Facebook, la controllata di Google YouTube, X (ex Twitter) e TikTok raggiungono tale soglia e sono soggette a tutti gli obblighi previsti. Sono invece esentate da alcuni obblighi le microimprese e piccole imprese (artt. 19, 29).
Le aziende che non rispettano i nuovi obblighi rischiano sanzioni fino al 6% sul fatturato annuo.