Dsa e moderazione dei contenuti: le piattaforme vanno a rilento

Il Digital Service Act (Dsa) ha istituito la figura dei “segnalatori attendibili”, entità speciali esterne alle piattaforme digitali per il controllo dei reati sul web. Da parte degli operatori, però, si assiste a un taglio dei team interni di moderatori e a ritardi o resistenze nella condivisione dei dati

Uno degli intenti del Digital Services Act (Dsa) è quello di regolamentare la moderazione dei contenuti online. 

I fornitori di servizi intermediari della società dell’informazione, così come definiti dalla direttiva (UE) 2015/1535, ovvero tutti gli operatori del mercato digitale come social network, piattaforme ecommerce e motori di ricerca, sono soggetti al primo “livello” di obblighi previsti dal Dsa. Questo livello base di obblighi si applica a tutti i prestatori di servizi intermediari, con ulteriori disposizioni che si applicano in modo graduato a determinati tipi di fornitori.

Gli obblighi principali comprendono termini e condizioni (T&C), trasparenza e rendicontazione: tutti i fornitori devono rivedere i loro T&C per garantire che siano chiari, trasparenti ed equi. Devono includere informazioni sulle politiche, procedure, misure e strumenti utilizzati per la moderazione dei contenuti. Inoltre, sono soggetti ad un regime annuale di trasparenza e rendicontazione riguardante le loro azioni di moderazione dei contenuti, a meno che non siano piccole e medie imprese.

Il ruolo del segnalatore attendibile previsto dal Dsa

Al fine di migliorare la sicurezza e la trasparenza online, il Digital Services Act prevede la figura dei “segnalatori attendibili” (trusted flaggers) col ruolo di facilitare l’identificazione e la rimozione rapida di contenuti illegali e dannosi.

Si tratta di un’entità, solitamente un’organizzazione o un gruppo di esperti, riconosciuta ufficialmente da uno Stato membro dell’Ue per la sua competenza specifica nel rilevare contenuti illegali online. La fiducia conferita a questi segnalatori si basa sulla loro comprovata esperienza e sull’affidabilità nelle segnalazioni effettuate.

I segnalatori attendibili possono includere giornalisti, organizzazioni non governative, autorità pubbliche o altre entità con competenze riconosciute nel monitoraggio dei contenuti online. Ad ogni modo, tutti devono soddisfare i criteri di competenza e conoscenza (nel settore specifico che intendono monitorare), affidabilità (devono avere un record comprovato di segnalazioni accurate e tempestive) e indipendenza (devono operare in modo indipendente e senza conflitti di interesse).

Nel monitoraggio delle piattaforme digitali, i segnalatori attendibili devono prestare particolare attenzione alla presenza di contenuti che incitano all’odio o che hanno a che fare con terrorismo, abusi sui minori, frodi ed altre attività illecite.

Le segnalazioni effettuate dai segnalatori attendibili devono essere trattate con priorità dalle piattaforme digitali. Questo significa che le piattaforme devono adottare misure rapide e efficaci per rimuovere o disabilitare l’accesso ai contenuti segnalati. 

Essi collaborano strettamente con le autorità nazionali e le piattaforme per garantire che le segnalazioni siano accurate e che le azioni intraprese siano appropriate e conformi alle normative vigenti. 

Queste figure sono chiamate a pubblicare almeno una volta l’anno delle relazioni dettagliate e comprensibili sulle segnalazioni effettuate, come prevede l’articolo 16 del Dsa, includendo informazioni riguardanti il numero di segnalazioni suddivise in base all’identità del prestatore di servizi di memorizzazione di informazioni, il tipo di contenuto illegale segnalato, le azioni adottate dal prestatore di servizi in risposta alle segnalazioni e una spiegazione delle procedure adottate per garantire la propria indipendenza, senza dati personali.

Le relazioni devono essere inviate al coordinatore dei servizi digitali che ha conferito la qualifica di segnalatore attendibile e devono essere messe a disposizione del pubblico.

I tagli ai team di moderazione delle piattaforme digitali 

Oltre l’importante ruolo svolto dall’esterno dai segnalatori attendibili, esistono, all’interno delle varie “big tech”, team specializzati proprio nella moderazione e nel controllo dei contenuti. I dati dei rapporti che le grandi aziende digitali hanno dovuto pubblicare in risposta al Digital service act (Dsa), però, evidenziano una marcata tendenza generale alla riduzione del personale addetto a svolgere questa funzione. Cala, dunque, il numero delle persone al cui giudizio è affidata la rimozione dei contenuti, la sospensione o il blocco degli account e la lotta verso le varie forme di violenza.

Da novembre 2023 a maggio 2024, X ha tagliato 800 persone nel team di moderazione, di cui la maggior parte di lingua inglese. Inoltre, l’ultima edizione del Rapporto non presenta più la tabella con l'”anzianità” professionale dei moderatori da cui si intuiva che la maggioranza non resiste nella posizione oltre i tre anni.

Snapchat passa da 2.198 persone a 1.656 nel team moderazione contenuti, sempre con maggiore incidenza su coloro che parlano inglese, mentre Pinterest ha visto un calo dei suoi moderatori anglofoni da 383 a 365, quasi tutti collaboratori esterni. Booking è passato da 68 a 52, di cui 21 esterni, per tutto il mondo. 

LinkedIn resta stabile con 180 persone dedicate alla moderazione in lingue parlate in Europa, oltre alle 1.152 anglofone. Numeri in continuità anche per Apple (con 605 persone per l’inglese, 44 per lo spagnolo e 40 per il portoghese), per Facebook e Instagram (40mila persone a livello globale, di cui 15mila alla moderazione tra interni ed esterni). In continuità con il primo report, anche quello di maggio 2024 di Microsoft e Amazon rimane silente sul numero di moderatori impiegati.

Google conteggia i moderatori secondo il numero di servizi monitorati, includendo nella dichiarazione un numero aggregato che sembrerebbe, quindi, superiore a quello del totale delle singole persone impiegate nell’attività di moderazione. Wikipedia rimanda alla sua rete di volontari per il controllo dei contenuti, mentre l’ecommerce tedesco Zalando insiste a contestare la sua inclusione nel gruppo degli operatori maggiormente sorvegliati dal Dsa sostenendo di non rientrare nei requisiti.

Aliexpress, il braccio europeo del colosso cinese dell’ecommerce Alibaba, dichiara di aver rinforzato il reparto, portandolo da 367 a 500 unità. TikTok, allo stesso modo, è passata da 6.135 a 6.287, aumentando anche il numero di persone destinate alla revisione di foto e video (da 395 a 413). 

Cosa è stato fatto a quasi un anno dall’entrata in vigore del Dsa

All’inizio di maggio la Commissione ha chiesto conto a X del taglio dei moderatori che emergeva dal rapporto, sulla scia di una inchiesta già avviata contro il social network per violazione del Dsa. LinkedIn all’inizio di giugno ha accettato di disabilitare una funzione che consentiva agli inserzionisti di inviare pubblicità personalizzate agli iscritti ai gruppi, sulla scia di una contestazione avvenuta sotto il cappello del Dsa.Sono partite indagini a carico, tra gli altri, di Bing, il motore di ricerca di Microsoft, proprio per scarsa moderazione, di AliExpress, per la gestione di rimborsi e reclami, e di Meta, per far luce su cosa stia facendo la multinazionale per proteggere i minori su Facebook e Instagram e contrastare l’effetto “tana del coniglio”, ossia la concatenazione di contenuti senza soluzione di continuità che cattura l’attenzione degli utenti. 

Per effetto del Dsa Bruxelles ha bloccato il lancio di TikTok Lite in Europa, giudicando pericoloso il sistema di ricompense in quanto genererebbe dipendenza. Anche per Temu e Shein sono scattate le prime richieste di informazioni su come gestiscono la sorveglianza di prodotti illegali che, se insoddisfacenti, potrebbe portare all’apertura di un’indagine.

Resta, però, aperta una questione: l’elevato numero di aziende ancora da sorvegliare, al di là dei big player citati che ogni mese offrono servizi ad almeno il 10% della popolazione dell’Unione europea, ossia 45 milioni di persone.

Argomenti: dsa
Redazione

Lo spazio dedicato all'informazione, alle notizie e a tutti gli aggiornamenti sul mondo del commercio elettronico

Non ci sono ancora commenti

Lascia un Commento

Il tuo indirizzo email non sarà pubblicato.

CONTATTI

Via Lana, 5 | 25020 FLERO (BS)

Tel 030.358.03.78
redazione@lineaecommerce.it

LINEAeCOMMERCE

Lo spazio dedicato all'informazione, alle notizie e a tutti gli aggiornamenti sul mondo del commercio elettronico

CHI SIAMO

Linea ecommerce è un prodotto editoriale curato da Aicel (Associazione italiana commercio elettronico) con l'obiettivo di fare cultura e informazione sul mondo delle vendite online di beni e servizi, sugli sviluppi normativi del settore e più in generale sul digitale. Un canale per essere sempre aggiornati riguardo all'evoluzione dell'ecommerce e alle sue tendenze.