Report sulla trasparenza
1 luglio 2023 - 31 dicembre 2023

Pubblicato:

25 aprile 2024

Aggiornato:

25 aprile 2024

Per fornire una panoramica dell'impegno di Snap in materia di sicurezza, della natura e del volume dei contenuti segnalati sulla nostra piattaforma, pubblichiamo la relazione per la trasparenza due volte all'anno. Ci impegniamo a rendere queste relazioni più complete e informative per la sicurezza e il benessere della nostra community e per i numerosi stakeholder che seguono con attenzione le nostre pratiche di moderazione dei contenuti e delle forze dell'ordine. 

La presente relazione per la trasparenza riguarda il secondo semestre del 2023 (1 luglio - 31 dicembre). Come nelle nostre relazioni precedenti, condividiamo i dati sul numero totale di segnalazioni in-app a livello di contenuti e di account che abbiamo ricevuto e nei confronti delle quali abbiamo preso provvedimenti per specifiche categorie di violazioni di politiche, sul modo in cui abbiamo risposto alle richieste delle forze dell'ordine e degli enti governativi; nonché sui provvedimenti che abbiamo preso suddivisi per Paese.

Come parte del nostro continuo impegno a migliorare le nostre relazioni per la trasparenza, stiamo introducendo alcuni nuovi elementi con questa versione. 

Abbiamo ampliato la nostra tabella principale per includere relazioni e controlli su Terrorismo ed estremismo violento e sfruttamento e abuso sessuale dei minori (CSEA). Nelle relazioni precedenti, abbiamo evidenziato le eliminazioni di account effettuate in risposta a tali violazioni in sezioni separate. Continueremo a descrivere i nostri sforzi proattivi e reattivi contro CSEA, nonché le nostre relazioni al NCMEC, in una sezione separata. 

In secondo luogo, abbiamo fornito informazioni più dettagliate sui ricorsi, evidenziando il totale dei ricorsi e delle reintegrazioni in base all'applicazione delle Linee Guida per la Community. 

Infine, abbiamo ampliato la nostra sezione dedicata all'Unione Europea, fornendo una panoramica più approfondita delle attività di Snap nell'UE. In particolare, stiamo pubblicando la nostra relazione per la trasparenza DSA più recente e le metriche aggiuntive sulla nostra scansione dei media in materia di CSEA.

Per ulteriori informazioni sulle politiche contro i pericoli online e i nostri piani per continuare a migliorare le pratiche di segnalazione, consulta il nostro Blog Sicurezza e Impatto più recente riguardo a questa relazione per la trasparenza. Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consulta la scheda Informazioni sulla Relazione di trasparenza in fondo alla pagina.

Tenere presente che la versione più aggiornata di questa relazione per la trasparenza è disponibile nel locale en-US.

Panoramica dei contenuti e delle violazioni degli account

Dal 1 luglio al 31 dicembre 2023, Snap ha adottato una procedura contro 5.376.714 contenuti a livello globale che ci sono stati segnalati e che violano le nostre Linee Guida per la Community.

Durante il periodo in esame, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, ovvero su 10.000 visualizzazioni di Snap e Storie su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre politiche. Il tempo medio di elaborazione dei contenuti segnalati è stato di circa 10 minuti.

Analisi dei contenuti e delle violazioni degli account

I nostri tassi complessivi di segnalazione e applicazione sono rimasti abbastanza simili ai sei mesi precedenti. In questo ciclo, abbiamo osservato un aumento approssimativo del 10% nelle segnalazioni totali di contenuti e account.

Il conflitto tra Israele e Hamas è iniziato in questo periodo, e di conseguenza, abbiamo assistito a un aumento di contenuti violenti. Il totale delle segnalazioni relative all'incitamento all'odio è aumentato del 61%, mentre il totale delle segnalazioni di incitamento all'odio è aumentato del 97% e le segnalazioni di account unici sono aumentate del 124%. Sono aumentate anche le segnalazioni e le applicazioni relative al terrorismo e all'estremismo violento, anche se rappresentano meno dello 0,1% del totale delle applicazioni relative ai contenuti sulla nostra piattaforma. I nostri team di Fiducia e Sicurezza continuano a rimanere vigili di fronte all'insorgere di conflitti globali per contribuire a mantenere Snapchat al sicuro. Abbiamo anche ampliato la nostra relazione per la trasparenza per includere maggiori informazioni a livello globale e nazionale riguardo al totale delle segnalazioni, ai contenuti applicati e agli account unici applicati per le violazioni della nostra politica sul terrorismo e l'estremismo violento. 

Lotta contro lo sfruttamento e gli abusi sessuali sui minori

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEA) sulla nostra piattaforma sono una priorità assoluta per Snap, che evolve continuamente le sue possibilità per combattere questi e altri crimini.

Utilizziamo strumenti di rilevamento con tecnologia attiva, come la tecnica di corrispondenza basata su robust hash di PhotoDNA e la tecnica di rilevamento Child Sexual Abuse Imagery (CSAI) di Google per identificare rispettivamente le immagini e i video illegali di abusi sessuali su minori e segnalarli al National Center for Missing and Exploited Children (NCMEC), come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.

Nel secondo semestre del 2023, abbiamo individuato e agito in modo proattivo sul 59% del totale delle violazioni di sfruttamento e abuso sessuale di minori segnalate. Ciò rappresenta una diminuzione totale del 39% rispetto al periodo precedente, grazie ai miglioramenti apportati alle opzioni di segnalazione per gli Snapchatter, che hanno aumentato la nostra visibilità dei potenziali CSEA inviati su Snapchat. 

*Si noti che ogni segnalazione al NCMEC può riguardare diversi contenuti. Il numero totale di contenuti inviati al NCMEC è pari al numero totale di contenuti segnalati. Abbiamo anche escluso le presentazioni ritirate al NCMEC da questo numero.

Contenuti relativi all'autolesionismo e al suicidio

L'attenzione che riserviamo alla salute mentale e al benessere degli Snapchatter ha influenzato (e continua a influenzare) molte delle decisioni che abbiamo preso su come sviluppare Snapchat in modo diverso. In quanto piattaforma concepita per favorire la comunicazione tra amici, crediamo che Snapchat possa svolgere un ruolo unico nel permettere loro di aiutarsi a vicenda in momenti difficili.

Quando il nostro team di Fiducia e Sicurezza viene a conoscenza di uno Snapchatter in difficoltà, può inoltrare risorse di prevenzione e supporto all'autolesionismo e avvisare il personale di emergenza, se necessario. Le risorse che condividiamo sono disponibili sulla nostra lista globale di risorse per la sicurezza e sono accessibili pubblicamente a tutti gli Snapchatter.

Ricorsi

Nella nostra relazione precedente, abbiamo introdotto delle metriche sui ricorsi, evidenziando il numero di volte in cui gli utenti ci hanno chiesto di rivedere la nostra decisione iniziale di moderazione nei confronti del loro account. In questa relazione, abbiamo ampliato i nostri ricorsi per includere l'intera gamma delle categorie di politiche a livello di account.

*Fermare la diffusione di contenuti o attività legate allo sfruttamento sessuale di minori è una priorità assoluta. Snap dedica importanti risorse a questo obiettivo e ha tolleranza zero per tali comportamenti.  È necessaria una formazione speciale per esaminare i ricorsi CSE ed è presente un team limitato di agenti che si occupa di queste revisioni a causa della natura grafica dei contenuti.  Nell'autunno del 2023, Snap ha implementato modifiche alle politiche che hanno influito sulla coerenza di alcune esecuzioni CSE; abbiamo affrontato queste incoerenze tramite la riqualificazione degli agenti e il controllo della qualità.  Ci aspettiamo che la prossima relazione per la trasparenza di Snap mostri i progressi ottenuti nel migliorare i tempi di risposta dei ricorsi CSE e nel migliorare la precisione delle azioni esecutive iniziali.

Moderazione degli annunci

Snap si impegna a garantire che tutti gli annunci siano pienamente conformi alle nostre Informative sulla Pubblicità. Crediamo in un approccio responsabile e rispettoso alla pubblicità, creando un'esperienza sicura e piacevole per tutti i nostri utenti. Di seguito sono riportate informazioni sulla nostra moderazione degli annunci a pagamento su Snapchat. Tieni presente che gli annunci su Snapchat possono essere rimossi per una serie di motivi, come indicato nelle Informative sulla Pubblicità di Snap, tra cui contenuti ingannevoli, contenuti per adulti, contenuti violenti o inquietanti, incitamento all'odio e violazione della proprietà intellettuale. Inoltre, ora puoi trovare la Galleria degli annunci di Snapchat nella barra di navigazione di questa relazione per la trasparenza.

Panoramica regionale e nazionale

Questa sezione fornisce una panoramica dell'attuazione delle nostre Linee Guida per la Community in un campione di regioni geografiche. Le nostre linee guida si applicano a tutti i contenuti pubblicati su Snapchat, nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla posizione geografica.

Le informazioni per i singoli Paesi, compresi tutti gli Stati membri dell'UE, sono disponibili per il download tramite il file CSV.