Relatório de Transparência
1 de julho de 2023 – 31 de dezembro de 2023

Publicado em:

25 de abril de 2024

Atualizado em:

25 de abril de 2024

Para fornecer mais informações sobre os esforços de segurança da Snap, o volume e a natureza do conteúdo denunciado em nossa plataforma, publicamos relatórios de transparência duas vezes ao ano. Estamos comprometidos em continuar a tornar esses relatórios mais abrangentes e informativos para a segurança e o bem-estar de nossa comunidade e as muitas partes interessadas que se importam profundamente com nossa moderação de conteúdo e práticas de aplicação da lei. 

Este relatório de transparência cobre o segundo semestre de 2023 (1º de Julho - 31 de Dezembro). Assim como em nossos relatórios anteriores, compartilhamos dados sobre o número global de conteúdos no aplicativo e denúncias de contas que recebemos e contra os quais aplicamos penalidades, em categorias específicas de violações de políticas. Também compartilhamos a forma como respondemos a solicitações de autoridades e governos; e nossas ações de aplicação de penalidades descritas por país.

Como parte de nosso compromisso de melhorar continuamente nossos relatórios de transparência, estamos apresentando alguns novos elementos com este comunicado. 

Primeiro, expandimos nossa tabela principal para incluir denúncias e aplicação de leis contra conteúdo e contas ligadas a terrorismo e extremismo violento, além de exploração e abuso sexual infantil (CSEA, na sigla em inglês). Em relatórios anteriores, destacamos as exclusões de contas feitas em resposta a essas violações em seções separadas. Continuaremos a descrever nossos esforços proativos e reativos contra o abuso de menores, bem como nossos relatórios ao NCMEC, em uma seção separada. 

Em segundo lugar, fornecemos informações expandidas sobre recursos, descrevendo o total de recursos e reintegrações por meio de penalidades das Diretrizes Comunitárias. 

Por fim, expandimos nossa seção da União Europeia, fornecendo mais informações sobre as atividades da Snap na UE. Especificamente, estamos publicando nosso relatório de transparência de DSA mais recente, além de métricas adicionais sobre nossa análise de mídias que potencialmente contenham abuso sexual infantil.

Para obter mais informações sobre nossas políticas de combate a danos online, e planos de continuar evoluindo nossas práticas de denúncia, leia nosso mais recente post de blog sobre Segurança e Impacto que discorre sobre esse relatório de transparência.  Para encontrar recursos adicionais de segurança e privacidade no Snapchat, consulte nosso guia Sobre os Relatórios de Transparência no final da página.

Observe que a versão mais atualizada deste relatório de transparência pode ser encontrada em inglês (en-US).

Visão Geral de Violações de Conteúdo e Conta

De 1 de julho a 31 de dezembro de 2023, a Snap aplicou 5.376.714 conteúdos que foram denunciados e violaram nossas Diretrizes Comunitárias.

Durante o período do relatório, vimos uma Taxa de Visualização de Conteúdo (VVR) de 0,01 por cento, o que significa que a cada 10.000 visualizações de Snaps ou Histórias no Snapchat, 1 continham conteúdo que violava nossas políticas. O tempo médio de resposta para aplicar o conteúdo denunciado foi de aproximadamente 10 minutos.

Análise de Violações de Conteúdo e de Contas

Nossas taxas gerais de denúncias e aplicação de leis permaneceram bastante semelhantes aos seis meses anteriores. Neste ciclo, vimos um aumento de aproximadamente 10% no total de denúncias de conteúdo e contas.

O conflito Israel-Hamas começou durante este período e, como resultado, vimos um aumento no conteúdo violativo. O total de denúncias relacionadas a discurso de ódio aumentou cerca de 61%, enquanto o total de penalidades de conteúdo desse tipo aumentou cerca de 97% e as denúncias de contas únicas aumentaram cerca de 124%. As denúncias e penalidades relacionadas a terrorismo e extremismo violento também aumentaram, embora sejam equivalentes a <0,1% do total de penalidades de conteúdo em nossa plataforma. Nossas equipes de Confiança e Segurança continuam vigilantes �� medida que conflitos globais surgem para ajudar a manter o Snapchat seguro. Também expandimos nosso relatório de transparência para incluir mais informações de nível global e de país sobre o total de denúncias, conteúdo penalizado e contas penalizadas por violações da nossa política contra Terrorismo e Extremismo Violento. 

Combate à Exploração e ao Abuso Sexual Infantil

A exploração sexual de qualquer membro da nossa comunidade, especialmente menores, é ilegal, repugnante e proibida pelas nossas Diretrizes Comunitárias. A prevenção, detecção e erradicação de Imagens de Exploração Sexual e Abuso Infantil (CSEAI) em nossa plataforma é uma prioridade para o Snap, e evoluímos continuamente nossas capacidades para combater esses e outros tipos de crimes.

Usamos ferramentas de tecnologia de detecção ativa, tais como o método de detecção de hash-matching do PhotoDNA e a detecção de Imagens de Abuso Sexual Infantil (CSAI) do Google para identificar imagens e vídeos ilegais conhecidos contendo abuso infantil e denunciar ao Centro Nacional de Crianças Desaparecidas e Exploradas dos EUA (NCMEC), conforme exigido por lei. O NCMEC, por sua vez, se articula com as autoridades nacionais ou internacionais, conforme necessário.

No segundo semestre de 2023, detectamos e agimos proativamente sobre 59% do total de violações de exploração e abuso sexual infantil denunciadas. Isso reflete uma diminuição total de 39% em relação ao período anterior devido a melhorias nas opções de denúncias dos Snapchatters, aumentando nossa visibilidade de potenciais imagens de abuso sexual infantil enviados no Snapchat. 

*Observe que cada envio ao NCMEC pode conter vários conteúdos distintos. O total de artigos de mídia individuais enviados ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos EUA é igual ao total de conteúdos penalizados. Também excluímos envios recolhidos para o NCMEC a partir deste número.

Conteúdo de Automutilação e Suicídio

Nós nos preocupamos profundamente com a saúde mental e o bem-estar dos Snapchatters, que já ajudou e continua ajudando a fundamentar nossas decisões para construir o Snapchat de forma diferente. Como uma plataforma projetada para comunicações entre amigos reais, acreditamos que o Snapchat pode desempenhar um papel único em capacitar amigos a se ajudarem em tempos difíceis.

Quando nossa equipe de Confiança e Segurança toma conhecimento de um Snapchatter em perigo, eles podem encaminhar recursos de prevenção e apoio à automutilação e notificar a equipe de resposta a emergências quando apropriado. Os recursos que compartilhamos estão disponíveis em nossa lista global de recursos de segurança e esses estão publicamente disponíveis para todos os Snapchatters.

Recursos

Em nosso relatório anterior, apresentamos métricas de recursos, onde destacamos o número de vezes que os usuários nos pediram para revisar nossa decisão inicial de moderação contra sua conta. Neste relatório, expandimos nossos recursos para capturar toda a gama de nossas categorias de políticas para violações no nível de conta.

* Parar a propagação de conteúdo ou atividade relacionada à exploração sexual infantil é prioridade. A Snap dedica fundos significativos para esse objetivo e tem tolerância zero para tal conduta.  É necessário treinamento especial para revisar os recursos desse tipo, e há uma equipe limitada de agentes que lidam com essas análises devido à natureza gráfica do conteúdo.  Durante o outono de 2023, a Snap implementou alterações nas políticas que afetaram a consistência de determinadas penalidades relacionadas à exploração sexual infantil, e resolvemos essas inconsistências por meio de retreinamento de agentes e garantia de qualidade rigorosa.  Esperamos que o próximo relatório de transparência revele o progresso na melhoria dos tempos de resposta para recursos de ESI e melhore a precisão das penalidades iniciais. 

Moderação de Anúncios

A Snap está comprometida em garantir que todos os anúncios sejam totalmente compatíveis com nossas Políticas de Publicidade. Acreditamos em uma abordagem responsável e respeitosa à publicidade, criando uma experiência segura e agradável para todos os nossos usuários. Abaixo, incluímos informações sobre nossa moderação para anúncios pagos no Snapchat. Observe que os anúncios no Snapchat podem ser removidos por uma variedade de motivos, conforme descrito nas Políticas de Publicidade do Snap, incluindo conteúdo enganoso, conteúdo adulto, conteúdo violento ou perturbador, declarações de ódio e violação de propriedade intelectual. Além disso, você agora pode encontrar a Galeria de Anúncios do Snapchat na barra de navegação deste relatório de transparência.

Visão geral de país e regional

Esta seção fornece um resumo do cumprimento das nossas Diretrizes Comunitárias para uma amostragem de regiões geográficas. Nossas Diretrizes Comunitárias se aplicam a todo o conteúdo do Snapchat, e a todos os Snapchatters, em todo o mundo, independentemente da localização.

As informações para países individuais, incluindo todos os Estados-Membros da UE, estão disponíveis para download através do arquivo CSV anexo.

Solicitações de remoção de propriedade intelectual e do governo

Sobre Relatórios de Transparência

Glossário do relatório de transparência