Informe de Transparencia
1 de julio de 2023 - 31 de diciembre de 2023

Publicado:

25 de abril de 2024

Actualizado:

25 de abril de 2024

Para brindar más información sobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen del contenido informado en nuestra plataforma, publicamos este informe de transparencia dos veces al año. Nos comprometemos a seguir haciendo que estas denuncias sean más completas e informativas para la seguridad y el bienestar de nuestra comunidad y de las muchas partes interesadas que se preocupan profundamente por nuestras prácticas de moderación de contenidos y aplicación de la ley. ,

Este informe de transparencia comprende el segundo semestre de 2023 (del 1 de julio al 31 de diciembre). Al igual que en nuestros informes anteriores, compartimos datos sobre el número de denuncias relativas a contenidos y cuentas que hemos recibido y sancionado en todas las categorías específicas de infracciones de políticas; cómo hemos respondido a las solicitudes de las autoridades policiales y gubernamentales; y nuestras acciones de cumplimiento desglosadas por país.

Como parte de nuestro compromiso constante de mejorar continuamente nuestros informes de transparencia, presentamos algunos elementos nuevos con esta versión.

En primer lugar, hemos ampliado nuestra tabla principal para incluir denuncias y medidas coercitivas contra contenidos y cuentas vinculadas tanto al terrorismo y extremismo violento como a la explotación y abuso sexual infantil (CSEA, por sus siglas en inglés). En informes anteriores, habíamos destacado en secciones separadas las eliminaciones de cuentas realizadas en respuesta a dichas infracciones. Seguiremos describiendo nuestras iniciativas proactivas y reactivas contra CSEA, así como nuestras denuncias al NCMEC, en una sección separada. 

En segundo lugar, hemos proporcionado información ampliada sobre las apelaciones, reseñando el total de apelaciones y restablecimientos por parte de las autoridades encargadas de hacer cumplir las Pautas para la comunidad. 

Por último, hemos ampliado nuestra sección de Unión Europea, proporcionando una mayor información sobre las actividades de Snap en la UE En concreto, publicamos nuestro informe de transparencia de la DSA más reciente y métricas adicionales relacionadas con nuestro escaneo de medios CSEA.

Para obtener más información sobre nuestras políticas para combatir daños en línea y nuestros planes para continuar desarrollando nuestras prácticas de información, lee nuestro reciente artículo en el blog de Seguridad e impacto sobre este Informe de transparencia. Si quieres encontrar recursos adicionales para la seguridad y la privacidad en Snapchat, consulta nuestra pestaña Acerca de los informes de transparencia que se encuentra en la parte inferior de la página.

Ten en cuenta que la versión más actualizada de este Informe de transparencia se puede encontrar en la configuración regional en-US.

Resumen de las vulneraciones de contenidos y cuentas

Del 1 de julio al 31 de diciembre de 2023, Snap aplicó medidas contra 5 376 714 contenidos en todo el mundo que nos fueron comunicados e infringieron nuestras Pautas para la comunidad.

Durante el semestre del informe, hemos observado una Tasa de Visualización Infractora (VVR, por sus siglas en inglés) del 0,01%, lo que significa que de cada 10.000 visitas a Snaps e historia, 1 incluía contenidos que infringían nuestras políticas. El tiempo medio de respuesta para hacer cumplir el contenido denunciado fue de ~10 minutos.

Análisis de infracciones de cuentas y contenidos

Nuestras tasas generales de denuncias y medidas coercitivas se mantuvieron bastante similares a las de los seis meses anteriores. Este ciclo, observamos un aumento aproximado del 10 % en el total de informes sobre contenidos y cuentas.

El conflicto entre Israel y Hamas comenzó durante este período, y como resultado de ello, vimos un aumento en el contenido infractor. El total de denuncias relacionadas con el discurso de odio aumentó en un ~61%, mientras que el total de denuncias relacionadas con el discurso de odio aumentó en un ~97% y las denuncias relacionadas con el discurso de odio aumentaron en un ~124%. Las denuncias y medidas coercitivas sobre terrorismo y extremismo violento también han aumentado, aunque representan <el 0,1 % del total de medidas coercitivas sobre contenidos en nuestra plataforma. Nuestros equipos de Confianza y seguridad siguen atentos a medida que surgen conflictos globales para ayudar a mantener Snapchat seguro. También hemos ampliado nuestro informe de transparencia para incluir más información a nivel mundial y nacional sobre el total de denuncias, contenido aplicado y cuentas únicas aplicadas por infracciones de nuestra política de terrorismo y extremismo violento. 

Lucha contra la explotación y el abuso sexual a menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la Explotación y Abuso Sexual Infantil (CSEA, por sus siglas en inglés), en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros tipos de delitos.

Utilizamos herramientas de detección de tecnología activa, como la rigurosa búsqueda de correspondencia de PhotoDNA y la correspondencia de Imágenes de abuso sexual infantil (CSAI, según sus siglas en inglés) de Google para identificar imágenes ilegales y vídeos de abuso sexual infantil, respectivamente, e denunciarlos ante el Centro Nacional para Menores Desaparecidos o Explotados (NCMEC), según lo exija la legislación. Luego, el NCMEC, por su parte, coordina con el cumplimiento de la legislación nacional o internacional, según se requiera.

En el segundo semestre de 2023, detectamos y actuamos de forma proactiva en el 59% del total de infracciones de explotación y abuso sexual infantil denunciadas. Esto refleja una disminución total del 39% con respecto al período anterior debido a mejoras en las opciones de denuncia de los Snapchatters, lo que aumenta nuestra visibilidad de posibles CSEA enviados en Snapchat. 

*Ten en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas de medios individuales enviadas al NCMEC es igual a nuestro contenido total del que se tomaron medidas. También hemos excluido de este número las comunicaciones retractadas al NCMEC.

Contenido de autolesión y suicidio

Nos preocupamos profundamente por la salud mental y el bienestar de los usuarios de Snapchat, que informaron, y continúan informando, nuestras decisiones para construir Snapchat de manera diferente. Como plataforma diseñada para la comunicación y entre amigos reales, creemos que Snapchat puede desempeñar un papel único en el empoderamiento de los amigos para que se ayuden mutuamente en tiempos difíciles.

Cuando nuestro equipo de Confianza y seguridad se entera de la existencia de un Snapfan en peligro, puede reenviar recursos de prevención y apoyo contra autolesiones y notificar al personal de respuesta a emergencias cuando corresponda. Los recursos que compartimos se encuentran disponibles en nuestra lista global de recursos de seguridad, y estos están disponibles públicamente para todos los Snapfans.

Apelaciones

En nuestro informe anterior, introducimos métricas en las apelaciones, en las que destacamos el número de veces que los usuarios nos pidieron que volviéramos a revisar nuestra decisión inicial de moderación contra su cuenta. En este informe, hemos ampliado nuestros recursos para capturar toda la gama de nuestras categorías de políticas para infracciones a nivel de cuentas.

* Poner fin a la difusión de contenidos o actividades relacionadas con la explotación sexual infantil es una prioridad. Snap dedica recursos considerables a ello y mantiene una tolerancia cero con tal conducta.  Se requiere una formación especial para revisar las apelaciones en casos de abuso sexual infantil, y hay un equipo restringido de agentes que se ocupa de tales revisiones debido a la naturaleza explícita de los contenidos.  En otoño de 2023, Snap implementó cambios en las políticas que afectaron a la uniformidad de determinadas medidas coercitivas contra el abuso sexual infantil, ya hemos tratado esas incoherencias volviendo a formar a los agentes y aplicando medidas de control de calidad.  Esperamos que el próximo informe de transparencia de Snap revele los progresos realizados para mejorar los tiempos de respuesta a las apelaciones en casos de abuso sexual infantil y la precisión de las medidas coercitivas iniciales. 

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas de publicidad. Creemos en un enfoque responsable y respetuoso con la publicidad, que cree una experiencia segura y agradable para todos nuestros usuarios. A continuación hemos incluido información sobre nuestra moderación de los anuncios de pago en Snapchat. Ten en cuenta que los anuncios de Snapchat pueden eliminarse por diversos motivos, tal y como se indica en las Políticas de publicidad de Snap, entre ellos, contenidos engañosos, contenidos para adultos, contenidos violentos o perturbadores, incitación al odio e infracción de la propiedad intelectual. Además, ahora puedes encontrar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia. 

Descripción general por regiones y países

En esta sección se ofrece una visión general de la aplicación de Pautas para la comunidad en una muestra de regiones geográficas. Nuestras Pautas se aplican a todo el contenido de Snapchat (y a todos los Snapfans) en todo el mundo, independientemente de su ubicación.

La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para descargar a través del archivo CSV adjunto.