Unión Europea
1 de julio de 2023 - 31 de diciembre de 2023

Publicado:

25 de abril de 2024

Actualizado:

25 de abril de 2024

Bienvenido a nuestra página de transparencia de la Unión Europea (UE), dedicada a la publicación de información específica de la UE exigida por la Ley de Servicios Digitales de la UE (DSA), la Directiva de Servicios de Medios Audiovisuales (AVMSD) y la Ley de Medios Neerlandeses (DMA). Ten en cuenta que la versión más actualizada de estos Informes de transparencia se puede encontrar en la configuración regional en-US.

Representante legal 

Snap Group Limited ha designado a Snap B.V. como su representante legal a efectos de la LSD. Puedes ponerte en contacto con el representante en dsa-enquiries [at] snapchat.com para la DSA, en vsp-enquiries [at] snapchat.com para la AVMSD y la DMA, a través de nuestro sitio web de ayuda [aquí], o en:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos

Si eres una agencia de aplicación de la ley, sigue los pasos que se indican aquí.

Autoridades reguladoras

En materia de la LSD, estamos sometidos a la regulación de la Comisión Europea y de la Autoridad Neerlandesa para Consumidores y mercados (ACM, por sus siglas en inglés).  En el caso de AVMSD y DMA, nos regimos por la Autoridad Holandesa de Medios de Comunicación (CvdM).

Informe de transparencia de la LSD

Snap está obligada según los artículos 15, 24 y 42 de la LSD a publicar informes que contengan la información requerida sobre la moderación de contenidos de Snap para los servicios de Snapchat que se consideren "plataformas en línea", es decir, Spotlight, For You, Perfiles públicos, Maps, Lentes y Publicidad. Tal informe debe publicarse cada 6 meses, a partir del 25 de octubre de 2023.

Snap publica informes de transparencia dos veces al año para proporcionar información sobre las actividades de Snap en materia de seguridad y la naturaleza y el volumen de contenidos denunciados en nuestra plataforma. Nuestro último informe del segundo semestre de 2023 (1 de julio - 31 de diciembre) se puede encontrar aquí. Las estadísticas específicas de la Ley de Servicios Digitales se pueden encontrar en esta página.

Promedio mensual de beneficiarios activos 
(Artículos 24.2 y 42.3 del RSD)

A 31 de diciembre de 2023, contamos con 90,0 millones de destinatarios activos mensuales promedio ("AMAR") en nuestra app Snapchat en la UE. Esto significa que, en los últimos 6 meses, un promedio de 90,9 millones de usuarios registrados en la UE abrieron la aplicación Snapchat al menos una vez al mes.

Esta cifra se desglosa por estado miembro de la siguiente manera:

Estas cifras se calcularon para cumplir con la normativa actual de la Ley de Servicios Digitales (LSD) y solo se deben utilizar con esta finalidad. Hemos cambiado la forma en la que calculamos esta cifra con el transcurso del tiempo, incluso en respuesta a cambios en la política interna, las orientaciones de los reguladores y la tecnología, y no se pretende que las cifras entre períodos se comparen. También puede que sea diferente de los cálculos utilizados para obtener otras cifras relativas a usuarios activos que publicamos con otras finalidades.


Solicitudes de autoridades de los Estados miembros
(Artículo 15.1(a) del RSD)

Solicitudes de retirada 

Durante este período, hemos recibido 0 solicitudes de retirada de Estados miembros de la UE en virtud del artículo 9 del RSD 

Solicitudes de información 

Durante este período, hemos recibido las siguientes solicitudes de información de Estados miembros de la UE en virtud del artículo 10 del RSD:

El tiempo medio de respuesta para informar a las autoridades de la recepción de Solicitudes de información es de 0 minutos; proporcionamos una respuesta automatizada confirmando la recepción. El tiempo medio de respuesta para dar cumplimiento a las solicitudes de información es de ~10 días. Este indicador refleja el período de tiempo desde que Snap recibe una Solicitud de información hasta que Snap considera que la solicitud se ha resuelto por completo. En algunos casos, la duración de este proceso depende en parte de la velocidad con que las fuerzas de seguridad respondan a cualquier solicitud de aclaración de Snap necesaria para procesar su solicitud.

Moderación de contenidos 


Todo el contenido de Snapchat debe cumplir con nuestras Pautas para la comunidad y Condiciones de servicio, así como con los términos, pautas y documentos explicativos. Los mecanismos de detección proactiva y las denuncias de contenidos o cuentas ilegales o infractores dan pie a una revisión, momento en el que nuestros sistemas de herramientas procesan la solicitud, recopilan metadatos relevantes y envían el contenido relevante a nuestro equipo de moderación a través de una interfaz de usuario estructurada diseñada para facilitar operaciones de revisión efectivas y Cuando nuestros equipos de moderación determinen, ya sea a través de revisión humana o por medios automatizados, que un usuario ha infringido nuestros Términos, podemos eliminar el contenido o la cuenta infractores, dar por cancelada o limitar la visibilidad de la cuenta en cuestión, y/o notificarlo a las fuerzas de seguridad tal y como se explica en nuestro Documento explicativo sobre moderación, aplicación de normativa y apelación en Snapchat.  Los usuarios cuyas cuentas estén bloqueadas por nuestro equipo de seguridad por infracciones de las Pautas para la comunidad pueden presentar una apelación contra el bloqueo de cuentas, y los usuarios pueden apelar contra determinadas medidas de aplicación de normas sobre contenidos.

Notificaciones sobre contenidos y cuentas (artículo 15.1(b) del RSD)

Snap ha puesto en marcha mecanismos para permitir a usuarios y no usuarios hacer notificaciones a Snap sobre contenidos y cuentas que infrinjan nuestras Pautas para la comunidad y Condiciones de servicio en la plataforma, incluidos aquellos que consideren ilegales de conformidad con el artículo 16 del RSD.  Estos mecanismos de denuncia están disponibles en la propia aplicación (es decir, directamente desde el contenido en sí) y en nuestro sitio web.

Durante el período en cuestión, recibimos los siguientes avisos de contenido y cuentas en la UE:

En el segundo semestre de 23, gestionamos 664 896 notificaciones únicamente a través de medios automatizados. Todas estas medidas se aplicaron en cumplimiento de nuestras Pautas para la comunidad porque nuestras Pautas para la comunidad encapsulan contenidos ilegales. 

Además de los contenidos y cuentas generados por los usuarios, moderamos los anuncios si infringen las políticas de nuestra plataforma. A continuación se muestra el total de anuncios que se denunciaron y eliminaron en la UE. 

Avisos de marcadores de confianza (artículo 15.1(b))

Durante el período de nuestro último Informe de transparencia (segundo semestre de 2023), no hubo marcadores de confianza designados formalmente en virtud del RSD. Como resultado, el número de notificaciones presentadas por dichos marcadores de confianza fue cero (0) en este período.

Moderación proactiva de contenidos (artículo 15.1(c))

Durante el período en cuestión, Snap aplicó medidas correctivas sobre los siguientes contenidos y cuentas en la UE después de iniciar la moderación de contenidos por su propia iniciativa:

Todos los esfuerzos de moderación a iniciativa de Snap sirvieron de palanca para la humana y la automatizada. En nuestras áreas de contenido público, los contenidos generalmente pasan por moderación automática y revisión humana antes de ser distribuidos al público general. En cuanto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenidos ilegales e infractores mediante aprendizaje automático;

  • Herramientas de coincidencia de valores hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenido en función de una lista identificada y actualizada regularmente de palabras clave abusivas, incluidos los emojis


Apelaciones (artículo 15.1(d))

Durante el período en cuestión, Snap tramitó las siguientes apelaciones sobre contenidos y cuentas en la UE a través de sus sistemas internos de gestión de quejas:


* Poner fin a la explotación sexual infantil es de máxima prioridad. Snap dedica recursos considerables a ello y mantiene una tolerancia cero con tal conducta.  Se requiere una formación especial para revisar las apelaciones en casos de abuso sexual infantil, y hay un equipo restringido de agentes que se ocupa de tales revisiones debido a la naturaleza explícita de los contenidos.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la uniformidad de determinadas medidas coercitivas contra el abuso sexual infantil, y ya hemos tratado esas incoherencias volviendo a formar a los agentes y aplicando rigurosas medidas de control de calidad.  Esperamos que el próximo informe de transparencia revele los progresos realizados para mejorar los tiempos de respuesta a las apelaciones en casos de abuso sexual infantil y la precisión de las medidas coercitivas iniciales. 

Medios automatizados de moderación de contenidos (artículo 15.1(d))

En nuestras áreas de contenido público, los contenidos generalmente pasan por moderación automática y revisión humana antes de ser distribuidos al público general. En cuanto a las herramientas automatizadas, estas incluyen:

  • Detección proactiva de contenidos ilegales e infractores mediante aprendizaje automático;

  • Herramientas de coincidencia de hash (como PhotoDNA y CSAI Match de Google);

  • Detección de lenguaje abusivo para rechazar contenidos basados en una lista identificada y actualizada regularmente de palabras clave abusivas, incluyendo emojis.


La precisión de las tecnologías de moderación automatizada para todos los daños fue de aproximadamente el 96,61 % y la tasa de error fue de aproximadamente el 3,39 %.


Medidas de seguridad para la moderación de contenidos (artículo 15.1(d))

Reconocemos que existen riesgos asociados a la moderación de contenidos, incluidos los riesgos para las libertades de expresión y reunión, que pueden ser causados por prejuicios e informes abusivos de moderadores automatizados y humanos, incluidos gobiernos, grupos políticos o individuos bien organizados. En general, Snapchat no es un lugar para contenidos políticos o activistas, y menos en nuestros espacios públicos.


Sin embargo, para mitigar estos riesgos, Snap ha implementado pruebas y formación, y ha establecido procedimientos sólidos y uniformes para gestionar las denuncias relacionadas con contenido ilegal o infractor, incluidas las procedentes de las autoridades policiales y gubernamentales. Constantemente evaluamos y mejoramos nuestros algoritmos de moderación de contenidos. Aunque es difícil detectar posibles daños a la libertad de expresión, no tenemos constancia de problemas significativos y ofrecemos a nuestros usuarios vías para denunciar los errores que se produzcan.


Nuestras políticas y sistemas fomentan la aplicación justa y uniforme y, como ya se ha dicho, ofrecen a los Snapchatters la oportunidad de apelar de manera significativa las decisiones a través de procesos de notificación y apelación que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapchatters.

Continuamos trabajando constantemente en la mejora de nuestras políticas y procesos de aplicación, y hemos hecho grandes progresos en nuestra lucha contra los contenidos y actividades ilegales y potencialmente perjudiciales en Snapchat. Esto se refleja en una tendencia al alzao en las cifras de denuncias y medidas coercitivas, como se detalla en nuestro último informe de transparencia, y en la disminución de las tasas de prevalencia de infracciones en Snapchat en general.


Acuerdos extrajudiciales (artículo 24.1(a))

Durante el período de nuestro último Informe de transparencia (segundo semestre de 2023), no hubo órganos de resolución extrajudicial de litigios formalmente designados en virtud del RSD. Como resultado, el número de litigios sometidos a dichos órganos fue cero (0) en este período y no podemos facilitar resultados, tiempo medio de procesamiento de los acuerdos ni porcentaje de litigios en los que implementamos decisiones del órgano. 



Suspensiones de cuentas (artículo 24.1(a))

Durante el segundo semestre de 2023,  no impusimos ninguna suspensión de cuentas en virtud del artículo 23. El equipo de Confianza y seguridad de Snap ha establecido procedimientos para restringir la posibilidad de que las cuentas de usuarios presenten frecuentemente notificaciones o reclamaciones manifiestamente infundadas. Estos procedimientos incluyen la restricción de la creación de denuncias duplicadas y el uso de filtros de correo electrónico para evitar que los usuarios que han presentado denuncias manifiestamente infundadas sigan haciéndolo. Snap emprende acciones coercitivas apropiadas contra cuentas, tal como se detalla en nuestro Documento explicativo sobre moderación, aplicación de normativa y apelación en Snapchat. Se puede consultar la información relativa al nivel de aplicación de medidas coercitivas contra cuentas de Snap en nuestro informe de transparencia (segundo semestre de 2023). Tales medidas seguirán revisándose y reiterándose.


Recursos, conocimientos especializados y apoyo para moderadores (artículo 42.2)

Nuestro equipo de moderación de contenidos opera en todo el mundo, lo que nos permite ayudar a mantener seguros a los Snapfans las 24 horas del día, los 7 días de la semana. A continuación se puede encontrar el desglose de nuestros recursos de moderación humana por especialidades lingüísticas de los moderadores (ten en cuenta que algunos moderadores se especializan en varios idiomas) a partir del 31 de diciembre de 2023:

La tabla anterior incluye todos los moderadores que admiten los idiomas de los estados miembros de la UE a partir del 31 de diciembre de 2023. Cuando requerimos apoyo lingüístico adicional, recurrimos a servicios de traducción.

Los moderadores son contratados siguiendo una descripción de trabajo estándar que incluye un requisito lingüístico (en función de las necesidades). El requisito lingüístico especifica que los candidatos deben demostrar fluidez tanto en la comunicación escrita como en la oral en el idioma correspondiente y tener al menos un año de experiencia laboral para los puestos de nivel inicial. Los candidatos también deben cumplir los requisitos de formación y experiencia para ser tomados en consideración. Los candidatos también deben demostrar conocimiento actualizado sobre el país o región en los que van a realizar la tarea de moderación de contenidos.

Nuestro equipo de moderación aplica nuestras políticas y medidas de cumplimiento para contribuir a la protección de nuestra comunidad en Snapchat. La capacitación se lleva a cabo a lo largo de varias semanas, en las que los nuevos miembros del equipo reciben instrucción sobre las políticas, herramientas y procesos de escalado de Snap. Después de completar la capacitación, cada moderador debe pasar un examen de certificación antes de poder comenzar a revisar los contenidos. Nuestro equipo de moderación se mantiene actualizado regularmente mediante capacitaciones relacionadas con sus flujos de trabajo, en especial cuando nos encontramos con casos en los que las políticas superan los límites y dependen del contexto. También llevamos a cabo programas de actualización de conocimientos, sesiones de certificación y cuestionarios para garantizar que todos los moderadores estén al día y cumplan todas las políticas actualizadas. Por último, cuando surgen tendencias de contenido urgentes basadas en acontecimientos actuales, proporcionamos rápidamente aclaraciones sobre las políticas para que los equipos puedan tomar medidas de acuerdo con las políticas de Snap.

Ofrecemos apoyo y recursos a nuestro equipo de moderación de contenido, que son los "primeros respondedores digitales" de Snap, incluido el apoyo al bienestar en el trabajo y un fácil acceso a los servicios de salud mental.

Informe de análisis de medios de comunicación de explotación y abuso sexual infantil (CSEA)


Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la Explotación y Abuso Sexual Infantil (CSEA, por sus siglas en inglés), en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros tipos de delitos.


Utilizamos la rigurosa búsqueda de correspondencia de PhotoDNA y la correspondencia de Imágenes de abuso sexual infantil (CSAI, según sus siglas en inglés) de Google para identificar imágenes ilegales y vídeos de abuso sexual infantil, respectivamente, y denunciarlos ante el Centro Nacional para Menores Desaparecidos o Explotados (NCMEC), según lo exija la legislación. Luego, el NCMEC, por su parte, coordina con el cumplimiento de la legislación nacional o internacional, según se requiera.


Informe

Los datos a continuación se basan en el resultado de un análisis proactivo utilizando PhotoDNA y/o CSAI Match de los medios subidos por el rollo de cámara de un usuario a Snapchat.

Poner fin a la explotación sexual infantil es de máxima prioridad. Snap dedica recursos considerables a ello y mantiene una tolerancia cero con tal conducta.  Se requiere una formación especial para revisar las apelaciones en casos de abuso sexual infantil, y hay un equipo restringido de agentes que se ocupa de tales revisiones debido a la naturaleza explícita de los contenidos.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la uniformidad de determinadas medidas coercitivas contra el abuso sexual infantil, y ya hemos tratado esas incoherencias volviendo a formar a los agentes y aplicando rigurosas medidas de control de calidad.  Esperamos que el próximo informe de transparencia revele los progresos realizados para mejorar los tiempos de respuesta a las apelaciones en casos de abuso sexual infantil y la precisión de las medidas coercitivas iniciales. 

Medidas de seguridad para la moderación de contenido

Las medidas de protección aplicadas para el análisis de medios CSEA se indican en la sección anterior "Medidas de protección para la moderación de contenidos" en nuestro informe de la RSD.


Informe de análisis de medios de comunicación de explotación y abuso sexual infantil (CSEA)


Antecedentes

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la Explotación y Abuso Sexual Infantil (CSEA, por sus siglas en inglés), en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros tipos de delitos.


Utilizamos la rigurosa búsqueda de correspondencia de PhotoDNA y la correspondencia de Imágenes de abuso sexual infantil (CSAI, según sus siglas en inglés) de Google para identificar imágenes ilegales y vídeos de abuso sexual infantil, respectivamente, y denunciarlos ante el Centro Nacional para Menores Desaparecidos o Explotados (NCMEC), según lo exija la legislación. Luego, el NCMEC, por su parte, coordina con el cumplimiento de la legislación nacional o internacional, según se requiera.


Informe

Los datos a continuación se basan en el resultado de un análisis proactivo utilizando PhotoDNA y/o CSAI Match de los medios subidos por el rollo de cámara de un usuario a Snapchat.

Poner fin a la explotación sexual infantil es de máxima prioridad. Snap dedica recursos considerables a ello y mantiene una tolerancia cero con tal conducta.  Se requiere una formación especial para revisar las apelaciones en casos de abuso sexual infantil, y hay un equipo restringido de agentes que se ocupa de tales revisiones debido a la naturaleza explícita de los contenidos.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la uniformidad de determinadas medidas coercitivas contra el abuso sexual infantil, y ya hemos tratado esas incoherencias volviendo a formar a los agentes y aplicando rigurosas medidas de control de calidad.  Esperamos que el próximo informe de transparencia revele los progresos realizados para mejorar los tiempos de respuesta a las apelaciones en casos de abuso sexual infantil y la precisión de las medidas coercitivas iniciales. 

Medidas de seguridad para la moderación de contenido

Las medidas de protección aplicadas para el análisis de medios CSEA se indican en la sección anterior "Medidas de protección para la moderación de contenidos" en nuestro informe de la RSD.


Poner fin a la explotación sexual infantil es de máxima prioridad. Snap dedica recursos considerables a ello y mantiene una tolerancia cero con tal conducta.  Se requiere una formación especial para revisar las apelaciones en casos de abuso sexual infantil, y hay un equipo restringido de agentes que se ocupa de tales revisiones debido a la naturaleza explícita de los contenidos.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la uniformidad de determinadas medidas coercitivas contra el abuso sexual infantil, y ya hemos tratado esas incoherencias volviendo a formar a los agentes y aplicando rigurosas medidas de control de calidad.  Esperamos que el próximo informe de transparencia revele los progresos realizados para mejorar los tiempos de respuesta a las apelaciones en casos de abuso sexual infantil y la precisión de las medidas coercitivas iniciales. 

Medidas de seguridad para la moderación de contenido

Las medidas de protección aplicadas para el análisis de medios CSEA se indican en la sección anterior "Medidas de protección para la moderación de contenidos" en nuestro informe de la RSD.