Informe de transparencia
1 de julio de 2023 – 31 de diciembre de 2023

Publicado:

25 de abril de 2024

Actualizado:

25 de abril de 2024

A fin de aportar información sobre las iniciativas de seguridad de Snap y sobre la naturaleza y el volumen de los contenidos que se denuncian en nuestra plataforma, publicamos este informe de transparencia dos veces al año. Estamos comprometidos a continuar haciendo estos informes más completos e informativos para la seguridad y el bienestar de nuestra comunidad y de las muchas partes interesadas que se preocupan profundamente por nuestras prácticas de moderación de contenidos y aplicación de la ley. 

Este informe de transparencia abarca el segundo semestre de 2023 (del 1 de julio al 31 de diciembre). Siguiendo la misma línea que en informes anteriores, proporcionamos datos sobre el número global de informes sobre contenidos integrados en aplicaciones y cuentas que recibimos y aplicamos en relación con categorías concretas de infracciones de las políticas, y sobre cómo respondimos a las solicitudes de las fuerzas de la ley y los gobiernos; y nuestras medidas de aplicación detalladas por país.

En nuestra búsqueda constante de perfeccionar la calidad de nuestros informes de transparencia estamos incorporando algunas novedades en esta edición. 

En primer lugar, hemos ampliado nuestra tabla principal para incluir denuncias y medidas contra contenidos y cuentas vinculados tanto al Terrorismo y el Extremismo Violento como a la Explotación y el Abuso Sexual Infantil (CSEA). En informes anteriores, habíamos resaltado las eliminaciones de cuentas realizadas en respuesta a esas infracciones en secciones separadas. Continuaremos reseñando nuestras iniciativas proactivas y reactivas contra CSEA, así como nuestros informes al NCMEC, en una sección separada. 

En segundo lugar, hemos proporcionado información ampliada sobre las apelaciones, detallando el total de apelaciones y reintegraciones realizadas por las autoridades de aplicación de las Pautas para la comunidad. 

Por último, hemos ampliado nuestra sección de la Unión Europea, proporcionando una mayor información sobre las actividades de Snap en la UE. Específicamente, estamos publicando nuestro informe de transparencia de la DSA más reciente y las estadísticas adicionales sobre nuestro escaneo de medios CSEA.

Para más información sobre nuestras políticas para la prevención de riesgos en línea, y sobre nuestros planes para continuar evolucionando nuestras prácticas de información, consulta nuestro reciente blog de Seguridad e impacto dedicado a este Informe de transparencia. Para encontrar recursos adicionales para la seguridad y la privacidad en Snapchat, consulte nuestra pestaña de informes de transparencia en la parte inferior de la página.

Recuerda que la versión más actualizada de este informe de transparencia está disponible en la versión en-US.

Resumen de las infracciones de cuentas y contenidos

Del 1 de julio al 31 de diciembre de 2023, Snap aplicó medidas contra 5 376 714 piezas de contenido en todo el mundo que nos fueron denunciadas e incumplieron nuestras Pautas para la comunidad.

Durante el período del informe, observamos una tasa de visualizaciones infractoras (VVR) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snap e Historia en Snapchat, 1 contenía contenido que infringía nuestras políticas. El tiempo medio de respuesta para hacer cumplir el contenido denunciado fue de ~10 minutos.

Análisis de contenido e infracciones de cuenta

Nuestras tasas generales de denuncias y cumplimiento de la ley se mantuvieron bastante similares a las de los seis meses anteriores. Este ciclo, observamos un aumento aproximado del 10 % en el total de informes de contenidos y cuentas.

El conflicto entre Israel y Hamas comenzó durante este período, y como resultado de ello observamos un aumento en el contenido infractor. El total de denuncias relacionadas con el discurso de odio aumentó en un ~61 %, mientras que el total de denuncias de discurso de odio en contenidos aumentó en un ~97 % y las denuncias de cuentas únicas aumentó en un ~124 %. Las denuncias y las medidas contra el terrorismo y el extremismo violento también han aumentado, aunque representan <0,1 % del total de medidas contra el terrorismo en nuestra plataforma. Nuestros equipos de confianza y seguridad siguen atentos a medida que surgen conflictos mundiales para ayudar a mantener Snapchat seguro. También hemos ampliado nuestro informe de transparencia para incluir más información a nivel mundial y nacional sobre el total de informes, contenidos aplicregulados y cuentas únicas reguladas por infracciones de nuestra política de terrorismo y extremismo violento. 

Cómo combatir la explotación y el abuso sexual de menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.

Hacemos uso de herramientas tecnológicas activas de detección, como la sólida comparación de hash de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales de abusos sexuales a menores, respectivamente, y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, tal y como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.

En el segundo semestre de 2023, detectamos y actuamos de forma proactiva en el 59 % del total de violaciones de explotación y abuso sexual infantil denunciadas. Esto refleja una disminución total del 39 % con respecto al período anterior debido a las mejoras en las opciones de presentación de informes de los Snapchatters, lo que aumenta nuestra visibilidad de las posibles CSEA enviadas en Snapchat. 

*Hay que tener en cuenta que cada envío al NCMEC puede contener múltiples piezas de contenido. El total de contenidos particulares de medios enviados al NCMEC es igual a nuestro total de contenido regulado. También hemos excluido de este número las presentaciones retractadas al NCMEC.

Contenido sobre autolesiones y suicidio

Nos preocupamos profundamente por la salud mental y el bienestar de los Snapchatters, que continúan tomando decisiones para construir Snapchat de manera diferente. Como plataforma diseñada para la comunicación entre amigos de verdad, creemos que Snapchat puede desempeñar un papel único a la hora de empoderar a los amigos para que se ayuden mutuamente en los momentos difíciles.

Cuando nuestro equipo de confianza y seguridad se da cuenta de que un Snapchatter está en peligro, puede reenviar recursos de prevención y ayuda para autolesiones y notificar al personal de respuesta a emergencias cuando sea apropiado. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, y están disponibles públicamente para todos los Snapchatters.

Apelaciones

En nuestro informe anterior, presentamos las estadísticas sobre las apelaciones, en las que destacamos el número de veces que los usuarios nos pidieron que revisáramos nuestra decisión inicial de moderación en su cuenta. En este informe, hemos ampliado nuestras apelaciones para capturar toda la gama de nuestras categorías de políticas para infracciones a nivel de cuenta.

* Detener la difusión de contenidos o actividades relacionados con la explotación sexual infantil es una prioridad absoluta. Snap dedica recursos importantes a este fin y tiene tolerancia cero para este tipo de conducta.  Se requiere capacitación especial para revisar las apelaciones de CSE (del inglés, Explotación Sexual Infantil), y hay un equipo limitado de agentes que se encargan de estas revisiones debido a la naturaleza gráfica del contenido.  Durante el otoño de 2023, Snap implementó cambios en las políticas que afectaron a la coherencia de ciertas medidas de CSE, y hemos abordado estas incoherencias a través de formaciones de refuerzo para los agentes y un riguroso control de calidad.  Esperamos que el próximo Informe de transparencia detalle de los avances hacia la mejora de los tiempos de respuesta para las apelaciones de CSE y la mejora de la precisión de las medidas iniciales de seguridad.

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente nuestras políticas publicitarias. Estamos comprometidos con un enfoque responsable y respetuoso de la publicidad, con el fin de crear una experiencia segura y placentera para todos nuestros usuarios. A continuación hemos incluido información sobre nuestra moderación de los anuncios pagados en Snapchat. Ten en cuenta que los anuncios en Snapchat pueden eliminarse por diversas razones, como se indica en las Políticas de publicidad de Snap, incluyendo contenido engañoso, contenido para adultos, contenido violento o perturbador, incitación al odio e infracción de la propiedad intelectual. Además, ya puedes consultar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia.

Descripción general regional y por país

Esta sección ofrece un resumen de la aplicación de nuestras Pautas para la comunidad en una muestra de regiones geográficas. Nuestras pautas se aplican a todos los contenidos de Snapchat —y a todos los Snapchatters— en todo el mundo, independientemente de su ubicación.

La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para su descarga a través del archivo CSV adjunto.