Snap Values
Raport przejrzystości
1 stycznia 2024 r. – 30 czerwca 2024 r.

Wydano:

5 grudnia 2024 r.

Zaktualizowano:

5 grudnia 2024 r.

Publikujemy niniejszy raport przejrzystości dwa razy w roku, aby umożliwić wgląd w działania Snapa w zakresie bezpieczeństwa. Dokładamy wszelkich starań, aby raporty były bardziej kompleksowe i zawierały więcej informacji dla wielu interesariuszy, którym zależy na naszych praktykach moderacji treści, egzekwowaniu prawa oraz bezpieczeństwie i dobrostanie społeczności na Snapchacie. 

Niniejszy raport przejrzystości obejmuje pierwszą połowę 2024 r. (od 1 stycznia do 30 czerwca). Podobnie jak w przypadku naszych poprzednich raportów, udostępniamy w tym dokumencie dane o globalnej liczbie treści w aplikacji oraz zgłoszeń z poziomu konta, które otrzymały nasze zespoły ds. zaufania i bezpieczeństwa i przeciw którym podjęliśmy działania w określonych kategoriach naruszenia Wytycznych dla społeczności. Podajemy również informacje na temat naszej reakcji na wnioski od organów ścigania i władz oraz nasze odpowiedzi na zgłoszenia o naruszeniu praw autorskich i znaków towarowych. Udostępniamy również informacje dotyczące poszczególnych krajów w plikach, do których odsyłają linki na dole niniejszej strony.

W ramach naszego stałego zobowiązania do ciągłego ulepszania naszych raportów przejrzystości wprowadzamy również nowe dane, w których podkreślamy nasze proaktywne działania na rzecz wykrywania i egzekwowania w odniesieniu do szerszego zakresu naruszeń naszych Wytycznych dla społeczności. W niniejszym raporcie ujęliśmy te dane zarówno na poziomie globalnym, jak i krajowym. Będziemy nadal to robić. Poprawiliśmy również błąd w tytule w naszych poprzednich raportach: w przypadkach, w których wcześniej pisaliśmy o „Łącznej liczbie egzekwowanych treści”, obecnie odwołujemy się do „Łącznej liczby działań egzekucyjnych”, aby odzwierciedlić fakt, że dane podane w odpowiednich kolumnach obejmują zarówno działania egzekucyjne na poziomie treści, jak i na poziomie konta.

Więcej informacji na temat naszych zasad zwalczania potencjalnych szkód w Internecie oraz planów dalszego rozwoju naszych praktyk w zakresie zgłaszania można znaleźć w naszym najnowszym blogu dotyczącym bezpieczeństwa i oddziaływania, dotyczącym niniejszego raportu przejrzystości. Dodatkowe materiały dotyczące bezpieczeństwa i prywatności na Snapchacie są dostępne w zakładce O raportach przejrzystości, znajdującej się na dole niniejszej strony.

Należy pamiętać, że najbardziej aktualną wersję tego raportu przejrzystości można znaleźć w wersji anglojęzycznej.

Przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności

Nasze zespoły ds. zaufania i bezpieczeństwa egzekwują nasze Wytyczne dla społeczności zarówno proaktywnie (poprzez wykorzystanie zautomatyzowanych narzędzi), jak i reaktywnie (w odpowiedzi na zgłoszenia), zgodnie z informacjami szczegółowymi w poniższych sekcjach niniejszego raportu. W aktualnym cyklu sprawozdawczym (pierwsza połowa 2024 roku) nasze zespoły ds. zaufania i bezpieczeństwa podjęły następujące działania egzekucyjne: 

Przegląd naruszeń dotyczących treści i kont

Od 1 lipca do 31 grudnia 2023 r. firma Snap podjęła działania wobec 5 376 714 treści na całym świecie, które zostały nam zgłoszone i naruszały nasze Wytyczne dla społeczności.

W okresie składania raportów wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Story na Snapchacie, jeden zawierał treści naruszające nasze zasady. Średni czas oczekiwania na podjęcie działań dotyczących zgłoszonych treści wynosił około 10 minut.

Przegląd naruszeń dotyczących treści i kont

Od 1 lipca do 31 grudnia 2023 r. firma Snap podjęła działania wobec 5 376 714 treści na całym świecie, które zostały nam zgłoszone i naruszały nasze Wytyczne dla społeczności.

W okresie składania raportów wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Story na Snapchacie, jeden zawierał treści naruszające nasze zasady. Średni czas oczekiwania na podjęcie działań dotyczących zgłoszonych treści wynosił około 10 minut.

Przegląd naruszeń dotyczących treści i kont

Od 1 lipca do 31 grudnia 2023 r. firma Snap podjęła działania wobec 5 376 714 treści na całym świecie, które zostały nam zgłoszone i naruszały nasze Wytyczne dla społeczności.

W okresie składania raportów wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Story na Snapchacie, jeden zawierał treści naruszające nasze zasady. Średni czas oczekiwania na podjęcie działań dotyczących zgłoszonych treści wynosił około 10 minut.

Analiza naruszeń treści i kont

Ogólne wskaźniki zgłaszania i egzekwowania były dość podobne do tych z poprzednich sześciu miesięcy. W tym cyklu odnotowaliśmy około 10% wzrost całkowitej liczby zgłoszeń treści i kont.

W tym okresie rozpoczął się konflikt między Izraelem a Hamasem i w rezultacie odnotowaliśmy wzrost treści naruszających zasady. Łączna liczba zgłoszeń związanych z mową nienawiści wzrosła o około 61%, podczas gdy całkowita liczba egzekwowania zasad dotyczących treści wzrosła o około 97%, a liczba egzekwowania ich na unikalnych kontach wzrosła o około 124%. Wzrosła liczba zgłoszeń i egzekwowania przepisów o terroryzmie i brutalnym ekstremizmie, chociaż stanowią one <0,1% wszystkich naruszeń treści na naszej platformie. Nasze zespoły ds. zaufania i bezpieczeństwa zachowują czujność w miarę pojawiania się globalnych konfliktów, aby zapewnić bezpieczeństwo Snapchata. Rozszerzyliśmy również nasz raport przejrzystości o więcej informacji na poziomie globalnym i krajowym na temat całkowitej liczby zgłoszeń, naruszonych treści i unikalnych kont, na których powzięto kroki w związku z naruszeniem naszej polityki dotyczącej terroryzmu i brutalnego ekstremizmu. 

Przegląd naruszeń dotyczących treści i kont

Od 1 lipca do 31 grudnia 2023 r. firma Snap podjęła działania wobec 5 376 714 treści na całym świecie, które zostały nam zgłoszone i naruszały nasze Wytyczne dla społeczności.

W okresie składania raportów wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Story na Snapchacie, jeden zawierał treści naruszające nasze zasady. Średni czas oczekiwania na podjęcie działań dotyczących zgłoszonych treści wynosił około 10 minut.

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Wykorzystujemy narzędzia technologii aktywnego wykrywania, takie jak PhotoDNA oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.

W drugiej połowie 2023 r. proaktywnie wykryliśmy i podjęliśmy działania w 59% wszystkich zgłoszonych przypadków wykorzystywania i napastowania seksualnego dzieci. Oznacza to 39% całkowity spadek w porównaniu z poprzednim okresem wskutek ulepszeń opcji zgłaszania Snapchatterów, zwiększając widoczność potencjalnych CSEA wysyłanych na Snapchacie. 

*Pamiętaj, że każde zgłoszenie do NCMEC może zawierać wiele elementów treści. Łączna liczba poszczególnych elementów mediów przekazanych do NCMEC jest równa całkowitej liczbie treści, wobec której podjęliśmy działania. Wyłączyliśmy z tej liczby również wycofane zgłoszenia do NCMEC.

Treści dotyczące samookaleczania się i samobójstwa

Zdrowie psychiczne i dobrostan użytkowników Snapchata jest dla nas niezmiernie istotny, co prowadziło i w dalszym ciągu prowadzi to podejmowania decyzji dotyczących tworzenia Snapchata w inny sposób. Uważamy, że Snapchat jako platforma przeznaczona do komunikacji między prawdziwymi przyjaciółmi może odgrywać wyjątkową rolę w ułatwieniu zapewniania sobie wzajemnej pomocy w trudnym okresie.

Gdy nasz zespół ds. zaufania i bezpieczeństwa dowie się o znajdującym się w niebezpieczeństwie Snapchatterze, może przekazać mu zasoby dotyczące zapobiegania samookaleczeniom i wsparcia, a w stosownych przypadkach powiadomić o tym personel reagowania kryzysowego. Udostępnione przez nas zasoby są dostępne na naszej globalnej liście zasobów bezpieczeństwa dla wszystkich użytkowników Snapchata.

Apelacje

W poprzednim raporcie wprowadziliśmy wskaźniki dotyczące odwołań, w których wskazaliśmy liczbę użytkowników, którzy prosili o ponowne rozpatrzenie naszej wstępnej decyzji o moderacji ich konta. W tym raporcie rozszerzyliśmy odwołania, aby objęły one pełen zakres kategorii zasad w przypadku naruszeń na poziomie konta.

* Zapobieganie rozpowszechnianiu treści lub działalności związanej z wykorzystywaniem seksualnym dzieci jest najwyższym priorytetem. Snap przeznacza na ten cel znaczne zasoby i stosuje politykę zerowej tolerancji dla takiego zachowania. Rozpatrywanie odwołania dotyczącego wykorzystywania seksualnego dzieci wymaga specjalnego szkolenia, a ze względu na drastyczny charakter tego typu treści odwołania te są rozpatrywane przez wąski zespół przedstawicieli. Jesienią 2023 Snap wdrożył zmiany w polityce, które wpłynęły na spójność egzekwowania pewnych zasad dotyczących wykorzystywania seksualnego dzieci. Rozwiązaliśmy ten problem poprzez przeszkolenie przedstawicieli i kontrolę jakości. Spodziewamy się, że następny raport przejrzystości Snap wykaże postępy w zakresie przyspieszenia czasu rozpatrywania odwołań dotyczących wykorzystywania seksualnego dzieci i zwiększenia precyzji wstępnego egzekwowania zasad związanych z tym tematem.

Przegląd regionów i krajów

W niniejszej sekcji przedstawiono przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności, zarówno proaktywnie, jak i w odpowiedzi na zgłoszenia naruszeń w aplikacji z podziałem na poszczególne regiony geograficzne. Nasze Wytyczne dla społeczności mają zastosowanie do wszelkich treści na Snapchacie — i do wszystkich użytkowników Snapchata — na całym świecie, bez względu na lokalizację.

Informacje dotyczące poszczególnych krajów, w tym wszystkich państw członkowskich UE, są dostępne do pobrania za pośrednictwem załączonego pliku CSV.

Przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności 

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Wykorzystujemy narzędzia technologii aktywnego wykrywania, takie jak PhotoDNA oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.

W drugiej połowie 2023 r. proaktywnie wykryliśmy i podjęliśmy działania w 59% wszystkich zgłoszonych przypadków wykorzystywania i napastowania seksualnego dzieci. Oznacza to 39% całkowity spadek w porównaniu z poprzednim okresem wskutek ulepszeń opcji zgłaszania Snapchatterów, zwiększając widoczność potencjalnych CSEA wysyłanych na Snapchacie. 

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Wykorzystujemy narzędzia technologii aktywnego wykrywania, takie jak PhotoDNA oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.

W drugiej połowie 2023 r. proaktywnie wykryliśmy i podjęliśmy działania w 59% wszystkich zgłoszonych przypadków wykorzystywania i napastowania seksualnego dzieci. Oznacza to 39% całkowity spadek w porównaniu z poprzednim okresem wskutek ulepszeń opcji zgłaszania Snapchatterów, zwiększając widoczność potencjalnych CSEA wysyłanych na Snapchacie. 

Moderowanie reklam

Snap dokłada wszelkich starań, aby wszystkie reklamy były w pełni zgodne z naszą Polityką dotyczącą reklam. Wierzymy w odpowiedzialne i kulturalne podejście do reklamowania, które umożliwi stworzenie bezpiecznych oraz przyjemnych doznań dla wszystkich naszych użytkowników. Poniżej przedstawiamy wgląd w moderację płatnych reklam na Snapchacie. Należy pamiętać, że możemy usunąć reklamy ze Snapchat z różnych powodów, co opisane zostało w polityce dotyczącej reklam Snapa. Wśród takich przyczyn są treści kłamliwe, treści dla dorosłych, treści brutalne lub niepokojące, mowa nienawiści oraz naruszenie własności intelektualnej. Ponadto możesz znaleźć galerię reklam Snapchata w pasku nawigacyjnym tego raportu przejrzystości.