Raport przejrzystości
1 lipca 2023 r. – 31 grudnia 2023 r.

Wydano:

25 kwietnia 2024 r.

Zaktualizowano:

25 kwietnia 2024 r.

Dwa razy do roku publikujemy raporty przejrzystości, aby zapewnić dalszy wgląd w wysiłki Snapa podejmowane w zakresie bezpieczeństwa oraz w charakter i ilość treści zgłaszanych na naszej platformie. Dokładamy wszelkich starań, aby te raporty były bardziej wszechstronne i zawierały więcej informacji na temat bezpieczeństwa i dobrostanu naszej społeczności oraz wielu interesariuszy, którym bardzo zależy na naszych praktykach moderowania treści i egzekwowania prawa. 

Raport przejrzystości obejmuje drugą połowę 2023 r. (od 1 lipca do 31 grudnia). Podobnie jak w przypadku naszych poprzednich raportów, udostępniamy w tym dokumencie dane o globalnej liczbie treści w aplikacji oraz zgłoszeń z poziomu konta, które otrzymaliśmy i przeciw którym podjęliśmy działania w określonych kategoriach naruszenia zasad. Podajemy również informacje na temat naszej reakcji na wnioski od organów ścigania i władz, a także naszych działań egzekucyjnych na obszarze poszczególnych krajów.

W ramach naszego nieustającego zobowiązania do stałego ulepszania raportów przejrzystości, w tym dokumencie wprowadzamy kilka nowych elementów.

Po pierwsze, rozszerzyliśmy główną tabelę o zgłaszanie i egzekwowanie treści oraz kont powiązanych z terroryzmem i brutalnym ekstremizmem oraz wykorzystywaniem seksualnym dzieci (CSEA). W poprzednich raportach w oddzielnych sekcjach wskazywaliśmy na usunięcia kont w odpowiedzi na te naruszenia. Będziemy nadal przedstawiać w osobnej sekcji nasze proaktywne i reaktywne wysiłki przeciwko CSEA, a także nasze raporty do NCMEC. 

Po drugie, udostępniliśmy rozszerzone informacje na temat odwołań, przedstawiając całkowitą liczbę odwołań i przywróceń na mocy Wytycznych dla społeczności. 

Na koniec, rozszerzyliśmy sekcję dotyczącą Unii Europejskiej, zapewniając lepszy wgląd w działalność Snap w UE. Publikujemy nasz najnowszy Raport przejrzystości DSA oraz dodatkowe wskaźniki dotyczące skanowania mediów CSEA.

Więcej informacji o naszych zasadach zwalczania zagrożeń w sieci oraz planach na stałe rozwijanie naszych praktyk sprawozdawczych, znajduje się w najnowszym wpisie na blogu o bezpieczeństwie i działaniach, dotyczącym tego raportu przejrzystości.  Dodatkowe materiały dotyczące bezpieczeństwa i prywatności na platformie Snapchat są dostępne w karcie O Raportach przejrzystości, znajdującej się na dole niniejszej strony.

Należy pamiętać, że najbardziej aktualną wersję tego raportu przejrzystości można znaleźć w wersji anglojęzycznej.

Przegląd naruszeń dotyczących treści i kont

Od 1 lipca do 31 grudnia 2023 r. firma Snap podjęła działania wobec 5 376 714 treści na całym świecie, które zostały nam zgłoszone i naruszały nasze Wytyczne dla społeczności.

W okresie składania raportów wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Story na Snapchacie, jeden zawierał treści naruszające nasze zasady. Średni czas oczekiwania na podjęcie działań dotyczących zgłoszonych treści wynosił około 10 minut.

Przegląd naruszeń dotyczących treści i kont

Od 1 lipca do 31 grudnia 2023 r. firma Snap podjęła działania wobec 5 376 714 treści na całym świecie, które zostały nam zgłoszone i naruszały nasze Wytyczne dla społeczności.

W okresie składania raportów wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Story na Snapchacie, jeden zawierał treści naruszające nasze zasady. Średni czas oczekiwania na podjęcie działań dotyczących zgłoszonych treści wynosił około 10 minut.

Przegląd naruszeń dotyczących treści i kont

Od 1 lipca do 31 grudnia 2023 r. firma Snap podjęła działania wobec 5 376 714 treści na całym świecie, które zostały nam zgłoszone i naruszały nasze Wytyczne dla społeczności.

W okresie składania raportów wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Story na Snapchacie, jeden zawierał treści naruszające nasze zasady. Średni czas oczekiwania na podjęcie działań dotyczących zgłoszonych treści wynosił około 10 minut.

Przegląd naruszeń dotyczących treści i kont

Od 1 lipca do 31 grudnia 2023 r. firma Snap podjęła działania wobec 5 376 714 treści na całym świecie, które zostały nam zgłoszone i naruszały nasze Wytyczne dla społeczności.

W okresie składania raportów wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Story na Snapchacie, jeden zawierał treści naruszające nasze zasady. Średni czas oczekiwania na podjęcie działań dotyczących zgłoszonych treści wynosił około 10 minut.

Analiza naruszeń treści i kont

Ogólne wskaźniki zgłaszania i egzekwowania były dość podobne do tych z poprzednich sześciu miesięcy. W tym cyklu odnotowaliśmy około 10% wzrost całkowitej liczby zgłoszeń treści i kont.

W tym okresie rozpoczął się konflikt między Izraelem a Hamasem i w rezultacie odnotowaliśmy wzrost treści naruszających zasady. Łączna liczba zgłoszeń związanych z mową nienawiści wzrosła o około 61%, podczas gdy całkowita liczba egzekwowania zasad dotyczących treści wzrosła o około 97%, a liczba egzekwowania ich na unikalnych kontach wzrosła o około 124%. Wzrosła liczba zgłoszeń i egzekwowania przepisów o terroryzmie i brutalnym ekstremizmie, chociaż stanowią one <0,1% wszystkich naruszeń treści na naszej platformie. Nasze zespoły ds. zaufania i bezpieczeństwa zachowują czujność w miarę pojawiania się globalnych konfliktów, aby zapewnić bezpieczeństwo Snapchata. Rozszerzyliśmy również nasz raport przejrzystości o więcej informacji na poziomie globalnym i krajowym na temat całkowitej liczby zgłoszeń, naruszonych treści i unikalnych kont, na których powzięto kroki w związku z naruszeniem naszej polityki dotyczącej terroryzmu i brutalnego ekstremizmu. 

Przegląd naruszeń dotyczących treści i kont

Od 1 lipca do 31 grudnia 2023 r. firma Snap podjęła działania wobec 5 376 714 treści na całym świecie, które zostały nam zgłoszone i naruszały nasze Wytyczne dla społeczności.

W okresie składania raportów wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Story na Snapchacie, jeden zawierał treści naruszające nasze zasady. Średni czas oczekiwania na podjęcie działań dotyczących zgłoszonych treści wynosił około 10 minut.

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Wykorzystujemy narzędzia technologii aktywnego wykrywania, takie jak PhotoDNA oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.

W drugiej połowie 2023 r. proaktywnie wykryliśmy i podjęliśmy działania w 59% wszystkich zgłoszonych przypadków wykorzystywania i napastowania seksualnego dzieci. Oznacza to 39% całkowity spadek w porównaniu z poprzednim okresem wskutek ulepszeń opcji zgłaszania Snapchatterów, zwiększając widoczność potencjalnych CSEA wysyłanych na Snapchacie. 

*Pamiętaj, że każde zgłoszenie do NCMEC może zawierać wiele elementów treści. Łączna liczba poszczególnych elementów mediów przekazanych do NCMEC jest równa całkowitej liczbie treści, wobec której podjęliśmy działania. Wyłączyliśmy z tej liczby również wycofane zgłoszenia do NCMEC.

Treści dotyczące samookaleczania się i samobójstwa

Zdrowie psychiczne i dobrostan użytkowników Snapchata jest dla nas niezmiernie istotny, co prowadziło i w dalszym ciągu prowadzi to podejmowania decyzji dotyczących tworzenia Snapchata w inny sposób. Uważamy, że Snapchat jako platforma przeznaczona do komunikacji między prawdziwymi przyjaciółmi może odgrywać wyjątkową rolę w ułatwieniu zapewniania sobie wzajemnej pomocy w trudnym okresie.

Gdy nasz zespół ds. zaufania i bezpieczeństwa dowie się o znajdującym się w niebezpieczeństwie Snapchatterze, może przekazać mu zasoby dotyczące zapobiegania samookaleczeniom i wsparcia, a w stosownych przypadkach powiadomić o tym personel reagowania kryzysowego. Udostępnione przez nas zasoby są dostępne na naszej globalnej liście zasobów bezpieczeństwa dla wszystkich użytkowników Snapchata.

Apelacje

W poprzednim raporcie wprowadziliśmy wskaźniki dotyczące odwołań, w których wskazaliśmy liczbę użytkowników, którzy prosili o ponowne rozpatrzenie naszej wstępnej decyzji o moderacji ich konta. W tym raporcie rozszerzyliśmy odwołania, aby objęły one pełen zakres kategorii zasad w przypadku naruszeń na poziomie konta.

* Zapobieganie rozpowszechnianiu treści lub działalności związanej z wykorzystywaniem seksualnym dzieci jest najwyższym priorytetem. Snap przeznacza na ten cel znaczne zasoby i stosuje politykę zerowej tolerancji dla takiego zachowania. Rozpatrywanie odwołania dotyczącego wykorzystywania seksualnego dzieci wymaga specjalnego szkolenia, a ze względu na drastyczny charakter tego typu treści odwołania te są rozpatrywane przez wąski zespół przedstawicieli. Jesienią 2023 Snap wdrożył zmiany w polityce, które wpłynęły na spójność egzekwowania pewnych zasad dotyczących wykorzystywania seksualnego dzieci. Rozwiązaliśmy ten problem poprzez przeszkolenie przedstawicieli i kontrolę jakości. Spodziewamy się, że następny raport przejrzystości Snap wykaże postępy w zakresie przyspieszenia czasu rozpatrywania odwołań dotyczących wykorzystywania seksualnego dzieci i zwiększenia precyzji wstępnego egzekwowania zasad związanych z tym tematem.

Przegląd regionów i krajów

W tej części przedstawiono informacje dotyczące stosowania naszych Wytycznych dla społeczności z podziałem na poszczególne regiony geograficzne. Nasze Wytyczne mają zastosowanie do wszelkich treści w aplikacji Snapchat i wszystkich użytkowników na całym świecie, bez względu na lokalizację.

Informacje dotyczące poszczególnych krajów, w tym wszystkich państw członkowskich UE, są dostępne do pobrania za pośrednictwem załączonego pliku CSV.

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Wykorzystujemy narzędzia technologii aktywnego wykrywania, takie jak PhotoDNA oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.

W drugiej połowie 2023 r. proaktywnie wykryliśmy i podjęliśmy działania w 59% wszystkich zgłoszonych przypadków wykorzystywania i napastowania seksualnego dzieci. Oznacza to 39% całkowity spadek w porównaniu z poprzednim okresem wskutek ulepszeń opcji zgłaszania Snapchatterów, zwiększając widoczność potencjalnych CSEA wysyłanych na Snapchacie. 

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Wykorzystujemy narzędzia technologii aktywnego wykrywania, takie jak PhotoDNA oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.

W drugiej połowie 2023 r. proaktywnie wykryliśmy i podjęliśmy działania w 59% wszystkich zgłoszonych przypadków wykorzystywania i napastowania seksualnego dzieci. Oznacza to 39% całkowity spadek w porównaniu z poprzednim okresem wskutek ulepszeń opcji zgłaszania Snapchatterów, zwiększając widoczność potencjalnych CSEA wysyłanych na Snapchacie. 

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Wykorzystujemy narzędzia technologii aktywnego wykrywania, takie jak PhotoDNA oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.

W drugiej połowie 2023 r. proaktywnie wykryliśmy i podjęliśmy działania w 59% wszystkich zgłoszonych przypadków wykorzystywania i napastowania seksualnego dzieci. Oznacza to 39% całkowity spadek w porównaniu z poprzednim okresem wskutek ulepszeń opcji zgłaszania Snapchatterów, zwiększając widoczność potencjalnych CSEA wysyłanych na Snapchacie. 

Moderowanie reklam

Snap dokłada wszelkich starań, aby wszystkie reklamy były w pełni zgodne z naszą Polityką dotyczącą reklam. Wierzymy w odpowiedzialne i kulturalne podejście do reklamowania, które umożliwi stworzenie bezpiecznych oraz przyjemnych doznań dla wszystkich naszych użytkowników. Poniżej przedstawiamy wgląd w moderację płatnych reklam na Snapchacie. Należy pamiętać, że możemy usunąć reklamy ze Snapchat z różnych powodów, co opisane zostało w polityce dotyczącej reklam Snapa. Wśród takich przyczyn są treści kłamliwe, treści dla dorosłych, treści brutalne lub niepokojące, mowa nienawiści oraz naruszenie własności intelektualnej. Ponadto możesz znaleźć galerię reklam Snapchata w pasku nawigacyjnym tego raportu przejrzystości.