Snap Values
Raport przejrzystości
1 lipca 2024 r. – 31 grudnia 2024 r.

Wydano:

20 czerwca 2025 r.

Zaktualizowano:

1 lipca 2025 r.

Publikujemy niniejszy raport przejrzystości dwa razy w roku, aby umożliwić wgląd w działania Snapa w zakresie bezpieczeństwa. Jako część naszego zaangażowania w bezpieczeństwo i przejrzystość nieustannie staramy się, aby raporty były bardziej kompleksowe i zawierały więcej informacji dla wielu interesariuszy, którym zależy na naszych praktykach moderacji treści, egzekwowaniu prawa oraz bezpieczeństwie i dobrostanie społeczności na Snapchacie. 

Niniejszy raport przejrzystości obejmuje drugą połowę 2024 r. (od 1 lipca do 31 grudnia). Udostępniamy globalne dane na temat zgłoszeń użytkowników i proaktywnego wykrywania przez Snap; działań egzekucyjnych podejmowanych przez nasze zespoły ds. bezpieczeństwa w określonych kategoriach naruszeń Wytycznych dla społeczności; w jaki sposób reagowaliśmy na wnioski organów ścigania i organów rządowych oraz w jaki sposób reagowaliśmy na powiadomienia o naruszeniu praw autorskich i znaków towarowych. Zapewniamy również informacje dotyczące poszczególnych krajów na serii podlinkowanych stron.

Dodatkowe materiały dotyczące bezpieczeństwa i prywatności na Snapchacie są dostępne w zakładce O raportach przejrzystości, znajdującej się na dole niniejszej strony.

Pamiętaj, że najbardziej aktualna wersja tego raportu przejrzystości to wersja angielska.

Przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności

Nasze zespoły ds. bezpieczeństwa egzekwują nasze Wytyczne dla społeczności zarówno proaktywnie (za pomocą zautomatyzowanych narzędzi do wykrywania), jak i reaktywnie (w odpowiedzi na zgłoszenia), co szczegółowo opisano w poniższych sekcjach niniejszego raportu. W tym cyklu sprawozdawczym (druga połowa 2024 r.) nasze zespoły ds. bezpieczeństwa podjęły następującą liczbę działań egzekucyjnych:

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

10 032 110

5 698 212

Poniżej przedstawiamy zestawienie w podziale na rodzaj naruszenia Wytycznych dla społeczności, w tym średni czas reakcji między czasem wykrycia naruszenia (w sposób proaktywny lub po otrzymaniu zgłoszenia) a czasem podjęcia działań końcowych w odniesieniu do danych treści lub danego konta:

Przyczyna w ramach polityki

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych

Treści o charakterze seksualnym

3 860 331

2 099 512

2

Wykorzystywanie seksualne dzieci

961 359

577 682

23

Napastowanie i nękanie

2 716 966

2 019 439

7

Groźby i przemoc

199 920

156 578

8

Samookaleczanie się i samobójstwo

15 910

14 445

10

Fałszywe informacje

6539

6176

1

Podszywanie się

8798

8575

2

Spam

357 999

248 090

1

Narkotyki

1 113 629

718 952

6

Broń

211 860

136 953

1

Inne towary regulowane

247 535

177 643

8

Mowa nienawiści

324 478

272 025

27

Terroryzm i brutalny ekstremizm

6786

4010

5

W okresie sprawozdawczym wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Stories na Snapchacie, jedno z nich zawierało treści naruszające nasze Wytyczne dla społeczności.

Naruszenia Wytycznych dla społeczności zgłoszone do naszych zespołów ds. zaufania i bezpieczeństwa

Od 1 lipca do 31 grudnia 2024 r. w odpowiedzi na zgłoszenia w aplikacji naruszeń naszych Wytycznych dla społeczności, zespoły Snap ds. bezpieczeństwa podjęły łącznie 6 346 508 działań egzekucyjnych na całym świecie, w tym działania egzekucyjne przeciwko 4 075 838 unikalnym kontom. Średni czas oczekiwania na podjęcie działań egzekucyjnych przez nasze zespoły ds. bezpieczeństwa, w odpowiedzi na te zgłoszenia, wyniósł około 6 minut. Poniżej przedstawiono zestawienie według kategorii zgłoszenia.

Zgłoszeń treści i kont ogółem

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

19 379 848

6 346 508

4 075 838

Przyczyna w ramach polityki

Zgłoszenia treści i kont

Łączna liczba działań egzekucyjnych

% łącznej liczby zgłoszeń, w ramach których Snap podjął działania

Łączna liczba unikalnych kont, wobec których podjęto działania

Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych

Treści o charakterze seksualnym

5 251 375

2 042 044

32,20%

1 387 749

4

Wykorzystywanie seksualne dzieci

1 224 502

469 389

7,40%

393 384

133

Napastowanie i nękanie

6 377 555

2 702 024

42,60%

2 009 573

7

Groźby i przemoc

1 000 713

156 295

2,50%

129 077

8

Samookaleczanie się i samobójstwo

307 660

15 149

0,20%

13 885

10

Fałszywe informacje

536 886

6454

0,10%

6095

1

Podszywanie się

678 717

8790

0,10%

8569

2

Spam

1 770 216

180 849

2,80%

140 267

1

Narkotyki

418 431

244 451

3,90%

159 452

23

Broń

240 767

6473

0,10%

5252

1

Inne towary regulowane

606 882

199 255

3,10%

143 560

8

Mowa nienawiści

768 705

314 134

4,90%

263 923

27

Terroryzm i brutalny ekstremizm

197 439

1201

<0,1%

1093

4

W porównaniu z poprzednim okresem sprawozdawczym skróciliśmy medianę czasu realizacji we wszystkich kategoriach zasad średnio o 90%. Zmniejszenie to było w dużej mierze spowodowane wspólnymi wysiłkami na rzecz rozszerzenia możliwości przeglądowych, a także poprawy priorytetowego traktowania zgłoszeń na podstawie powagi szkód. W okresie sprawozdawczym wprowadziliśmy również kilka ukierunkowanych zmian w zakresie bezpieczeństwa, które miały wpływ na dane zgłaszane tutaj, w tym zwiększenie wysiłków na rzecz egzekwowania zasad wobec kont w przypadku nazw użytkownika i nazw wyświetlanych, które naruszają nasze Wytyczne dla społeczności, wprowadzenie zwiększonego poziomu zgłaszania i ochrony dla społeczności na Snapchacie oraz wprowadzenie opcji zgłaszania dodatkowych rodzajów mediów, takich jak notatki głosowe, bezpośrednio do nas w aplikacji. 

Zmiany te, a także inne działania na rzecz bezpieczeństwa i siły zewnętrzne, miały szczególny wpływ na niektóre obszary zasad w porównaniu z poprzednim okresem sprawozdawczym. Te kategorie zasad obejmują: treści związane z podejrzeniem wykorzystania seksualnego i przemocy wobec dzieci (CSEA), szkodliwe fałszywe informacje i spam. W szczególności:

  • CSEA: W drugiej połowie 2024 r. zaobserwowaliśmy 12% spadek liczby zgłoszeń związanych z CSEA i skróciliśmy medianę czasu odpowiedzi na zgłoszenia CSEA o 99%. Trendy te są w dużej mierze spowodowane ciągłym postępem w zakresie proaktywnego wykrywania, co umożliwiło nam usunięcie treści CSEA, zanim mogły one zostać nam zgłoszone, oraz z ulepszeń, które wprowadziliśmy w naszych procesach, aby skuteczniej przeglądać i podejmować działania w związku ze zgłoszeniami CSEA. Nawet przy tych ulepszeniach czas realizacji CSEA jest dłuższy niż w innych obszarach zasad, ponieważ treści podlegają specjalistycznemu procesowi, który obejmuje podwójną weryfikację z udziałem wybranego zespołu specjalnie przeszkolonych agentów.

  • Szkodliwe fałszywe informacje: zaobserwowaliśmy 26% wzrost liczby zgłoszeń dotyczących szkodliwych fałszywych informacji, co jest spowodowane głównie wydarzeniami politycznymi, w tym wyborami w Stanach Zjednoczonych w listopadzie 2024 r.

  • Spam: w tym okresie sprawozdawczym odnotowaliśmy spadek o około 50% całkowitej liczby egzekwowanych zasad i spadek o około 46% całkowitej liczby unikalnych kont, wobec których podjęto działania w odpowiedzi na zgłoszenia dotyczące podejrzenia spamu, co odzwierciedla ulepszenia naszych proaktywnych narzędzi wykrywania i egzekwowania zasad. Jest to kontynuacja naszych wysiłków na rzecz namierzania spamu za pośrednictwem sygnałów z kont oraz szybszego usuwania spamerów z platformy. Wysiłki te zostały już podjęte w ostatnim okresie sprawozdawczym, podczas którego całkowita liczba działań egzekucyjnych i łączna liczba unikalnych kont, wobec których podjęto działania w związku ze spamem, zmniejszyła się odpowiednio o ~65% i ~60%.

Nasze wysiłki na rzecz proaktywnego wykrywania naruszeń Wytycznych dla społeczności i podejmowania działań egzekucyjnych

Proaktywne wykrywanie naruszeń i egzekwowanie naszych Wytycznych dla społeczności


Korzystamy ze zautomatyzowanych narzędzi do proaktywnego wykrywania naruszeń naszych Wytycznych dla społeczności, a w niektórych przypadkach do egzekwowania naszych zasad. Narzędzia te obejmują technologię dopasowywania hashów (w tym PhotoDNA i CSAI Match firmy Google, Child Sexual Abuse Imagery (CSAI) Match), interfejs API Google Content Safety oraz inną niestandardową technologię zaprojektowaną do wykrywania nielegalnych obrazów i mediów czasami z wykorzystaniem sztucznej inteligencji i uczenia maszynowego. 

W drugiej połowie 2024 r. podjęliśmy następujące działania egzekucyjne po proaktywnym wykryciu naruszeń naszych Wytycznych dla społeczności za pomocą zautomatyzowanych narzędzi do wykrywania:

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

3 685 602

1 845 125

Przyczyna w ramach polityki

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych

Treści o charakterze seksualnym

1 818 287

828 590

<1

Wykorzystywanie seksualne dzieci

491 970

188 877

1

Napastowanie i nękanie

14 942

11 234

8

Groźby i przemoc

43 625

29 599

9

Samookaleczanie się i samobójstwo

761

624

9

Fałszywe informacje

85

81

10

Podszywanie się

8

6

19

Spam

177 150

110 551

<1

Narkotyki

869 178

590 658

5

Broń

205 387

133 079

<1

Inne towary regulowane

48 280

37 028

9

Mowa nienawiści

10 344

8683

10

Terroryzm i brutalny ekstremizm

5585

2951

21

Zwalczanie wykorzystywania i molestowania seksualnego dzieci 

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne i niegodziwe traktowanie dzieci (CSEA) na platformie Snap jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Korzystamy z aktywnych narzędzi technologicznych do wykrywania, aby pomóc w identyfikacji treści związanych z CSEA. Narzędzia te obejmują narzędzia do dopasowywania hashów (w tym PhotoDNA i CSAI Match firmy Google, do identyfikacji znanych nielegalnych obrazów i filmów CSEA) oraz interfejs API Google Content Safety (do identyfikacji nowych, nielegalnych obrazów „nigdy wcześniej niezahashowanych”). Ponadto w niektórych przypadkach wykorzystujemy sygnały behawioralne w celu egzekwowania przepisów w zakresie innych podejrzeń o CSEA. Materiały zawierające wykorzystywanie seksualne dzieci zgłaszamy do amerykańskiej organizacji National Center for Missing and Exploited Children (Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych) (NCMEC), zgodnie z wymogami przepisów prawa. Następnie w razie potrzeby NCMEC koordynuje działania z krajowymi lub międzynarodowymi organami ścigania.

W drugiej połowie 2024 r. podjęliśmy następujące działania w związku z identyfikacją wykorzystywania seksualnego dzieci na Snapchacie (proaktywnie lub po otrzymaniu zgłoszenia):


Łączna liczba treści, wobec których podjęto działania

Łączna liczba wyłączonych kont

Łączna liczba zgłoszeń przekazanych do NCMEC*

1 228 929

242 306

417 842

*Pamiętaj, że każde zgłoszenie do NCMEC może zawierać wiele elementów treści. Łączna liczba poszczególnych elementów mediów przekazanych do NCMEC jest równa całkowitej liczbie treści, wobec której podjęliśmy działania.

Nasze wysiłki mające na celu zapewnienie zasobów i wsparcia użytkownikom Snapchata w potrzebie

Snapchat umożliwia znajomym pomaganie sobie w trudnych chwilach, zapewniając zasoby i wsparcie dla potrzebujących Snapchaterów. 

Nasze narzędzie wyszukiwania Here For You zapewnia zasoby od ekspertów, gdy użytkownicy szukają określonych tematów związanych ze zdrowiem psychicznym, lękiem, depresją, stresem, myślami samobójczymi, żałobą i nękaniem. Opracowaliśmy również stronę poświęconą szantażowi na tle seksualnym i innym rodzajom ryzyka o podłożu seksualnym, aby wesprzeć osoby w trudnej sytuacji. Nasza globalna lista zasobów dotyczących bezpieczeństwa jest publicznie dostępna dla wszystkich użytkowników Snapchata w naszym Centrum prywatności, bezpieczeństwa i zasad. 
Gdy nasze zespoły ds. bezpieczeństwa dowiedzą się o Snapchaterze w niebezpieczeństwie, są w stanie zapewnić zasoby dotyczące zapobiegania samookaleczeniu i wsparcie oraz w razie potrzeby powiadomić służby ratunkowe. Udostępnione przez nas zasoby są dostępne na naszej globalnej liście zasobów dotyczących bezpieczeństwa dla wszystkich użytkowników Snapchata.

Łączna liczba udostępnień zasobów dotyczących samobójstw

64 094

Odwołania

Poniżej przedstawiamy informacje na temat odwołań, które otrzymaliśmy od użytkowników z prośbą o ponowne rozpatrzenie naszej decyzji o zablokowaniu konta w drugiej połowie 2024 r.:

Przyczyna w ramach polityki

Łączna liczba odwołań

Łączna liczba przywróceń

Łączna liczba podtrzymanych decyzji

Średni czas rozpatrzenia odwołania (dni)

ŁĄCZNIE

493 782

35 243

458 539

5

Treści o charakterze seksualnym

162 363

6257

156 106

4

Wykorzystywanie seksualne dzieci

102 585

15 318

87 267

6

Napastowanie i nękanie

53 200

442

52 758

7

Groźby i przemoc

4238

83

4155

5

Samookaleczanie się i samobójstwo

31

1

30

5

Fałszywe informacje

3

0

3

<1

Podszywanie się

847

33

814

7

Spam

19 533

5090

14 443

9

Narkotyki

133 478

7598

125 880

4

Broń

4678

136

4542

6

Inne towary regulowane

9153

168

8985

6

Mowa nienawiści

3541

114

3427

7

Terroryzm i brutalny ekstremizm

132

3

129

9

Przegląd regionów i krajów

W tej sekcji przedstawiono przegląd działań podejmowanych przez nasze zespoły ds. bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności, zarówno proaktywnie, jak i w odpowiedzi na zgłoszenia naruszeń w aplikacji, na próbce regionów geograficznych. Nasze Wytyczne dla społeczności mają zastosowanie do wszelkich treści na Snapchacie — i do wszystkich użytkowników Snapchata — na całym świecie, bez względu na lokalizację.

Informacje dotyczące poszczególnych krajów, w tym wszystkich państw członkowskich UE, są dostępne do pobrania za pośrednictwem załączonego pliku CSV.


Przegląd działań podejmowanych przez nasze zespoły ds. bezpieczeństwa w celu egzekwowania Wytycznych dla społeczności 

Region

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Ameryka Północna

3 828 389

2 117 048

Europa

2 807 070

1 735 054

Reszta świata

3 396 651

1 846 110

Łącznie

10 032 110

5 698 212

Naruszenia Wytycznych dla społeczności zgłoszone do naszych zespołów ds. bezpieczeństwa

Region

Zgłoszenia treści i kont

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Ameryka Północna

5 916 815

2 229 465

1 391 304

Europa

5 781 317

2 085 109

1 378 883

Reszta świata

7 681 716

2 031 934

1 319 934

Łącznie

19 379 848

6 346 508

4 090 121

Proaktywne wykrywanie i egzekwowanie naszych Wytycznych dla społeczności

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

1 598 924

837 012

721 961

417 218

1 364 717

613 969

3 685 602

1 868 199

Moderowanie reklam

Snap dokłada wszelkich starań, aby wszystkie reklamy były w pełni zgodne z naszą Polityką dotyczącą reklam. Wierzymy w odpowiedzialne podejście do reklam, tworząc bezpieczne doświadczenia dla wszystkich Snapchaterów. Wszystkie reklamy podlegają ocenie i akceptacji przez firmę Snap. Ponadto zastrzegamy sobie prawo do usuwania reklam, również w odpowiedzi na opinie użytkowników, które traktujemy poważnie. 


Poniżej przedstawiamy informacje na temat naszej moderacji płatnych reklam, które zostały nam zgłoszone po ich opublikowaniu na Snapchacie. Należy pamiętać, że możemy usunąć reklamy ze Snapchata z różnych powodów, co opisane zostało w Polityce dotyczącej reklam Snapa. Wśród takich przyczyn są treści kłamliwe, treści dla dorosłych, treści brutalne lub niepokojące, mowa nienawiści oraz naruszenie własności intelektualnej. Ponadto możesz teraz znaleźć galerię reklam Snapchat w centrum przejrzystości Snap, do której dostęp można uzyskać bezpośrednio za pośrednictwem paska nawigacyjnego.

Łączna liczba zgłoszonych reklam

Łączna liczba usuniętych reklam

43 098

17 833