1 grudnia 2025 r.
1 grudnia 2025 r.
Publikujemy niniejszy raport przejrzystości dwa razy w roku, aby umożliwić wgląd w działania Snapa w zakresie bezpieczeństwa. W ramach naszego zobowiązania do zapewnienia bezpieczeństwa i przejrzystości nieustannie staramy się tworzyć coraz bardziej kompleksowe oraz bogate w informacje raporty. To z myślą o wielu interesariuszach, dla których niezwykle ważne są nasze praktyki administrowania treści, podejście do egzekwowania prawa oraz bezpieczeństwo i dobrostan społeczności Snapchata.
Niniejszy raport przejrzystości obejmuje pierwsze półrocze 2025 r. (od 1 stycznia do 30 czerwca). Udostępniamy globalne dane na temat zgłoszeń użytkowników i proaktywnego wykrywania przez Snap; działań egzekucyjnych podejmowanych przez nasze zespoły ds. bezpieczeństwa w określonych kategoriach naruszeń Wytycznych dla społeczności; w jaki sposób reagowaliśmy na wnioski organów ścigania i organów rządowych oraz w jaki sposób reagowaliśmy na powiadomienia o naruszeniu praw autorskich i znaków towarowych. Zapewniamy również informacje dotyczące poszczególnych krajów na serii podlinkowanych stron.
Dodatkowe materiały dotyczące bezpieczeństwa i prywatności na Snapchacie są dostępne w zakładce O raportach przejrzystości, znajdującej się na dole niniejszej strony.
Pamiętaj, że najbardziej aktualna wersja tego raportu przejrzystości to wersja angielska.
Przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności
Nasze zespoły ds. bezpieczeństwa egzekwują nasze Wytyczne dla społeczności zarówno proaktywnie (za pomocą zautomatyzowanych narzędzi do wykrywania), jak i reaktywnie (w odpowiedzi na zgłoszenia), co szczegółowo opisano w poniższych sekcjach niniejszego raportu. W tym cyklu sprawozdawczym (1. półrocze 2025 r.) nasz zespół ds. bezpieczeństwa podjął następującą liczbę działań egzekucyjnych:
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
9 674 414
5 794 201
Poniżej przedstawiamy zestawienie uwzględnionych naruszeń Wytycznych dla społeczności ze względu na ich typ, a także średni czas reakcji od momentu wykrycia naruszenia (prewencyjnie lub po otrzymaniu zgłoszenia) do ostatniego działania wobec określonej treści lub konta:
Przyczyna w ramach polityki
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych
Treści o charakterze seksualnym
5 461 419
3 233 077
1
Wykorzystywanie seksualne dzieci oraz wykorzystywanie seksualne dzieci w celu uzyskania korzyści finansowych
1 095 424
733 106
5
Napastowanie i nękanie
713 448
594 302
3
Groźby i przemoc
187 653
146 564
3
Samookaleczanie się i samobójstwo
47 643
41 216
5
Fałszywe informacje
2088
2004
1
Podszywanie się
7138
6881
<1
Spam
267 299
189 344
1
Narkotyki
1 095 765
726 251
7
Broń
251 243
173 381
1
Inne towary regulowane
183 236
126 952
4
Mowa nienawiści
343 051
284 817
6
Terroryzm i brutalny ekstremizm
10 970
6783
2
Dane łącznej liczby działań egzekucyjnych obejmują te działania, które zostały podjęte przez Snap po rozpatrzeniu zgłoszeń wysłanych przez aplikację Snapchat. Stanowią one zdecydowaną większość działań egzekucyjnych podjętych przez zespoły ds. bezpieczeństwa Snap. Liczba ta nie uwzględnia większości działań podjętych w wyniku dochodzeń w sprawie zgłoszeń wysłanych do Snap przez naszą stronę wsparcia i inne kanały komunikacyjne (np. pocztę elektroniczną) lub w wyniku dochodzeń prewencyjnych przeprowadzonych przez nasze zespoły ds. bezpieczeństwa. Nieuwzględnione działania egzekucyjne stanowią mniej niż 0,5% działań podjętych w pierwszym półroczu 2025 r.
W okresie sprawozdawczym współczynnik obejrzeń filmów naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Stories na Snapchacie, jedno z nich zawierało treści naruszające nasze Wytyczne dla społeczności. Wśród działań egzekucyjnych wobec zachowania uznawanego przez nas za „poważnie szkodliwe”, wskaźnik VVR wynosił 0,0003%. W poniższej tabeli znajduje się zestawienie VVR ze względu na przyczynę.
Przyczyna w ramach polityki
VVR
Treści o charakterze seksualnym
0,00482%
Wykorzystywanie seksualne dzieci oraz wykorzystywanie seksualne dzieci w celu uzyskania korzyści finansowych
0,00096%
Napastowanie i nękanie
0,00099%
Groźby i przemoc
0,00176%
Samookaleczanie się i samobójstwo
0,00009%
Fałszywe informacje
0,00002%
Podszywanie się
0,00009%
Spam
0,00060%
Narkotyki
0,00047%
Broń
0,00083%
Inne towary regulowane
0,00104%
Mowa nienawiści
0,00025%
Terroryzm i brutalny ekstremizm
0,00002%
Naruszenia Wytycznych dla społeczności zgłoszone do naszych zespołów ds. zaufania i bezpieczeństwa
Między 1 stycznia a 30 lipca 2025 r. zespoły ds. bezpieczeństwa Snap podjęły łącznie 6 278 446 działań egzekucyjnych na całym świecie, w tym 4 104 624 przeciwko unikalnym kontom. To reakcja na 19 766 324 zgłoszeń naruszenia naszych Wytycznych dla społeczności, które zostały wysłane w aplikacji. Liczba tych zgłoszeń nie obejmuje tych wysłanych przez stronę wsparcia i pocztę elektroniczną, stanowiących niecały 1% sumy otrzymanych skarg. Średni czas oczekiwania na podjęcie działań egzekucyjnych ze strony naszych zespołów ds. bezpieczeństwa wynosił ok. 2 minut. Poniżej przedstawiamy podział zgłoszeń ze względu na naruszone zasady (uwaga: w poprzednich raportach zdarzało nam się określać to jako „kategoria zgłaszania”. Aktualnie stosujemy termin „przyczyny regulaminowe”, który, naszym zdaniem, lepiej odzwierciedla charakter tych danych, ponieważ nasze zespoły ds. bezpieczeństwa starając się działać zgodnie z odpowiednią przyczyną określoną w polityce, niezależnie od kategorii podanej przez osobę zgłaszającą).
Łączna liczba zgłoszeń dotyczących treści i kont
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Łącznie
19 766 324
6 278 446
4 104 624
Przyczyna w ramach polityki
Łączna liczba zgłoszeń dotyczących treści i kont
Łączna liczba działań egzekucyjnych
Odsetek łącznej liczby zgłoszeń, na które zareagowała firma Snap
Łączna liczba unikalnych kont, wobec których podjęto działania
Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych
Treści o charakterze seksualnym
7 315 730
3 778 370
60,2%
2 463 464
1
Wykorzystywanie seksualne dzieci oraz wykorzystywanie seksualne dzieci w celu uzyskania korzyści finansowych
1 627 097
695 679
11,1%
577 736
10
Napastowanie i nękanie
4 103 797
700 731
11,2%
584 762
3
Groźby i przemoc
997 346
147 162
2,3%
120 397
2
Samookaleczanie się i samobójstwo
350 775
41 150
0,7%
36 657
3
Fałszywe informacje
606 979
2027
0,0%
1960
1
Podszywanie się
745 874
7086
0,1%
6837
<1
Spam
1 709 559
122 499
2,0%
94 837
1
Narkotyki
481 830
262 962
4,2%
176 799
5
Broń
271 586
39 366
0,6%
32 316
1
Inne towary regulowane
530 449
143 098
2,3%
98 023
3
Mowa nienawiści
817 262
337 263
5,4%
280 682
6
Terroryzm i brutalny ekstremizm
208 040
1053
0,0%
Lens Studio
2
W pierwszym półroczu 2025 r. doszło do kolejnego zmniejszenia średniego czasu reakcji we wszystkich kategoriach zasad, przeciętnie o ponad 75% w porównaniu z poprzednim okresem sprawozdawczym. Aktualny wynik to 2 minuty. W dużej mierze jest to zasługą nieustannych i wspólnych wysiłków na rzecz ulepszenia klasyfikacji zgłoszeń do rozpatrzenia na podstawie powagi szkód, a także rozpatrywania automatycznego.
W tym okresie sprawozdawczym dokonaliśmy również szeregu ukierunkowanych zmian w naszych działaniach na rzecz bezpieczeństwa. Miało to wpływ na opisane tu dane, w tym na wzmocnienie naszych zasad dotyczących nielegalnej działalności z wykorzystaniem broni. Zaobserwowaliśmy wzrost liczby zgłoszeń i działań egzekucyjnych w kategorii wykorzystywania seksualnego nieletnich. Głównym powodem jest coraz większa liczba materiałów o treści seksualnej lub wrażliwej z udziałem dzieci, które stanowią naruszenie naszych zasad, lecz nie są nielegalne w Stanach Zjednoczonych lub nie podlegają zgłaszaniu do Amerykańskiego Narodowego Centrum Zaginięć i Wykorzystywania Dzieci (NCMEC). Wzrost liczby treści o charakterze seksualnym (oraz spadek liczby treści związanych z napastowaniem) to wynik naszej zmiany klasyfikacji treści związanych z napastowaniem seksualnym z kategorii „Napastowanie” na „Treści o charakterze seksualnym”.
Nasze wysiłki na rzecz proaktywnego wykrywania naruszeń Wytycznych dla społeczności i podejmowania działań egzekucyjnych
Korzystamy ze zautomatyzowanych narzędzi do proaktywnego wykrywania naruszeń naszych Wytycznych dla społeczności, a w niektórych przypadkach do egzekwowania naszych zasad. Narzędzia te obejmują technologię dopasowywania hashów (m.in. PhotoDNA i Child Sexual Abuse Imagery (CSAI) od Google), Content Safety API od Google i inne opatentowane technologie stworzone do wykrywania nielegalnych i obraźliwych tekstów oraz multimediów. Niektóre korzystają ze sztucznej inteligencji i uczenia maszynowego. Liczba dokonanych przez nas prewencyjnych wykryć ulega z reguły wahaniom. Jest to rezultat zmian zachowania użytkowników, usprawnień naszych możliwości wykrywania, a także zmian wprowadzanych w naszej polityce.
W pierwszym półroczu 2025 r. podjęliśmy następujące działania egzekucyjne po prewencyjnym wykryciu naruszeń naszych Wytycznych dla społeczności za pomocą zautomatyzowanych narzędzi do wykrywania:
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Łącznie
3 395 968
1 709 224
Przyczyna w ramach polityki
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych
Treści o charakterze seksualnym
1 683 045
887 059
0
Wykorzystywanie seksualne dzieci oraz wykorzystywanie seksualne dzieci w celu uzyskania korzyści finansowych
399 756
162 017
2
Napastowanie i nękanie
12 716
10 412
8
Groźby i przemoc
40 489
27 662
6
Samookaleczanie się i samobójstwo
6493
4638
7
Fałszywe informacje
61
44
20
Podszywanie się
52
44
34
Spam
144 800
96 500
0
Narkotyki
832 803
578 738
7
Broń
211 877
144 455
0
Inne towary regulowane
40 139
31 408
8
Mowa nienawiści
5788
4518
6
Terroryzm i brutalny ekstremizm
9917
5899
5
Zwalczanie wykorzystywania i molestowania seksualnego dzieci
Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne i niegodziwe traktowanie dzieci (CSEA) na platformie Snap jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.
Korzystamy z aktywnych narzędzi technologicznych do wykrywania, aby pomóc w identyfikacji treści związanych z CSEA. Obejmują one narzędzia do dopasowywania hashów (m.in. PhotoDNA i CSAI Match od Google, określających odpowiednio znane nielegalne obrazy i wideo CSEA) oraz Content Safety API od Google (do identyfikacji nowych, nielegalnych obrazów „nigdy wcześniej niezahashowanych”). Ponadto w niektórych przypadkach wykorzystujemy sygnały behawioralne w celu egzekwowania przepisów w zakresie innych podejrzeń o CSEA. Materiały zawierające wykorzystywanie seksualne dzieci zgłaszamy do amerykańskiej organizacji National Center for Missing and Exploited Children (Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych) (NCMEC), zgodnie z wymogami przepisów prawa. Następnie w razie potrzeby NCMEC koordynuje działania z krajowymi lub międzynarodowymi organami ścigania.
W pierwszym półroczu 2025 r. podjęliśmy następujące działania w wyniku zidentyfikowania CSEA na Snapchacie (prewencyjnie lub po otrzymaniu zgłoszenia):
Łączna liczba treści, wobec których podjęto działania
Łączna liczba wyłączonych kont
Łączna liczba zgłoszeń przekazanych do NCMEC*
994 337
187 387
321 587
*Pamiętaj, że każde zgłoszenie do NCMEC może zawierać wiele elementów treści. Łączna liczba poszczególnych elementów mediów przekazanych do NCMEC jest równa całkowitej liczbie treści, wobec której podjęliśmy działania.
Nasze wysiłki mające na celu zapewnienie zasobów i wsparcia użytkownikom Snapchata w potrzebie
Snapchat umożliwia znajomym pomaganie sobie w trudnych chwilach, zapewniając zasoby i wsparcie dla potrzebujących Snapchaterów.
Gdy użytkownicy szukają określonych tematów związanych ze zdrowiem psychicznym, lękiem, depresją, stresem, myślami samobójczymi, żałobą i nękaniem, nasze narzędzie wyszukiwania Dla Ciebie zapewnia im materiały stworzone przez ekspertów. Ponadto opracowaliśmy stronę dedykowaną zwalczaniu motywowanych finansowo wymuszeń seksualnych oraz innych zagrożeń o podłożu seksualnym. Ma ona wspierać osoby znajdujące się w trudnym położeniu.
Gdy nasze zespoły ds. bezpieczeństwa dowiedzą się o snapchaterze w trudnej sytuacji, wykorzystają swoje narzędzia zapobiegania samookaleczeniu i materiały pomocnicze, a w razie potrzeby powiadomią odpowiednie służby. Te materiały są ogólnodostępne na naszej globalnej liście materiałów z zakresu bezpieczeństwa. Jest ona do dyspozycji każdego snapchatera, a znaleźć ją można w naszym Centrum prywatności, bezpieczeństwa i zasad.
Łączna liczba udostępnień zasobów dotyczących samobójstw
36 162
Odwołania
Poniżej znajdują się informacje na temat złożonych w pierwszym półroczu 2025 r. apelacji od użytkowników, w których proszą oni o weryfikację decyzji w sprawie zablokowania ich konta za naruszenia Wytycznych dla społeczności:
Przyczyna w ramach polityki
Łączna liczba odwołań
Łączna liczba przywróceń
Łączna liczba podtrzymanych decyzji
Średni czas rozpatrzenia odwołania (dni)
Łącznie
437 855
22 142
415 494
1
Treści o charakterze seksualnym
134 358
6175
128 035
1
Wyzysk seksualny dla korzyści finansowych i wykorzystanie seksualne nieletnich*
89 493
4179
85 314
<1
Napastowanie i nękanie
42 779
281
42 496
1
Groźby i przemoc
3987
77
3909
1
Samookaleczanie się i samobójstwo
145
2
143
1
Fałszywe informacje
4
0
4
1
Podszywanie się
1063
33
1.030
<1
Spam
13 730
3140
10 590
1
Narkotyki
128 222
7749
120 409
1
Broń
10 941
314
10 626
1
Inne towary regulowane
9 719
124
9 593
1
Mowa nienawiści
3310
67
3242
1
Terroryzm i brutalny ekstremizm
104
1
103
1
Przegląd regionów i krajów
W tej sekcji przedstawiono przegląd działań podejmowanych przez nasze zespoły ds. bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności, zarówno proaktywnie, jak i w odpowiedzi na zgłoszenia naruszeń w aplikacji, na próbce regionów geograficznych. Nasze Wytyczne dla społeczności mają zastosowanie do wszelkich treści na Snapchacie — i do wszystkich użytkowników Snapchata — na całym świecie, bez względu na lokalizację.
Informacje dotyczące poszczególnych krajów, w tym wszystkich państw członkowskich UE, są dostępne do pobrania za pośrednictwem załączonego pliku CSV.
Region
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Ameryka Północna
3 468 315
2 046 888
Europa
2 815 474
1 810 223
Reszta świata
3 390 625
1 937 090
Łącznie
9 674 414
5 794 201
Region
Zgłoszenia treści i kont
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Ameryka Północna
5 762 412
2 125 819
1 359 763
Europa
5 961 962
2 144 828
1 440 907
Reszta świata
8 041 950
2 007 799
1 316 070
Łącznie
19 766 324
6 278 446
4 116 740
Region
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Ameryka Północna
1 342 496
785 067
Europa
670 646
422 012
Reszta świata
1 382 826
696 364
Łącznie
3 395 968
1 709 224
Moderowanie reklam
Snap dokłada wszelkich starań, aby wszystkie reklamy były w pełni zgodne z naszą Polityką dotyczącą reklam. Wierzymy w odpowiedzialne podejście do reklam, tworząc bezpieczne doświadczenia dla wszystkich Snapchaterów. Wszystkie reklamy podlegają ocenie i akceptacji przez firmę Snap. Ponadto zastrzegamy sobie prawo do usuwania reklam, również w odpowiedzi na opinie użytkowników, które traktujemy poważnie.
Poniżej przedstawiamy informacje na temat naszej moderacji płatnych reklam, które zostały nam zgłoszone po ich opublikowaniu na Snapchacie. Należy pamiętać, że możemy usunąć reklamy ze Snapchata z różnych powodów, co opisane zostało w Polityce dotyczącej reklam Snapa. Wśród takich przyczyn są treści kłamliwe, treści dla dorosłych, treści brutalne lub niepokojące, mowa nienawiści oraz naruszenie własności intelektualnej. Możesz również zajrzeć do galerii reklam Snapchata na stronie values.snap.com w zakładce „Przejrzystość”.
Łączna liczba zgłoszonych reklam
Łączna liczba usuniętych reklam
67 789
16 410

























