Snap Values
raport przejrzystości
1 stycznia 2025 r. – 30 czerwca 2025 r.

Wydano:

1 grudnia 2025 r.

Zaktualizowano:

1 grudnia 2025 r.

Publikujemy niniejszy raport przejrzystości dwa razy w roku, aby umożliwić wgląd w działania Snapa w zakresie bezpieczeństwa. W ramach naszego zobowiązania do zapewnienia bezpieczeństwa i przejrzystości nieustannie staramy się tworzyć coraz bardziej kompleksowe oraz bogate w informacje raporty. To z myślą o wielu interesariuszach, dla których niezwykle ważne są nasze praktyki administrowania treści, podejście do egzekwowania prawa oraz bezpieczeństwo i dobrostan społeczności Snapchata. 

Niniejszy raport przejrzystości obejmuje pierwsze półrocze 2025 r. (od 1 stycznia do 30 czerwca). Udostępniamy globalne dane na temat zgłoszeń użytkowników i proaktywnego wykrywania przez Snap; działań egzekucyjnych podejmowanych przez nasze zespoły ds. bezpieczeństwa w określonych kategoriach naruszeń Wytycznych dla społeczności; w jaki sposób reagowaliśmy na wnioski organów ścigania i organów rządowych oraz w jaki sposób reagowaliśmy na powiadomienia o naruszeniu praw autorskich i znaków towarowych. Zapewniamy również informacje dotyczące poszczególnych krajów na serii podlinkowanych stron.

Dodatkowe materiały dotyczące bezpieczeństwa i prywatności na Snapchacie są dostępne w zakładce O raportach przejrzystości, znajdującej się na dole niniejszej strony.

Pamiętaj, że najbardziej aktualna wersja tego raportu przejrzystości to wersja angielska.

Przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności

Nasze zespoły ds. bezpieczeństwa egzekwują nasze Wytyczne dla społeczności zarówno proaktywnie (za pomocą zautomatyzowanych narzędzi do wykrywania), jak i reaktywnie (w odpowiedzi na zgłoszenia), co szczegółowo opisano w poniższych sekcjach niniejszego raportu. W tym cyklu sprawozdawczym (1. półrocze 2025 r.) nasz zespół ds. bezpieczeństwa podjął następującą liczbę działań egzekucyjnych:

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

9 674 414

5 794 201

Poniżej przedstawiamy zestawienie uwzględnionych naruszeń Wytycznych dla społeczności ze względu na ich typ, a także średni czas reakcji od momentu wykrycia naruszenia (prewencyjnie lub po otrzymaniu zgłoszenia) do ostatniego działania wobec określonej treści lub konta:

Przyczyna w ramach polityki

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych

Treści o charakterze seksualnym

5 461 419

3 233 077

1

Wykorzystywanie seksualne dzieci oraz wykorzystywanie seksualne dzieci w celu uzyskania korzyści finansowych

1 095 424

733 106

5

Napastowanie i nękanie

713 448

594 302

3

Groźby i przemoc

187 653

146 564

3

Samookaleczanie się i samobójstwo

47 643

41 216

5

Fałszywe informacje

2088

2004

1

Podszywanie się

7138

6881

<1

Spam

267 299

189 344

1

Narkotyki

1 095 765

726 251

7

Broń

251 243

173 381

1

Inne towary regulowane

183 236

126 952

4

Mowa nienawiści

343 051

284 817

6

Terroryzm i brutalny ekstremizm

10 970

6783

2

Dane łącznej liczby działań egzekucyjnych obejmują te działania, które zostały podjęte przez Snap po rozpatrzeniu zgłoszeń wysłanych przez aplikację Snapchat.  Stanowią one zdecydowaną większość działań egzekucyjnych podjętych przez zespoły ds. bezpieczeństwa Snap. Liczba ta nie uwzględnia większości działań podjętych w wyniku dochodzeń w sprawie zgłoszeń wysłanych do Snap przez naszą stronę wsparcia i inne kanały komunikacyjne (np. pocztę elektroniczną) lub w wyniku dochodzeń prewencyjnych przeprowadzonych przez nasze zespoły ds. bezpieczeństwa. Nieuwzględnione działania egzekucyjne stanowią mniej niż 0,5% działań podjętych w pierwszym półroczu 2025 r.

W okresie sprawozdawczym współczynnik obejrzeń filmów naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Stories na Snapchacie, jedno z nich zawierało treści naruszające nasze Wytyczne dla społeczności. Wśród działań egzekucyjnych wobec zachowania uznawanego przez nas za „poważnie szkodliwe”, wskaźnik VVR wynosił 0,0003%. W poniższej tabeli znajduje się zestawienie VVR ze względu na przyczynę.

Przyczyna w ramach polityki

VVR

Treści o charakterze seksualnym

0,00482%

Wykorzystywanie seksualne dzieci oraz wykorzystywanie seksualne dzieci w celu uzyskania korzyści finansowych

0,00096%

Napastowanie i nękanie

0,00099%

Groźby i przemoc

0,00176%

Samookaleczanie się i samobójstwo

0,00009%

Fałszywe informacje

0,00002%

Podszywanie się

0,00009%

Spam

0,00060%

Narkotyki

0,00047%

Broń

0,00083%

Inne towary regulowane

0,00104%

Mowa nienawiści

0,00025%

Terroryzm i brutalny ekstremizm

0,00002%

Naruszenia Wytycznych dla społeczności zgłoszone do naszych zespołów ds. zaufania i bezpieczeństwa

Między 1 stycznia a 30 lipca 2025 r. zespoły ds. bezpieczeństwa Snap podjęły łącznie 6 278 446 działań egzekucyjnych na całym świecie, w tym 4 104 624 przeciwko unikalnym kontom. To reakcja na 19 766 324 zgłoszeń naruszenia naszych Wytycznych dla społeczności, które zostały wysłane w aplikacji.  Liczba tych zgłoszeń nie obejmuje tych wysłanych przez stronę wsparcia i pocztę elektroniczną, stanowiących niecały 1% sumy otrzymanych skarg.  Średni czas oczekiwania na podjęcie działań egzekucyjnych ze strony naszych zespołów ds. bezpieczeństwa wynosił ok. 2 minut. Poniżej przedstawiamy podział zgłoszeń ze względu na naruszone zasady (uwaga: w poprzednich raportach zdarzało nam się określać to jako „kategoria zgłaszania”.  Aktualnie stosujemy termin „przyczyny regulaminowe”,  który, naszym zdaniem, lepiej odzwierciedla charakter tych danych, ponieważ nasze zespoły ds. bezpieczeństwa starając się działać zgodnie z odpowiednią przyczyną określoną w polityce, niezależnie od kategorii podanej przez osobę zgłaszającą).


Łączna liczba zgłoszeń dotyczących treści i kont

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Łącznie

19 766 324

6 278 446

4 104 624

Przyczyna w ramach polityki

Łączna liczba zgłoszeń dotyczących treści i kont

Łączna liczba działań egzekucyjnych

Odsetek łącznej liczby zgłoszeń, na które zareagowała firma Snap

Łączna liczba unikalnych kont, wobec których podjęto działania

Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych

Treści o charakterze seksualnym

7 315 730

3 778 370

60,2%

2 463 464

1

Wykorzystywanie seksualne dzieci oraz wykorzystywanie seksualne dzieci w celu uzyskania korzyści finansowych

1 627 097

695 679

11,1%

577 736

10

Napastowanie i nękanie

4 103 797

700 731

11,2%

584 762

3

Groźby i przemoc

997 346

147 162

2,3%

120 397

2

Samookaleczanie się i samobójstwo

350 775

41 150

0,7%

36 657

3

Fałszywe informacje

606 979

2027

0,0%

1960

1

Podszywanie się

745 874

7086

0,1%

6837

<1

Spam

1 709 559

122 499

2,0%

94 837

1

Narkotyki

481 830

262 962

4,2%

176 799

5

Broń

271 586

39 366

0,6%

32 316

1

Inne towary regulowane

530 449

143 098

2,3%

98 023

3

Mowa nienawiści

817 262

337 263

5,4%

280 682

6

Terroryzm i brutalny ekstremizm

208 040

1053

0,0%

Lens Studio

2

W pierwszym półroczu 2025 r. doszło do kolejnego zmniejszenia średniego czasu reakcji we wszystkich kategoriach zasad, przeciętnie o ponad 75% w porównaniu z poprzednim okresem sprawozdawczym. Aktualny wynik to 2 minuty. W dużej mierze jest to zasługą nieustannych i wspólnych wysiłków na rzecz ulepszenia klasyfikacji zgłoszeń do rozpatrzenia na podstawie powagi szkód, a także rozpatrywania automatycznego.

W tym okresie sprawozdawczym dokonaliśmy również szeregu ukierunkowanych zmian w naszych działaniach na rzecz bezpieczeństwa. Miało to wpływ na opisane tu dane, w tym na wzmocnienie naszych zasad dotyczących nielegalnej działalności z wykorzystaniem broni. Zaobserwowaliśmy wzrost liczby zgłoszeń i działań egzekucyjnych w kategorii wykorzystywania seksualnego nieletnich. Głównym powodem jest coraz większa liczba materiałów o treści seksualnej lub wrażliwej z udziałem dzieci, które stanowią naruszenie naszych zasad, lecz nie są nielegalne w Stanach Zjednoczonych lub nie podlegają zgłaszaniu do Amerykańskiego Narodowego Centrum Zaginięć i Wykorzystywania Dzieci (NCMEC). Wzrost liczby treści o charakterze seksualnym (oraz spadek liczby treści związanych z napastowaniem) to wynik naszej zmiany klasyfikacji treści związanych z napastowaniem seksualnym z kategorii „Napastowanie” na „Treści o charakterze seksualnym”.

Nasze wysiłki na rzecz proaktywnego wykrywania naruszeń Wytycznych dla społeczności i podejmowania działań egzekucyjnych

Proaktywne wykrywanie naruszeń i egzekwowanie naszych Wytycznych dla społeczności


Korzystamy ze zautomatyzowanych narzędzi do proaktywnego wykrywania naruszeń naszych Wytycznych dla społeczności, a w niektórych przypadkach do egzekwowania naszych zasad. Narzędzia te obejmują technologię dopasowywania hashów (m.in. PhotoDNA i Child Sexual Abuse Imagery (CSAI) od Google), Content Safety API od Google i inne opatentowane  technologie stworzone do wykrywania nielegalnych i obraźliwych tekstów oraz multimediów. Niektóre korzystają ze sztucznej inteligencji i uczenia maszynowego. Liczba dokonanych przez nas prewencyjnych wykryć ulega z reguły wahaniom. Jest to rezultat zmian zachowania użytkowników, usprawnień naszych możliwości wykrywania, a także zmian wprowadzanych w naszej polityce.

W pierwszym półroczu 2025 r. podjęliśmy następujące działania egzekucyjne po prewencyjnym wykryciu naruszeń naszych Wytycznych dla społeczności za pomocą zautomatyzowanych narzędzi do wykrywania:


Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Łącznie

3 395 968

1 709 224

Przyczyna w ramach polityki

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych

Treści o charakterze seksualnym

1 683 045

887 059

0

Wykorzystywanie seksualne dzieci oraz wykorzystywanie seksualne dzieci w celu uzyskania korzyści finansowych

399 756

162 017

2

Napastowanie i nękanie

12 716

10 412

8

Groźby i przemoc

40 489

27 662

6

Samookaleczanie się i samobójstwo

6493

4638

7

Fałszywe informacje

61

44

20

Podszywanie się

52

44

34

Spam

144 800

96 500

0

Narkotyki

832 803

578 738

7

Broń

211 877

144 455

0

Inne towary regulowane

40 139

31 408

8

Mowa nienawiści

5788

4518

6

Terroryzm i brutalny ekstremizm

9917

5899

5

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne i niegodziwe traktowanie dzieci (CSEA) na platformie Snap jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Korzystamy z aktywnych narzędzi technologicznych do wykrywania, aby pomóc w identyfikacji treści związanych z CSEA. Obejmują one narzędzia do dopasowywania hashów (m.in. PhotoDNA i CSAI Match od Google, określających odpowiednio znane nielegalne obrazy i wideo CSEA) oraz Content Safety API od Google (do identyfikacji nowych, nielegalnych obrazów „nigdy wcześniej niezahashowanych”). Ponadto w niektórych przypadkach wykorzystujemy sygnały behawioralne w celu egzekwowania przepisów w zakresie innych podejrzeń o CSEA. Materiały zawierające wykorzystywanie seksualne dzieci zgłaszamy do amerykańskiej organizacji National Center for Missing and Exploited Children (Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych) (NCMEC), zgodnie z wymogami przepisów prawa. Następnie w razie potrzeby NCMEC koordynuje działania z krajowymi lub międzynarodowymi organami ścigania.

W pierwszym półroczu 2025 r. podjęliśmy następujące działania w wyniku zidentyfikowania CSEA na Snapchacie (prewencyjnie lub po otrzymaniu zgłoszenia):

Łączna liczba treści, wobec których podjęto działania

Łączna liczba wyłączonych kont

Łączna liczba zgłoszeń przekazanych do NCMEC*

994 337

187 387

321 587

*Pamiętaj, że każde zgłoszenie do NCMEC może zawierać wiele elementów treści. Łączna liczba poszczególnych elementów mediów przekazanych do NCMEC jest równa całkowitej liczbie treści, wobec której podjęliśmy działania.

Nasze wysiłki mające na celu zapewnienie zasobów i wsparcia użytkownikom Snapchata w potrzebie

Snapchat umożliwia znajomym pomaganie sobie w trudnych chwilach, zapewniając zasoby i wsparcie dla potrzebujących Snapchaterów. 

Gdy użytkownicy szukają określonych tematów związanych ze zdrowiem psychicznym, lękiem, depresją, stresem, myślami samobójczymi, żałobą i nękaniem, nasze narzędzie wyszukiwania Dla Ciebie zapewnia im materiały stworzone przez ekspertów. Ponadto opracowaliśmy stronę dedykowaną zwalczaniu motywowanych finansowo wymuszeń seksualnych oraz innych zagrożeń o podłożu seksualnym. Ma ona wspierać osoby znajdujące się w trudnym położeniu.

Gdy nasze zespoły ds. bezpieczeństwa dowiedzą się o snapchaterze w trudnej sytuacji, wykorzystają swoje narzędzia zapobiegania samookaleczeniu i materiały pomocnicze, a w razie potrzeby powiadomią odpowiednie służby. Te materiały są ogólnodostępne na naszej globalnej liście materiałów z zakresu bezpieczeństwa. Jest ona do dyspozycji każdego snapchatera, a znaleźć ją można w naszym Centrum prywatności, bezpieczeństwa i zasad.

Łączna liczba udostępnień zasobów dotyczących samobójstw

36 162

Odwołania

Poniżej znajdują się informacje na temat złożonych w pierwszym półroczu 2025 r. apelacji od użytkowników, w których proszą oni o weryfikację decyzji w sprawie zablokowania ich konta za naruszenia Wytycznych dla społeczności:

Przyczyna w ramach polityki

Łączna liczba odwołań

Łączna liczba przywróceń

Łączna liczba podtrzymanych decyzji

Średni czas rozpatrzenia odwołania (dni)

Łącznie

437 855

22 142

415 494

1

Treści o charakterze seksualnym

134 358

6175

128 035

1

Wyzysk seksualny dla korzyści finansowych i wykorzystanie seksualne nieletnich*

89 493

4179

85 314

<1

Napastowanie i nękanie

42 779

281

42 496

1

Groźby i przemoc

3987

77

3909

1

Samookaleczanie się i samobójstwo

145

2

143

1

Fałszywe informacje

4

0

4

1

Podszywanie się

1063

33

1.030

<1

Spam

13 730

3140

10 590

1

Narkotyki

128 222

7749

120 409

1

Broń

10 941

314

10 626

1

Inne towary regulowane

9 719

124

9 593

1

Mowa nienawiści

3310

67

3242

1

Terroryzm i brutalny ekstremizm

104

1

103

1

Przegląd regionów i krajów

W tej sekcji przedstawiono przegląd działań podejmowanych przez nasze zespoły ds. bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności, zarówno proaktywnie, jak i w odpowiedzi na zgłoszenia naruszeń w aplikacji, na próbce regionów geograficznych. Nasze Wytyczne dla społeczności mają zastosowanie do wszelkich treści na Snapchacie — i do wszystkich użytkowników Snapchata — na całym świecie, bez względu na lokalizację.

Informacje dotyczące poszczególnych krajów, w tym wszystkich państw członkowskich UE, są dostępne do pobrania za pośrednictwem załączonego pliku CSV.



Działania naszych zespołów ds. bezpieczeństwa w zakresie egzekwowania naszych Wytycznych dla społeczności 

Region

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Ameryka Północna

3 468 315

2 046 888

Europa

2 815 474

1 810 223

Reszta świata

3 390 625

1 937 090

Łącznie

9 674 414

5 794 201

Przypadki naruszenia Wytycznych dla społeczności zgłoszone naszym zespołom ds. bezpieczeństwa

Region

Zgłoszenia treści i kont

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Ameryka Północna

5 762 412

2 125 819

1 359 763

Europa

5 961 962

2 144 828

1 440 907

Reszta świata

8 041 950

2 007 799

1 316 070

Łącznie

19 766 324

6 278 446

4 116 740

Wykrywanie prewencyjne i egzekwowanie naszych Wytycznych dla społeczności

Region

Łączna liczba działań egzekucyjnych

Łączna liczba unikalnych kont, wobec których podjęto działania

Ameryka Północna

1 342 496

785 067

Europa

670 646

422 012

Reszta świata

1 382 826

696 364

Łącznie

3 395 968

1 709 224

Moderowanie reklam

Snap dokłada wszelkich starań, aby wszystkie reklamy były w pełni zgodne z naszą Polityką dotyczącą reklam. Wierzymy w odpowiedzialne podejście do reklam, tworząc bezpieczne doświadczenia dla wszystkich Snapchaterów. Wszystkie reklamy podlegają ocenie i akceptacji przez firmę Snap. Ponadto zastrzegamy sobie prawo do usuwania reklam, również w odpowiedzi na opinie użytkowników, które traktujemy poważnie. 


Poniżej przedstawiamy informacje na temat naszej moderacji płatnych reklam, które zostały nam zgłoszone po ich opublikowaniu na Snapchacie. Należy pamiętać, że możemy usunąć reklamy ze Snapchata z różnych powodów, co opisane zostało w Polityce dotyczącej reklam Snapa. Wśród takich przyczyn są treści kłamliwe, treści dla dorosłych, treści brutalne lub niepokojące, mowa nienawiści oraz naruszenie własności intelektualnej. Możesz również zajrzeć do galerii reklam Snapchata na stronie values.snap.com w zakładce „Przejrzystość”.

Łączna liczba zgłoszonych reklam

Łączna liczba usuniętych reklam

67 789

16 410