20 czerwca 2025 r.
1 lipca 2025 r.
Publikujemy niniejszy raport przejrzystości dwa razy w roku, aby umożliwić wgląd w działania Snapa w zakresie bezpieczeństwa. Jako część naszego zaangażowania w bezpieczeństwo i przejrzystość nieustannie staramy się, aby raporty były bardziej kompleksowe i zawierały więcej informacji dla wielu interesariuszy, którym zależy na naszych praktykach moderacji treści, egzekwowaniu prawa oraz bezpieczeństwie i dobrostanie społeczności na Snapchacie.
Niniejszy raport przejrzystości obejmuje drugą połowę 2024 r. (od 1 lipca do 31 grudnia). Udostępniamy globalne dane na temat zgłoszeń użytkowników i proaktywnego wykrywania przez Snap; działań egzekucyjnych podejmowanych przez nasze zespoły ds. bezpieczeństwa w określonych kategoriach naruszeń Wytycznych dla społeczności; w jaki sposób reagowaliśmy na wnioski organów ścigania i organów rządowych oraz w jaki sposób reagowaliśmy na powiadomienia o naruszeniu praw autorskich i znaków towarowych. Zapewniamy również informacje dotyczące poszczególnych krajów na serii podlinkowanych stron.
Dodatkowe materiały dotyczące bezpieczeństwa i prywatności na Snapchacie są dostępne w zakładce O raportach przejrzystości, znajdującej się na dole niniejszej strony.
Pamiętaj, że najbardziej aktualna wersja tego raportu przejrzystości to wersja angielska.
Przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności
Nasze zespoły ds. bezpieczeństwa egzekwują nasze Wytyczne dla społeczności zarówno proaktywnie (za pomocą zautomatyzowanych narzędzi do wykrywania), jak i reaktywnie (w odpowiedzi na zgłoszenia), co szczegółowo opisano w poniższych sekcjach niniejszego raportu. W tym cyklu sprawozdawczym (druga połowa 2024 r.) nasze zespoły ds. bezpieczeństwa podjęły następującą liczbę działań egzekucyjnych:
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
10 032 110
5 698 212
Poniżej przedstawiamy zestawienie w podziale na rodzaj naruszenia Wytycznych dla społeczności, w tym średni czas reakcji między czasem wykrycia naruszenia (w sposób proaktywny lub po otrzymaniu zgłoszenia) a czasem podjęcia działań końcowych w odniesieniu do danych treści lub danego konta:
Przyczyna w ramach polityki
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych
Treści o charakterze seksualnym
3 860 331
2 099 512
2
Wykorzystywanie seksualne dzieci
961 359
577 682
23
Napastowanie i nękanie
2 716 966
2 019 439
7
Groźby i przemoc
199 920
156 578
8
Samookaleczanie się i samobójstwo
15 910
14 445
10
Fałszywe informacje
6539
6176
1
Podszywanie się
8798
8575
2
Spam
357 999
248 090
1
Narkotyki
1 113 629
718 952
6
Broń
211 860
136 953
1
Inne towary regulowane
247 535
177 643
8
Mowa nienawiści
324 478
272 025
27
Terroryzm i brutalny ekstremizm
6786
4010
5
W okresie sprawozdawczym wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Stories na Snapchacie, jedno z nich zawierało treści naruszające nasze Wytyczne dla społeczności.
Naruszenia Wytycznych dla społeczności zgłoszone do naszych zespołów ds. zaufania i bezpieczeństwa
Od 1 lipca do 31 grudnia 2024 r. w odpowiedzi na zgłoszenia w aplikacji naruszeń naszych Wytycznych dla społeczności, zespoły Snap ds. bezpieczeństwa podjęły łącznie 6 346 508 działań egzekucyjnych na całym świecie, w tym działania egzekucyjne przeciwko 4 075 838 unikalnym kontom. Średni czas oczekiwania na podjęcie działań egzekucyjnych przez nasze zespoły ds. bezpieczeństwa, w odpowiedzi na te zgłoszenia, wyniósł około 6 minut. Poniżej przedstawiono zestawienie według kategorii zgłoszenia.
Zgłoszeń treści i kont ogółem
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
19 379 848
6 346 508
4 075 838
Przyczyna w ramach polityki
Zgłoszenia treści i kont
Łączna liczba działań egzekucyjnych
% łącznej liczby zgłoszeń, w ramach których Snap podjął działania
Łączna liczba unikalnych kont, wobec których podjęto działania
Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych
Treści o charakterze seksualnym
5 251 375
2 042 044
32,20%
1 387 749
4
Wykorzystywanie seksualne dzieci
1 224 502
469 389
7,40%
393 384
133
Napastowanie i nękanie
6 377 555
2 702 024
42,60%
2 009 573
7
Groźby i przemoc
1 000 713
156 295
2,50%
129 077
8
Samookaleczanie się i samobójstwo
307 660
15 149
0,20%
13 885
10
Fałszywe informacje
536 886
6454
0,10%
6095
1
Podszywanie się
678 717
8790
0,10%
8569
2
Spam
1 770 216
180 849
2,80%
140 267
1
Narkotyki
418 431
244 451
3,90%
159 452
23
Broń
240 767
6473
0,10%
5252
1
Inne towary regulowane
606 882
199 255
3,10%
143 560
8
Mowa nienawiści
768 705
314 134
4,90%
263 923
27
Terroryzm i brutalny ekstremizm
197 439
1201
<0,1%
1093
4
W porównaniu z poprzednim okresem sprawozdawczym skróciliśmy medianę czasu realizacji we wszystkich kategoriach zasad średnio o 90%. Zmniejszenie to było w dużej mierze spowodowane wspólnymi wysiłkami na rzecz rozszerzenia możliwości przeglądowych, a także poprawy priorytetowego traktowania zgłoszeń na podstawie powagi szkód. W okresie sprawozdawczym wprowadziliśmy również kilka ukierunkowanych zmian w zakresie bezpieczeństwa, które miały wpływ na dane zgłaszane tutaj, w tym zwiększenie wysiłków na rzecz egzekwowania zasad wobec kont w przypadku nazw użytkownika i nazw wyświetlanych, które naruszają nasze Wytyczne dla społeczności, wprowadzenie zwiększonego poziomu zgłaszania i ochrony dla społeczności na Snapchacie oraz wprowadzenie opcji zgłaszania dodatkowych rodzajów mediów, takich jak notatki głosowe, bezpośrednio do nas w aplikacji.
Zmiany te, a także inne działania na rzecz bezpieczeństwa i siły zewnętrzne, miały szczególny wpływ na niektóre obszary zasad w porównaniu z poprzednim okresem sprawozdawczym. Te kategorie zasad obejmują: treści związane z podejrzeniem wykorzystania seksualnego i przemocy wobec dzieci (CSEA), szkodliwe fałszywe informacje i spam. W szczególności:
CSEA: W drugiej połowie 2024 r. zaobserwowaliśmy 12% spadek liczby zgłoszeń związanych z CSEA i skróciliśmy medianę czasu odpowiedzi na zgłoszenia CSEA o 99%. Trendy te są w dużej mierze spowodowane ciągłym postępem w zakresie proaktywnego wykrywania, co umożliwiło nam usunięcie treści CSEA, zanim mogły one zostać nam zgłoszone, oraz z ulepszeń, które wprowadziliśmy w naszych procesach, aby skuteczniej przeglądać i podejmować działania w związku ze zgłoszeniami CSEA. Nawet przy tych ulepszeniach czas realizacji CSEA jest dłuższy niż w innych obszarach zasad, ponieważ treści podlegają specjalistycznemu procesowi, który obejmuje podwójną weryfikację z udziałem wybranego zespołu specjalnie przeszkolonych agentów.
Szkodliwe fałszywe informacje: zaobserwowaliśmy 26% wzrost liczby zgłoszeń dotyczących szkodliwych fałszywych informacji, co jest spowodowane głównie wydarzeniami politycznymi, w tym wyborami w Stanach Zjednoczonych w listopadzie 2024 r.
Spam: w tym okresie sprawozdawczym odnotowaliśmy spadek o około 50% całkowitej liczby egzekwowanych zasad i spadek o około 46% całkowitej liczby unikalnych kont, wobec których podjęto działania w odpowiedzi na zgłoszenia dotyczące podejrzenia spamu, co odzwierciedla ulepszenia naszych proaktywnych narzędzi wykrywania i egzekwowania zasad. Jest to kontynuacja naszych wysiłków na rzecz namierzania spamu za pośrednictwem sygnałów z kont oraz szybszego usuwania spamerów z platformy. Wysiłki te zostały już podjęte w ostatnim okresie sprawozdawczym, podczas którego całkowita liczba działań egzekucyjnych i łączna liczba unikalnych kont, wobec których podjęto działania w związku ze spamem, zmniejszyła się odpowiednio o ~65% i ~60%.
Nasze wysiłki na rzecz proaktywnego wykrywania naruszeń Wytycznych dla społeczności i podejmowania działań egzekucyjnych
Korzystamy ze zautomatyzowanych narzędzi do proaktywnego wykrywania naruszeń naszych Wytycznych dla społeczności, a w niektórych przypadkach do egzekwowania naszych zasad. Narzędzia te obejmują technologię dopasowywania hashów (w tym PhotoDNA i CSAI Match firmy Google, Child Sexual Abuse Imagery (CSAI) Match), interfejs API Google Content Safety oraz inną niestandardową technologię zaprojektowaną do wykrywania nielegalnych obrazów i mediów czasami z wykorzystaniem sztucznej inteligencji i uczenia maszynowego.
W drugiej połowie 2024 r. podjęliśmy następujące działania egzekucyjne po proaktywnym wykryciu naruszeń naszych Wytycznych dla społeczności za pomocą zautomatyzowanych narzędzi do wykrywania:
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
3 685 602
1 845 125
Przyczyna w ramach polityki
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Średni czas realizacji (w minutach) od czasu wykrycia do działań końcowych
Treści o charakterze seksualnym
1 818 287
828 590
<1
Wykorzystywanie seksualne dzieci
491 970
188 877
1
Napastowanie i nękanie
14 942
11 234
8
Groźby i przemoc
43 625
29 599
9
Samookaleczanie się i samobójstwo
761
624
9
Fałszywe informacje
85
81
10
Podszywanie się
8
6
19
Spam
177 150
110 551
<1
Narkotyki
869 178
590 658
5
Broń
205 387
133 079
<1
Inne towary regulowane
48 280
37 028
9
Mowa nienawiści
10 344
8683
10
Terroryzm i brutalny ekstremizm
5585
2951
21
Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne i niegodziwe traktowanie dzieci (CSEA) na platformie Snap jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.
Korzystamy z aktywnych narzędzi technologicznych do wykrywania, aby pomóc w identyfikacji treści związanych z CSEA. Narzędzia te obejmują narzędzia do dopasowywania hashów (w tym PhotoDNA i CSAI Match firmy Google, do identyfikacji znanych nielegalnych obrazów i filmów CSEA) oraz interfejs API Google Content Safety (do identyfikacji nowych, nielegalnych obrazów „nigdy wcześniej niezahashowanych”). Ponadto w niektórych przypadkach wykorzystujemy sygnały behawioralne w celu egzekwowania przepisów w zakresie innych podejrzeń o CSEA. Materiały zawierające wykorzystywanie seksualne dzieci zgłaszamy do amerykańskiej organizacji National Center for Missing and Exploited Children (Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych) (NCMEC), zgodnie z wymogami przepisów prawa. Następnie w razie potrzeby NCMEC koordynuje działania z krajowymi lub międzynarodowymi organami ścigania.
W drugiej połowie 2024 r. podjęliśmy następujące działania w związku z identyfikacją wykorzystywania seksualnego dzieci na Snapchacie (proaktywnie lub po otrzymaniu zgłoszenia):
Łączna liczba treści, wobec których podjęto działania
Łączna liczba wyłączonych kont
Łączna liczba zgłoszeń przekazanych do NCMEC*
1 228 929
242 306
417 842
*Pamiętaj, że każde zgłoszenie do NCMEC może zawierać wiele elementów treści. Łączna liczba poszczególnych elementów mediów przekazanych do NCMEC jest równa całkowitej liczbie treści, wobec której podjęliśmy działania.
Nasze wysiłki mające na celu zapewnienie zasobów i wsparcia użytkownikom Snapchata w potrzebie
Snapchat umożliwia znajomym pomaganie sobie w trudnych chwilach, zapewniając zasoby i wsparcie dla potrzebujących Snapchaterów.
Nasze narzędzie wyszukiwania Here For You zapewnia zasoby od ekspertów, gdy użytkownicy szukają określonych tematów związanych ze zdrowiem psychicznym, lękiem, depresją, stresem, myślami samobójczymi, żałobą i nękaniem. Opracowaliśmy również stronę poświęconą szantażowi na tle seksualnym i innym rodzajom ryzyka o podłożu seksualnym, aby wesprzeć osoby w trudnej sytuacji. Nasza globalna lista zasobów dotyczących bezpieczeństwa jest publicznie dostępna dla wszystkich użytkowników Snapchata w naszym Centrum prywatności, bezpieczeństwa i zasad.
Gdy nasze zespoły ds. bezpieczeństwa dowiedzą się o Snapchaterze w niebezpieczeństwie, są w stanie zapewnić zasoby dotyczące zapobiegania samookaleczeniu i wsparcie oraz w razie potrzeby powiadomić służby ratunkowe. Udostępnione przez nas zasoby są dostępne na naszej globalnej liście zasobów dotyczących bezpieczeństwa dla wszystkich użytkowników Snapchata.
Łączna liczba udostępnień zasobów dotyczących samobójstw
64 094
Odwołania
Poniżej przedstawiamy informacje na temat odwołań, które otrzymaliśmy od użytkowników z prośbą o ponowne rozpatrzenie naszej decyzji o zablokowaniu konta w drugiej połowie 2024 r.:
Przyczyna w ramach polityki
Łączna liczba odwołań
Łączna liczba przywróceń
Łączna liczba podtrzymanych decyzji
Średni czas rozpatrzenia odwołania (dni)
ŁĄCZNIE
493 782
35 243
458 539
5
Treści o charakterze seksualnym
162 363
6257
156 106
4
Wykorzystywanie seksualne dzieci
102 585
15 318
87 267
6
Napastowanie i nękanie
53 200
442
52 758
7
Groźby i przemoc
4238
83
4155
5
Samookaleczanie się i samobójstwo
31
1
30
5
Fałszywe informacje
3
0
3
<1
Podszywanie się
847
33
814
7
Spam
19 533
5090
14 443
9
Narkotyki
133 478
7598
125 880
4
Broń
4678
136
4542
6
Inne towary regulowane
9153
168
8985
6
Mowa nienawiści
3541
114
3427
7
Terroryzm i brutalny ekstremizm
132
3
129
9
Przegląd regionów i krajów
W tej sekcji przedstawiono przegląd działań podejmowanych przez nasze zespoły ds. bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności, zarówno proaktywnie, jak i w odpowiedzi na zgłoszenia naruszeń w aplikacji, na próbce regionów geograficznych. Nasze Wytyczne dla społeczności mają zastosowanie do wszelkich treści na Snapchacie — i do wszystkich użytkowników Snapchata — na całym świecie, bez względu na lokalizację.
Informacje dotyczące poszczególnych krajów, w tym wszystkich państw członkowskich UE, są dostępne do pobrania za pośrednictwem załączonego pliku CSV.
Region
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Ameryka Północna
3 828 389
2 117 048
Europa
2 807 070
1 735 054
Reszta świata
3 396 651
1 846 110
Łącznie
10 032 110
5 698 212
Region
Zgłoszenia treści i kont
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
Ameryka Północna
5 916 815
2 229 465
1 391 304
Europa
5 781 317
2 085 109
1 378 883
Reszta świata
7 681 716
2 031 934
1 319 934
Łącznie
19 379 848
6 346 508
4 090 121
Łączna liczba działań egzekucyjnych
Łączna liczba unikalnych kont, wobec których podjęto działania
1 598 924
837 012
721 961
417 218
1 364 717
613 969
3 685 602
1 868 199
Moderowanie reklam
Snap dokłada wszelkich starań, aby wszystkie reklamy były w pełni zgodne z naszą Polityką dotyczącą reklam. Wierzymy w odpowiedzialne podejście do reklam, tworząc bezpieczne doświadczenia dla wszystkich Snapchaterów. Wszystkie reklamy podlegają ocenie i akceptacji przez firmę Snap. Ponadto zastrzegamy sobie prawo do usuwania reklam, również w odpowiedzi na opinie użytkowników, które traktujemy poważnie.
Poniżej przedstawiamy informacje na temat naszej moderacji płatnych reklam, które zostały nam zgłoszone po ich opublikowaniu na Snapchacie. Należy pamiętać, że możemy usunąć reklamy ze Snapchata z różnych powodów, co opisane zostało w Polityce dotyczącej reklam Snapa. Wśród takich przyczyn są treści kłamliwe, treści dla dorosłych, treści brutalne lub niepokojące, mowa nienawiści oraz naruszenie własności intelektualnej. Ponadto możesz teraz znaleźć galerię reklam Snapchat w centrum przejrzystości Snap, do której dostęp można uzyskać bezpośrednio za pośrednictwem paska nawigacyjnego.
Łączna liczba zgłoszonych reklam
Łączna liczba usuniętych reklam
43 098
17 833


