Snap Values
Raport przejrzystości
1 stycznia 2024 r. – 30 czerwca 2024 r.

Wydano:

5 grudnia 2024 r.

Zaktualizowano:

5 grudnia 2024 r.

Publikujemy niniejszy raport przejrzystości dwa razy w roku, aby umożliwić wgląd w działania Snapa w zakresie bezpieczeństwa. Dokładamy wszelkich starań, aby raporty były bardziej kompleksowe i zawierały więcej informacji dla wielu interesariuszy, którym zależy na naszych praktykach moderacji treści, egzekwowaniu prawa oraz bezpieczeństwie i dobrostanie społeczności na Snapchacie. 

Niniejszy raport przejrzystości obejmuje pierwszą połowę 2024 r. (od 1 stycznia do 30 czerwca). Podobnie jak w przypadku naszych poprzednich raportów, udostępniamy w tym dokumencie dane o globalnej liczbie treści w aplikacji oraz zgłoszeń z poziomu konta, które otrzymały nasze zespoły ds. zaufania i bezpieczeństwa i przeciw którym podjęliśmy działania w określonych kategoriach naruszenia Wytycznych dla społeczności. Podajemy również informacje na temat naszej reakcji na wnioski od organów ścigania i władz oraz nasze odpowiedzi na zgłoszenia o naruszeniu praw autorskich i znaków towarowych. Udostępniamy również informacje dotyczące poszczególnych krajów w plikach, do których odsyłają linki na dole niniejszej strony.

W ramach naszego stałego zobowiązania do ciągłego ulepszania naszych raportów przejrzystości wprowadzamy również nowe dane, w których podkreślamy nasze proaktywne działania na rzecz wykrywania i egzekwowania w odniesieniu do szerszego zakresu naruszeń naszych Wytycznych dla społeczności. W niniejszym raporcie ujęliśmy te dane zarówno na poziomie globalnym, jak i krajowym. Będziemy nadal to robić. Poprawiliśmy również błąd w tytule w naszych poprzednich raportach: w przypadkach, w których wcześniej pisaliśmy o „Łącznej liczbie egzekwowanych treści”, obecnie odwołujemy się do „Łącznej liczby działań egzekucyjnych”, aby odzwierciedlić fakt, że dane podane w odpowiednich kolumnach obejmują zarówno działania egzekucyjne na poziomie treści, jak i na poziomie konta.

Więcej informacji na temat naszych zasad zwalczania potencjalnych szkód w Internecie oraz planów dalszego rozwoju naszych praktyk w zakresie zgłaszania można znaleźć w naszym najnowszym blogu dotyczącym bezpieczeństwa i oddziaływania, dotyczącym niniejszego raportu przejrzystości. Dodatkowe materiały dotyczące bezpieczeństwa i prywatności na Snapchacie są dostępne w zakładce O raportach przejrzystości, znajdującej się na dole niniejszej strony.

Należy pamiętać, że najbardziej aktualną wersję tego raportu przejrzystości można znaleźć w wersji anglojęzycznej.

Przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności

Nasze zespoły ds. zaufania i bezpieczeństwa egzekwują nasze Wytyczne dla społeczności zarówno proaktywnie (poprzez wykorzystanie zautomatyzowanych narzędzi), jak i reaktywnie (w odpowiedzi na zgłoszenia), zgodnie z informacjami szczegółowymi w poniższych sekcjach niniejszego raportu. W aktualnym cyklu sprawozdawczym (pierwsza połowa 2024 roku) nasze zespoły ds. zaufania i bezpieczeństwa podjęły następujące działania egzekucyjne: 

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

Poniżej przedstawiamy zestawienie w podziale na rodzaj naruszenia Wytycznych dla społeczności, w tym średni czas reakcji między czasem wykrycia naruszenia (w sposób proaktywny lub po otrzymaniu zgłoszenia) a czasem podjęcia działań końcowych w odniesieniu do danych treści lub danego konta:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

W okresie sprawozdawczym wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Stories na Snapchacie, jedno z nich zawierało treści naruszające nasze Wytyczne dla społeczności.

Naruszenia Wytycznych dla społeczności zgłoszone do naszych zespołów ds. zaufania i bezpieczeństwa

Od 1 stycznia do 30 czerwca 2024 r., w odpowiedzi na zgłoszenia w aplikacji dotyczące naruszeń naszych Wytycznych dla społeczności, zespoły ds. zaufania i bezpieczeństwa Snap podjęły łącznie 6 223 618 działań egzekucyjnych na całym świecie, w tym działań egzekucyjnych przeciwko 3 842 507 unikalnym kontom. Średni czas oczekiwania na podjęcie działań egzekucyjnych przez nasze zespoły ds. zaufania i bezpieczeństwa, w odpowiedzi na te zgłoszenia, wyniósł około 24 minuty. Poniżej przedstawiono zestawienie według kategorii zgłoszenia. 

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

W pierwszej połowie 2024 r. nasza łączna liczba zgłoszeń utrzymywała się na dość stabilnym poziomie w porównaniu z poprzednim półroczem. W tym cyklu odnotowaliśmy wzrost liczby działań egzekucyjnych i łącznej liczby unikalnych kont, które zostały objęte działaniami egzekucyjnymi o około 16%.

W ciągu ostatnich 12 miesięcy Snap wprowadził nowe mechanizmy zgłaszania dla użytkowników, które uwzględniają zmiany w liczbie zgłoszeń i działań egzekucyjnych oraz wydłużenie czasu procedowania w bieżącym okresie sprawozdawczym (pierwsza połowa 2024 roku). W szczególności:

  • Zgłaszanie czatów grupowych: 13 października 2023 r. wprowadziliśmy zgłaszanie czatów grupowych, aby umożliwić użytkownikom zgłaszanie nadużyć na czacie wieloosobowym. Zmiana ta miała wpływ na rozkład naszych wskaźników w różnych kategoriach zgłaszania (ponieważ niektóre potencjalne szkody są bardziej prawdopodobne w kontekście czatu) i przełożyła się na większe możliwości podejmowania działań. 

  • Ulepszenia w zakresie zgłaszania kont: udoskonalono również funkcję zgłaszania kont, aby umożliwić użytkownikom dokonującym zgłoszenia przesyłanie dowodów na czacie podczas zgłaszania konta, co do którego występuje podejrzenie, że jest prowadzone przez nieuczciwą osobę. Zmiana ta, która zapewnia nam więcej dowodów i lepszy kontekst do oceny zgłoszeń kont, została wprowadzona 29 lutego 2024 r. 


Zgłoszenia czatów, a w szczególności czatów grupowych, są jednymi z najbardziej złożonych i czasochłonnych w procesie weryfikacji, co wydłużyło czas procedowania we wszystkich obszarach.

Dwie opisane powyżej zmiany, obok zmian w szerszym ekosystemie, miały największy wpływ na zgłaszanie podejrzenia wykorzystywania seksualnego dzieci (CSEA), napastowania i nękania oraz mowy nienawiści. W szczególności:

  • CSEA: w pierwszym półroczu 2024 roku zaobserwowaliśmy wzrost zgłoszeń związanych z wykorzystaniem seksualnym dzieci oraz odpowiednich działań egzekucyjnych. W szczególności zauważyliśmy wzrost o 64% łącznej liczby zgłoszeń dokonywanych przez użytkowników w aplikacji, wzrost o 82% wszystkich działań egzekucyjnych i wzrost o 108% łącznej liczby unikalnych kont objętych działaniami egzekucyjnymi. Wzrost ten wynika w dużej mierze z wprowadzenia funkcji zgłaszania czatu grupowego i konta. Ze względu na delikatny charakter tej kolejki do moderacji, wybrany zespół wysoko wykwalifikowanych pracowników jest przydzielany do oceny zgłoszeń dotyczących potencjalnych naruszeń związanych z CSEA. Napływ dodatkowych zgłoszeń w połączeniu z objęciem naszych zespołów nowymi szkoleniami spowodował wydłużenie czasu procedowania. Idąc dalej, znacznie zwiększyliśmy liczebność naszych zespołów pracowników obsługi, aby skrócić czas procedowania i podejmować odpowiednie działania egzekucyjne w odpowiedzi na zgłoszenia potencjalnego wykorzystania seksualnego dzieci. Oczekujemy, że wysiłki te znajdą odzwierciedlenie w naszym raporcie przejrzystości za drugą połowę 2024 r., a czas procedowania ulegnie znacznemu skróceniu.

  • Napastowanie i nękanie: z raportu wynika, że napastowanie i nękanie w sposób nieproporcjonalny występuje w czatach, a zwłaszcza w czatach grupowych. Wprowadzone przez nas ulepszenia w zakresie zgłaszania czatów grupowych i kont pomagają nam podejmować bardziej kompleksowe działania podczas oceny zgłoszeń w tej kategorii. Ponadto od tego okresu wymagamy od użytkowników umieszczania komentarza podczas przesyłania zgłoszeń o napastowaniu i nękaniu. Analizujemy te komentarze, aby uwzględnić kontekst każdego zgłoszenia. Wszystkie te zmiany doprowadziły do znacznego wzrostu łącznej liczby działań egzekucyjnych (o 91%), łącznej liczby unikalnych kont objętych działaniami egzekucyjnymi (o 82%) oraz do wydłużenia czasu procedowania (o 245 minut) w przypadku odpowiednich zgłoszeń. 

  • Mowa nienawiści: w pierwszej połowie 2024 r. zaobserwowaliśmy wzrost zgłaszanych treści, łącznej liczby działań egzekucyjnych i czasu procedowania w odniesieniu do mowy nienawiści. W szczególności odnotowaliśmy wzrost o 61% zgłoszeń w aplikacji, wzrost o 127% łącznej liczby działań egzekucyjnych i wzrost o 125% łącznej liczby unikalnych kont, które zostały objęte działaniami egzekucyjnymi. Zjawisko to wynikało częściowo z ulepszeń naszych mechanizmów zgłaszania czatów (zgodnie z opisem powyżej) i uległo dodatkowemu zaostrzeniu w wyniku otoczenia geopolitycznego, a zwłaszcza kontynuacji konfliktu między Izraelem a Hamasem. 

W bieżącym okresie sprawozdawczym odnotowaliśmy spadek o około 65% wszystkich działań egzekucyjnych i spadek o około 60% łącznej liczby unikalnych kont, które zostały objęte działaniami egzekucyjnymi w odpowiedzi na zgłoszenia podejrzanych przypadków spamu i nadużyć, co odzwierciedla usprawnienie proaktywnych narzędzi wykrywania i egzekwowania. W odpowiedzi na zgłoszenia dotyczące treści związanych z samookaleczaniem i samobójstwami odnotowaliśmy podobny spadek łącznej liczby działań egzekucyjnych (spadek o około 80%), co wynika z modyfikacji naszego podejścia, które koncentruje się na ofiarach. Nasze zespoły ds. zaufania i bezpieczeństwa, w stosownych przypadkach, będą wysyłać użytkownikom odpowiednie zasoby dotyczące samopomocy zamiast podejmować działania egzekucyjne przeciwko nim. Takie podejście zostało świadomie przyjęte przez członków Rady Doradczej ds. Bezpieczeństwa, w której skład wchodzą profesor pediatrii i lekarz specjalizujący się w zaburzeniach związanych z interaktywnymi mediami i Internetem.

Nasze wysiłki na rzecz proaktywnego wykrywania naruszeń Wytycznych dla społeczności i podejmowania działań egzekucyjnych

Proaktywne wykrywanie naruszeń i egzekwowanie naszych Wytycznych dla społeczności


Stosujemy zautomatyzowane narzędzia do proaktywnego wykrywania naruszeń naszych Wytycznych dla społeczności oraz, w niektórych przypadkach, działań egzekucyjnych. Narzędzia te obejmują narzędzia dopasowywania haszów (takie jak PhotoDNA i CSAI), narzędzia do wykrywania obraźliwego języka (które wykrywają naruszenia i podejmują działania egzekucyjne na podstawie zidentyfikowanej i regularnie aktualizowanej listy słów kluczowych i emotek stanowiących naruszenie), a także multimodalnej sztucznej inteligencji/technologii uczenia maszynowego. 

W pierwszej połowie 2024 roku podjęliśmy następujące działania egzekucyjne w następstwie proaktywnego wykrycia przypadków naruszenia naszych Wytycznych dla społeczności przy użyciu zautomatyzowanych narzędzi:

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEA) na platformie Snap jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.

Wykorzystujemy aktywne narzędzia technologiczne umożliwiające wykrywanie naruszeń, takie jak PhotoDNA służące do dopasowywania haszów czy CSAI do identyfikowania znanych nielegalnych obrazów i filmów zawierających wykorzystywanie seksualne dzieci. Ponadto w niektórych przypadkach stosujemy sygnały behawioralne do działań egzekucyjnych mających na celu przeciwdziałanie innym potencjalnie nielegalnym działaniom obejmującym wykorzystywanie seksualne dzieci. Materiały zawierające wykorzystywanie seksualne dzieci zgłaszamy do amerykańskiej organizacji National Center for Missing and Exploited Children (Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych) (NCMEC), zgodnie z wymogami przepisów prawa. Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.

W pierwszej połowie 2024 r. podjęliśmy następujące działania w związku z wykryciem wykorzystywania seksualnego dzieci na Snapchacie (proaktywnie lub po otrzymaniu zgłoszenia):

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Nasze wysiłki mające na celu zapewnienie zasobów i wsparcia użytkownikom Snapchata w potrzebie

Zdrowie psychiczne i dobrostan użytkowników Snapchata jest dla nas niezmiernie istotny, co prowadziło i w dalszym ciągu prowadzi do podejmowania decyzji dotyczących tworzenia Snapchata w odmienny sposób. Uważamy, że Snapchat jako platforma przeznaczona do komunikacji między prawdziwymi znajomymi może odgrywać wyjątkową rolę w ułatwianiu udzielania sobie wzajemnej pomocy w trudnym okresie. Dlatego opracowaliśmy zasoby i metody wsparcia dla użytkowników Snapchata w potrzebie. 

Nasze narzędzie wyszukiwania Here For You wyświetla zasoby lokalnych ekspertów, gdy użytkownicy szukają określonych tematów związanych ze zdrowiem psychicznym, stanami lękowymi, depresją, stresem, myślami samobójczymi, przygnębieniem i nękaniem. Opracowaliśmy również stronę poświęconą szantażowi na tle seksualnym i innym rodzajom ryzyka o podłożu seksualnym, aby wesprzeć osoby w trudnej sytuacji. Nasza globalna lista zasobów dotyczących bezpieczeństwa jest publicznie dostępna dla wszystkich użytkowników Snapchata w naszym Centrum prywatności, bezpieczeństwa i zasad. 

Gdy nasze zespoły ds. zaufania i bezpieczeństwa dowiedzą się o Snapchatterze znajdującym się w niebezpieczeństwie, mogą przekazać mu zasoby dotyczące zapobiegania samookaleczeniom i wsparcia, a w stosownych przypadkach powiadomić o tym personel reagowania kryzysowego. Udostępnione przez nas zasoby są dostępne na naszej globalnej liście zasobów dotyczących bezpieczeństwa dla wszystkich użytkowników Snapchata.

Total Times Suicide Resources Shared

64,094

Odwołania

Poniżej przedstawiamy informacje na temat odwołań, które otrzymaliśmy od użytkowników wnioskujących o weryfikację naszej decyzji o zablokowaniu konta:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Przegląd regionów i krajów

W niniejszej sekcji przedstawiono przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności, zarówno proaktywnie, jak i w odpowiedzi na zgłoszenia naruszeń w aplikacji z podziałem na poszczególne regiony geograficzne. Nasze Wytyczne dla społeczności mają zastosowanie do wszelkich treści na Snapchacie — i do wszystkich użytkowników Snapchata — na całym świecie, bez względu na lokalizację.

Informacje dotyczące poszczególnych krajów, w tym wszystkich państw członkowskich UE, są dostępne do pobrania za pośrednictwem załączonego pliku CSV.

Przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności 

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Naruszenia Wytycznych dla społeczności zgłoszone do naszych zespołów ds. zaufania i bezpieczeństwa

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Proaktywne wykrywanie i egzekwowanie naszych Wytycznych dla społeczności

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Moderowanie reklam

Snap dokłada wszelkich starań, aby wszystkie reklamy były w pełni zgodne z naszą Polityką dotyczącą reklam. Wierzymy w odpowiedzialne i kulturalne podejście do reklamowania, które umożliwi stworzenie bezpiecznych oraz przyjemnych doświadczeń dla wszystkich naszych użytkowników. Wszystkie reklamy podlegają ocenie i akceptacji przez firmę Snap. Ponadto zastrzegamy sobie prawo do usuwania reklam, również w odpowiedzi na opinie użytkowników, które traktujemy poważnie. 


Poniżej przedstawiamy informacje na temat naszej moderacji płatnych reklam, które zostały nam zgłoszone po ich opublikowaniu na Snapchacie. Należy pamiętać, że możemy usunąć reklamy ze Snapchata z różnych powodów, co opisane zostało w Polityce dotyczącej reklam Snapa. Wśród takich przyczyn są treści kłamliwe, treści dla dorosłych, treści brutalne lub niepokojące, mowa nienawiści oraz naruszenie własności intelektualnej. Ponadto możesz znaleźć galerię reklam Snapchata w pasku nawigacyjnym tego raportu przejrzystości.

Total Ads Reported

Total Ads Removed

43,098

17,833