5 grudnia 2024 r.
5 grudnia 2024 r.
Publikujemy niniejszy raport przejrzystości dwa razy w roku, aby umożliwić wgląd w działania Snapa w zakresie bezpieczeństwa. Dokładamy wszelkich starań, aby raporty były bardziej kompleksowe i zawierały więcej informacji dla wielu interesariuszy, którym zależy na naszych praktykach moderacji treści, egzekwowaniu prawa oraz bezpieczeństwie i dobrostanie społeczności na Snapchacie.
Niniejszy raport przejrzystości obejmuje pierwszą połowę 2024 r. (od 1 stycznia do 30 czerwca). Podobnie jak w przypadku naszych poprzednich raportów, udostępniamy w tym dokumencie dane o globalnej liczbie treści w aplikacji oraz zgłoszeń z poziomu konta, które otrzymały nasze zespoły ds. zaufania i bezpieczeństwa i przeciw którym podjęliśmy działania w określonych kategoriach naruszenia Wytycznych dla społeczności. Podajemy również informacje na temat naszej reakcji na wnioski od organów ścigania i władz oraz nasze odpowiedzi na zgłoszenia o naruszeniu praw autorskich i znaków towarowych. Udostępniamy również informacje dotyczące poszczególnych krajów w plikach, do których odsyłają linki na dole niniejszej strony.
W ramach naszego stałego zobowiązania do ciągłego ulepszania naszych raportów przejrzystości wprowadzamy również nowe dane, w których podkreślamy nasze proaktywne działania na rzecz wykrywania i egzekwowania w odniesieniu do szerszego zakresu naruszeń naszych Wytycznych dla społeczności. W niniejszym raporcie ujęliśmy te dane zarówno na poziomie globalnym, jak i krajowym. Będziemy nadal to robić. Poprawiliśmy również błąd w tytule w naszych poprzednich raportach: w przypadkach, w których wcześniej pisaliśmy o „Łącznej liczbie egzekwowanych treści”, obecnie odwołujemy się do „Łącznej liczby działań egzekucyjnych”, aby odzwierciedlić fakt, że dane podane w odpowiednich kolumnach obejmują zarówno działania egzekucyjne na poziomie treści, jak i na poziomie konta.
Więcej informacji na temat naszych zasad zwalczania potencjalnych szkód w Internecie oraz planów dalszego rozwoju naszych praktyk w zakresie zgłaszania można znaleźć w naszym najnowszym blogu dotyczącym bezpieczeństwa i oddziaływania, dotyczącym niniejszego raportu przejrzystości. Dodatkowe materiały dotyczące bezpieczeństwa i prywatności na Snapchacie są dostępne w zakładce O raportach przejrzystości, znajdującej się na dole niniejszej strony.
Należy pamiętać, że najbardziej aktualną wersję tego raportu przejrzystości można znaleźć w wersji anglojęzycznej.
Przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności
Nasze zespoły ds. zaufania i bezpieczeństwa egzekwują nasze Wytyczne dla społeczności zarówno proaktywnie (poprzez wykorzystanie zautomatyzowanych narzędzi), jak i reaktywnie (w odpowiedzi na zgłoszenia), zgodnie z informacjami szczegółowymi w poniższych sekcjach niniejszego raportu. W aktualnym cyklu sprawozdawczym (pierwsza połowa 2024 roku) nasze zespoły ds. zaufania i bezpieczeństwa podjęły następujące działania egzekucyjne:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
Poniżej przedstawiamy zestawienie w podziale na rodzaj naruszenia Wytycznych dla społeczności, w tym średni czas reakcji między czasem wykrycia naruszenia (w sposób proaktywny lub po otrzymaniu zgłoszenia) a czasem podjęcia działań końcowych w odniesieniu do danych treści lub danego konta:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
W okresie sprawozdawczym wskaźnik wyświetleń naruszających zasady (VVR) wyniósł 0,01 procent, co oznacza, że na każde 10 000 wyświetleń Snapów i Stories na Snapchacie, jedno z nich zawierało treści naruszające nasze Wytyczne dla społeczności.
Naruszenia Wytycznych dla społeczności zgłoszone do naszych zespołów ds. zaufania i bezpieczeństwa
Od 1 stycznia do 30 czerwca 2024 r., w odpowiedzi na zgłoszenia w aplikacji dotyczące naruszeń naszych Wytycznych dla społeczności, zespoły ds. zaufania i bezpieczeństwa Snap podjęły łącznie 6 223 618 działań egzekucyjnych na całym świecie, w tym działań egzekucyjnych przeciwko 3 842 507 unikalnym kontom. Średni czas oczekiwania na podjęcie działań egzekucyjnych przez nasze zespoły ds. zaufania i bezpieczeństwa, w odpowiedzi na te zgłoszenia, wyniósł około 24 minuty. Poniżej przedstawiono zestawienie według kategorii zgłoszenia.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
W pierwszej połowie 2024 r. nasza łączna liczba zgłoszeń utrzymywała się na dość stabilnym poziomie w porównaniu z poprzednim półroczem. W tym cyklu odnotowaliśmy wzrost liczby działań egzekucyjnych i łącznej liczby unikalnych kont, które zostały objęte działaniami egzekucyjnymi o około 16%.
W ciągu ostatnich 12 miesięcy Snap wprowadził nowe mechanizmy zgłaszania dla użytkowników, które uwzględniają zmiany w liczbie zgłoszeń i działań egzekucyjnych oraz wydłużenie czasu procedowania w bieżącym okresie sprawozdawczym (pierwsza połowa 2024 roku). W szczególności:
Zgłaszanie czatów grupowych: 13 października 2023 r. wprowadziliśmy zgłaszanie czatów grupowych, aby umożliwić użytkownikom zgłaszanie nadużyć na czacie wieloosobowym. Zmiana ta miała wpływ na rozkład naszych wskaźników w różnych kategoriach zgłaszania (ponieważ niektóre potencjalne szkody są bardziej prawdopodobne w kontekście czatu) i przełożyła się na większe możliwości podejmowania działań.
Ulepszenia w zakresie zgłaszania kont: udoskonalono również funkcję zgłaszania kont, aby umożliwić użytkownikom dokonującym zgłoszenia przesyłanie dowodów na czacie podczas zgłaszania konta, co do którego występuje podejrzenie, że jest prowadzone przez nieuczciwą osobę. Zmiana ta, która zapewnia nam więcej dowodów i lepszy kontekst do oceny zgłoszeń kont, została wprowadzona 29 lutego 2024 r.
Zgłoszenia czatów, a w szczególności czatów grupowych, są jednymi z najbardziej złożonych i czasochłonnych w procesie weryfikacji, co wydłużyło czas procedowania we wszystkich obszarach.
Dwie opisane powyżej zmiany, obok zmian w szerszym ekosystemie, miały największy wpływ na zgłaszanie podejrzenia wykorzystywania seksualnego dzieci (CSEA), napastowania i nękania oraz mowy nienawiści. W szczególności:
CSEA: w pierwszym półroczu 2024 roku zaobserwowaliśmy wzrost zgłoszeń związanych z wykorzystaniem seksualnym dzieci oraz odpowiednich działań egzekucyjnych. W szczególności zauważyliśmy wzrost o 64% łącznej liczby zgłoszeń dokonywanych przez użytkowników w aplikacji, wzrost o 82% wszystkich działań egzekucyjnych i wzrost o 108% łącznej liczby unikalnych kont objętych działaniami egzekucyjnymi. Wzrost ten wynika w dużej mierze z wprowadzenia funkcji zgłaszania czatu grupowego i konta. Ze względu na delikatny charakter tej kolejki do moderacji, wybrany zespół wysoko wykwalifikowanych pracowników jest przydzielany do oceny zgłoszeń dotyczących potencjalnych naruszeń związanych z CSEA. Napływ dodatkowych zgłoszeń w połączeniu z objęciem naszych zespołów nowymi szkoleniami spowodował wydłużenie czasu procedowania. Idąc dalej, znacznie zwiększyliśmy liczebność naszych zespołów pracowników obsługi, aby skrócić czas procedowania i podejmować odpowiednie działania egzekucyjne w odpowiedzi na zgłoszenia potencjalnego wykorzystania seksualnego dzieci. Oczekujemy, że wysiłki te znajdą odzwierciedlenie w naszym raporcie przejrzystości za drugą połowę 2024 r., a czas procedowania ulegnie znacznemu skróceniu.
Napastowanie i nękanie: z raportu wynika, że napastowanie i nękanie w sposób nieproporcjonalny występuje w czatach, a zwłaszcza w czatach grupowych. Wprowadzone przez nas ulepszenia w zakresie zgłaszania czatów grupowych i kont pomagają nam podejmować bardziej kompleksowe działania podczas oceny zgłoszeń w tej kategorii. Ponadto od tego okresu wymagamy od użytkowników umieszczania komentarza podczas przesyłania zgłoszeń o napastowaniu i nękaniu. Analizujemy te komentarze, aby uwzględnić kontekst każdego zgłoszenia. Wszystkie te zmiany doprowadziły do znacznego wzrostu łącznej liczby działań egzekucyjnych (o 91%), łącznej liczby unikalnych kont objętych działaniami egzekucyjnymi (o 82%) oraz do wydłużenia czasu procedowania (o 245 minut) w przypadku odpowiednich zgłoszeń.
Mowa nienawiści: w pierwszej połowie 2024 r. zaobserwowaliśmy wzrost zgłaszanych treści, łącznej liczby działań egzekucyjnych i czasu procedowania w odniesieniu do mowy nienawiści. W szczególności odnotowaliśmy wzrost o 61% zgłoszeń w aplikacji, wzrost o 127% łącznej liczby działań egzekucyjnych i wzrost o 125% łącznej liczby unikalnych kont, które zostały objęte działaniami egzekucyjnymi. Zjawisko to wynikało częściowo z ulepszeń naszych mechanizmów zgłaszania czatów (zgodnie z opisem powyżej) i uległo dodatkowemu zaostrzeniu w wyniku otoczenia geopolitycznego, a zwłaszcza kontynuacji konfliktu między Izraelem a Hamasem.
W bieżącym okresie sprawozdawczym odnotowaliśmy spadek o około 65% wszystkich działań egzekucyjnych i spadek o około 60% łącznej liczby unikalnych kont, które zostały objęte działaniami egzekucyjnymi w odpowiedzi na zgłoszenia podejrzanych przypadków spamu i nadużyć, co odzwierciedla usprawnienie proaktywnych narzędzi wykrywania i egzekwowania. W odpowiedzi na zgłoszenia dotyczące treści związanych z samookaleczaniem i samobójstwami odnotowaliśmy podobny spadek łącznej liczby działań egzekucyjnych (spadek o około 80%), co wynika z modyfikacji naszego podejścia, które koncentruje się na ofiarach. Nasze zespoły ds. zaufania i bezpieczeństwa, w stosownych przypadkach, będą wysyłać użytkownikom odpowiednie zasoby dotyczące samopomocy zamiast podejmować działania egzekucyjne przeciwko nim. Takie podejście zostało świadomie przyjęte przez członków Rady Doradczej ds. Bezpieczeństwa, w której skład wchodzą profesor pediatrii i lekarz specjalizujący się w zaburzeniach związanych z interaktywnymi mediami i Internetem.
Nasze wysiłki na rzecz proaktywnego wykrywania naruszeń Wytycznych dla społeczności i podejmowania działań egzekucyjnych
Stosujemy zautomatyzowane narzędzia do proaktywnego wykrywania naruszeń naszych Wytycznych dla społeczności oraz, w niektórych przypadkach, działań egzekucyjnych. Narzędzia te obejmują narzędzia dopasowywania haszów (takie jak PhotoDNA i CSAI), narzędzia do wykrywania obraźliwego języka (które wykrywają naruszenia i podejmują działania egzekucyjne na podstawie zidentyfikowanej i regularnie aktualizowanej listy słów kluczowych i emotek stanowiących naruszenie), a także multimodalnej sztucznej inteligencji/technologii uczenia maszynowego.
W pierwszej połowie 2024 roku podjęliśmy następujące działania egzekucyjne w następstwie proaktywnego wykrycia przypadków naruszenia naszych Wytycznych dla społeczności przy użyciu zautomatyzowanych narzędzi:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEA) na platformie Snap jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.
Wykorzystujemy aktywne narzędzia technologiczne umożliwiające wykrywanie naruszeń, takie jak PhotoDNA służące do dopasowywania haszów czy CSAI do identyfikowania znanych nielegalnych obrazów i filmów zawierających wykorzystywanie seksualne dzieci. Ponadto w niektórych przypadkach stosujemy sygnały behawioralne do działań egzekucyjnych mających na celu przeciwdziałanie innym potencjalnie nielegalnym działaniom obejmującym wykorzystywanie seksualne dzieci. Materiały zawierające wykorzystywanie seksualne dzieci zgłaszamy do amerykańskiej organizacji National Center for Missing and Exploited Children (Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych) (NCMEC), zgodnie z wymogami przepisów prawa. Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.
W pierwszej połowie 2024 r. podjęliśmy następujące działania w związku z wykryciem wykorzystywania seksualnego dzieci na Snapchacie (proaktywnie lub po otrzymaniu zgłoszenia):
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Nasze wysiłki mające na celu zapewnienie zasobów i wsparcia użytkownikom Snapchata w potrzebie
Zdrowie psychiczne i dobrostan użytkowników Snapchata jest dla nas niezmiernie istotny, co prowadziło i w dalszym ciągu prowadzi do podejmowania decyzji dotyczących tworzenia Snapchata w odmienny sposób. Uważamy, że Snapchat jako platforma przeznaczona do komunikacji między prawdziwymi znajomymi może odgrywać wyjątkową rolę w ułatwianiu udzielania sobie wzajemnej pomocy w trudnym okresie. Dlatego opracowaliśmy zasoby i metody wsparcia dla użytkowników Snapchata w potrzebie.
Nasze narzędzie wyszukiwania Here For You wyświetla zasoby lokalnych ekspertów, gdy użytkownicy szukają określonych tematów związanych ze zdrowiem psychicznym, stanami lękowymi, depresją, stresem, myślami samobójczymi, przygnębieniem i nękaniem. Opracowaliśmy również stronę poświęconą szantażowi na tle seksualnym i innym rodzajom ryzyka o podłożu seksualnym, aby wesprzeć osoby w trudnej sytuacji. Nasza globalna lista zasobów dotyczących bezpieczeństwa jest publicznie dostępna dla wszystkich użytkowników Snapchata w naszym Centrum prywatności, bezpieczeństwa i zasad.
Gdy nasze zespoły ds. zaufania i bezpieczeństwa dowiedzą się o Snapchatterze znajdującym się w niebezpieczeństwie, mogą przekazać mu zasoby dotyczące zapobiegania samookaleczeniom i wsparcia, a w stosownych przypadkach powiadomić o tym personel reagowania kryzysowego. Udostępnione przez nas zasoby są dostępne na naszej globalnej liście zasobów dotyczących bezpieczeństwa dla wszystkich użytkowników Snapchata.
Total Times Suicide Resources Shared
64,094
Odwołania
Poniżej przedstawiamy informacje na temat odwołań, które otrzymaliśmy od użytkowników wnioskujących o weryfikację naszej decyzji o zablokowaniu konta:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Przegląd regionów i krajów
W niniejszej sekcji przedstawiono przegląd działań podejmowanych przez nasze zespoły ds. zaufania i bezpieczeństwa w celu egzekwowania naszych Wytycznych dla społeczności, zarówno proaktywnie, jak i w odpowiedzi na zgłoszenia naruszeń w aplikacji z podziałem na poszczególne regiony geograficzne. Nasze Wytyczne dla społeczności mają zastosowanie do wszelkich treści na Snapchacie — i do wszystkich użytkowników Snapchata — na całym świecie, bez względu na lokalizację.
Informacje dotyczące poszczególnych krajów, w tym wszystkich państw członkowskich UE, są dostępne do pobrania za pośrednictwem załączonego pliku CSV.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Moderowanie reklam
Snap dokłada wszelkich starań, aby wszystkie reklamy były w pełni zgodne z naszą Polityką dotyczącą reklam. Wierzymy w odpowiedzialne i kulturalne podejście do reklamowania, które umożliwi stworzenie bezpiecznych oraz przyjemnych doświadczeń dla wszystkich naszych użytkowników. Wszystkie reklamy podlegają ocenie i akceptacji przez firmę Snap. Ponadto zastrzegamy sobie prawo do usuwania reklam, również w odpowiedzi na opinie użytkowników, które traktujemy poważnie.
Poniżej przedstawiamy informacje na temat naszej moderacji płatnych reklam, które zostały nam zgłoszone po ich opublikowaniu na Snapchacie. Należy pamiętać, że możemy usunąć reklamy ze Snapchata z różnych powodów, co opisane zostało w Polityce dotyczącej reklam Snapa. Wśród takich przyczyn są treści kłamliwe, treści dla dorosłych, treści brutalne lub niepokojące, mowa nienawiści oraz naruszenie własności intelektualnej. Ponadto możesz znaleźć galerię reklam Snapchata w pasku nawigacyjnym tego raportu przejrzystości.
Total Ads Reported
Total Ads Removed
43,098
17,833


