Raport przejrzystości
1 stycznia 2023 r. – 30 czerwca 2023 r.
Wydano:
25 października 2023 r.
Zaktualizowano:
13 grudnia 2023

Dwa razy do roku publikujemy raporty przejrzystości, aby zapewnić wgląd w wysiłki Snapa podejmowane w zakresie bezpieczeństwa oraz w charakter i ilość treści zgłaszanych na naszej platformie. Zależy nam, aby te raporty stawały się coraz bardziej obszerne i dostarczały jeszcze więcej informacji wielu interesariuszom, którym głęboko zależy na naszych praktykach moderowania treści i egzekwowania prawa, a także dobrym samopoczuciu naszej społeczności 
Ten raport przejrzystości obejmuje pierwszą połowę 2023 r. (od 1 stycznia do 30 czerwca). Podobnie jak w przypadku naszych poprzednich raportów, udostępniamy w tym dokumencie dane o globalnej liczbie treści w aplikacji oraz zgłoszeń z poziomu konta, które otrzymaliśmy i przeciw którym podjęliśmy działania w określonych kategoriach naruszenia zasad. Podajemy również informacje na temat naszej reakcji na wnioski od organów ścigania i władz, a także naszych działań egzekucyjnych na obszarze poszczególnych krajów.

W ramach naszego nieustającego zobowiązania do stałego ulepszania raportów przejrzystości, w tym dokumencie wprowadzamy kilka nowych elementów. Znajdują się wśród nich dodatkowe punkty danych, które dotyczą naszych praktyk reklamowych i moderowania reklam, a także apelacji w sprawie treści oraz konta. Chcąc działać w zgodzie z unijną ustawą o usługach cyfrowych, dodaliśmy także nowe informacje kontekstowe na temat naszych działań w państwach członkowskich UE, m.in. liczbę moderatorów treści oraz przeciętną liczbę aktywnych użytkowników w skali miesiąca w tym regionie. Wiele z tych informacji można znaleźć w całym raporcie oraz stronie Unii Europejskiej, poświęconej naszemu Centrum Przejrzystości.
Ponadto zaktualizowaliśmy nasz Glosariusz o linki do przewodników po naszych wytycznych dla społeczności, które zapewniają dodatkowe informacje na temat naszej polityki platformowej i działań operacyjnych. 
Więcej informacji o naszych zasadach zwalczania zagrożeń w sieci oraz planach na stałe rozwijanie naszych praktyk sprawozdawczych, znajduje się w najnowszym wpisie na blogu o bezpieczeństwie i działaniach, dotyczącym tego raportu przejrzystości. 
Dodatkowe materiały dotyczące bezpieczeństwa i prywatności na platformie Snapchat są dostępne w karcie O Raportach przejrzystości, znajdującej się na dole niniejszej strony.
Należy pamiętać, że najbardziej aktualną wersję tego raportu przejrzystości można znaleźć w wersji anglojęzycznej.

Przegląd naruszeń dotyczących treści i kont

Od 1 stycznia do 30 czerwca 2023 r. firma Snap podjęła działania egzekucyjne wobec 6 216 118 treści z całego świata, które naruszyły nasze zasady.
W okresie sprawozdawczym odnotowaliśmy wskaźnik wyświetleń naruszających zasady (VVR) na poziomie 0,02%. Oznacza to, że dwa z wyświetlonych Snapów lub Story na 10 tys., zawierały treści naruszające nasze zasady.

Analiza naruszeń treści i kont

Nasze ogólne wskaźniki raportowania i egzekwowania niewiele zmieniły się w porównaniu z poprzednim półroczem. Odnotowaliśmy jednak kilka wyjątków w kluczowych kategoriach. W bieżącym cyklu dostrzegliśmy ok. 3% spadek w całkowitym wskaźniku zgłaszania i egzekwowania przepisów wobec treści oraz kont.
Najbardziej zauważalne zmiany dotyczą takich kategorii jak napastowanie i nękanie, spam, bronie oraz fałszywe informacje. W przypadku kategorii napastowanie i nękanie mieliśmy około 56% wzrost całkowitej liczby zgłoszeń, a także ok. 39% wzrost egzekwowania przepisów wobec treści i unikalnych kont. Oprócz wzrostu egzekwowania zauważyliśmy skróceniem czasu oczekiwania o ok. 46%. Świadczy to o skuteczności operacyjnej naszego zespołu w kwestii zwalczania tego typu treści naruszających zasady. Ponadto odnotowaliśmy ok. 65% wzrost całkowitej liczby zgłoszeń spamu, ok. 110% wzrost działań egzekucyjnych wobec treści w tej kategorii i ok. 80% wzrost takich działań wobec unikalnych kont, natomiast nasz zespół zmniejszył czas oczekiwania również o ok. 80%. W kategorii broni dostrzegliśmy ok. 13% spadek całkowitej ilości zgłoszeń, 51% spadek działań egzekucyjnych wobec treści i ok. 53% spadek takich działań wobec unikalnych kont. Ponadto w kategorii fałszywych informacji mieliśmy ok. 14% wzrost całkowitej liczby zgłoszeń, przy jednoczesnym ok. 78% spadku działań egzekucyjnych wobec treści i ok. 74% spadku takich działań wobec unikalnych kont. Te wyniki można przypisać ciągłemu procesowi kontroli jakości (QA) i zasobom, które wykorzystujemy do zgłaszania fałszywych informacji, i dzięki którym nasze zespoły moderatorów mogą precyzyjnie wychwytywać fałszywe informacje na naszej platformie oraz skutecznie na nie reagować.
Ogólnie rzecz biorąc, w ostatnim okresie odnotowaliśmy podobne wyniki, lecz uważamy za ważne dalsze usprawnianie narzędzi użytkowanych przez naszą społeczność do aktywnego i precyzyjnego zgłaszania potencjalnych naruszeń, kiedy tylko pojawiają się na platformie.

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie seksualne któregokolwiek członka naszej społeczności, w szczególności nieletnich, jest nielegalne, odrażające i zabronione zgodnie z naszymi Wytycznymi dla społeczności. Zapobieganie, wykrywanie i eliminowanie materiałów zawierających wykorzystywanie seksualne dzieci (CSEAI) na platformie SNAP jest dla nas priorytetem i nieustannie zwiększamy nasze możliwości zwalczania takich oraz innych rodzajów przestępstw.
Wykorzystujemy narzędzia technologii aktywnego wykrywania, takie jak PhotoDNA oraz Child Sexual Abuse Imagery (CSAI) Match od firmy Google, aby identyfikować, odpowiednio, nielegalne zdjęcia i nagrania wideo wykorzystywania seksualnego dzieci, a następnie zgłaszać je do zgodnie z prawem do amerykańskiego National Center for Missing and Exploited Children (NCMEC). Instytucja ta następnie współpracuje z krajowymi i międzynarodowymi organami ścigania w zależności od sytuacji.
W pierwszej połowie 2023 r. prewencyjnie wykryliśmy i przeciwdziałaliśmy wobec 98% wszystkich przypadków seksualnego wykorzystania dzieci, które zostały zgłoszone tutaj. W porównaniu z poprzednim okresem jest to wzrost o 4%.
**Pamiętaj, że każde zgłoszenie do NCMEC może zawierać wiele elementów treści. Łączna liczba poszczególnych elementów mediów przekazanych do NCMEC jest równa całkowitej liczbie treści, wobec której podjęliśmy działania.

Treści dotyczące samookaleczania się i samobójstwa

Zdrowie psychiczne i dobrostan użytkowników Snapchata jest dla nas niezmiernie istotny, co prowadziło i w dalszym ciągu prowadzi do podejmowania decyzji dotyczących tworzenia Snapchata w inny sposób. Uważamy, że Snapchat jako platforma przeznaczona do komunikacji między prawdziwymi przyjaciółmi może odgrywać wyjątkową rolę w ułatwieniu zapewniania sobie wzajemnej pomocy w trudnym okresie.
W momencie, gdy nasz zespół ds. zaufania i bezpieczeństwa rozpoznaje użytkownika w niebezpieczeństwie, członkowie zespołu mogą przesłać mu materiały informacyjne na temat zapobiegania samookaleczeniom i pomocy w tym zakresie, a także, w razie potrzeby, poinformować służby reagowania w sytuacjach kryzysowych. Udostępnione przez nas zasoby są dostępne na naszej globalnej liście zasobów bezpieczeństwa dla wszystkich użytkowników Snapchata.

Apelacje

Począwszy od tego raportu, zaczynamy informować o liczbie apelacji zgłoszonych przez użytkowników, których konta zostały zablokowane za naruszenie naszych zasad. Przywracamy wyłącznie te konta, które zostaną uznane przez naszych moderatorów za niesłusznie zablokowane. W tym okresie informujemy o apelacjach związanych z treściami narkotykowymi.  Z kolei w następnym planujemy opublikować więcej danych o apelacjach, wynikających z naruszeń naszych innych zasad.
**Pamiętaj, że każde zgłoszenie do NCMEC może zawierać wiele elementów treści. Łączna liczba poszczególnych elementów mediów przekazanych do NCMEC jest równa całkowitej liczbie treści, wobec której podjęliśmy działania.

Moderowanie reklam

Firma Snap dokłada wszelkich starań, aby wszystkie reklamy były w pełni zgodne z zasadami naszej platformy. Wierzymy w odpowiedzialne i kulturalne podejście do reklamowania, które umożliwi stworzenie bezpiecznych oraz przyjemnych doznań dla wszystkich naszych użytkowników. Poniżej przedstawiamy wgląd w nasze działania z zakresu moderowania reklam. Należy pamiętać, że możemy usunąć reklamy ze Snapchat z różnych powodów, co opisane zostało w polityce dotyczącej reklam Snapa. Wśród takich przyczyn są treści kłamliwe, treści dla dorosłych, treści brutalne lub niepokojące, mowa nienawiści oraz naruszenie własności intelektualnej. Ponadto możesz znaleźć galerię reklam Snapchata w pasku nawigacyjnym tego raportu przejrzystości. 

Omówienie poszczególnych krajów

W tej części przedstawiono informacje dotyczące stosowania naszych Wytycznych dla społeczności z podziałem na poszczególne regiony geograficzne. Nasze Wytyczne mają zastosowanie do wszelkich treści w aplikacji Snapchat i wszystkich użytkowników na całym świecie, bez względu na lokalizację.
Informacje dotyczące poszczególnych krajów są dostępne w pliku CSV do pobrania: